Pharmaicy es un «marketplace» especializado en la venta de módulos de código específicamente diseñados para replicar en la IA los efectos de las drogas.
La IA no es un ser sintiente (o no lo es al menos todavía), pero a algunos les fascina al parecer la idea de que ChatGPT y compañía puedan comportarse como si estuvieran bajo los efectos de los drogas. Y esta idea (aparentemente descabellada) ha terminado cristalizando en un «marketplace» especializado en la venta de módulos de código específicamente diseñados para lograr que los chatbots de IA actúen como si hubieran consumido sustancias psicoactivas como el cannabis, la ketamina, la cocaína, la ayahuasca y el alcohol.
Este «marketplace» tan singular responde a la denominación de Pharmaicy y es la criatura del director creativo sueco Petter Rudwall. Los módulos que allí se comercializan (que pueden posteriormente ser imbricados en las versiones de pago de ChatGPT) contienen instrucciones específicas para alterar el tono, la lógica y la expresión del famoso chatbot y que este se muestre, por ende, mucho más desinhibido (como si estuviera «drogado»).
Antes de lanzar Pharmaicy, Rudwall se tomó la molestia de analizar varios informes que evaluaban los efectos en el plano psicológico del consumo de estupefacientes para tratar de replicar tales efectos apoyándose en «prompts» para modelos de lenguaje grande (LLM), tal y como informa Wired.
Pharmaicy, el «marketplace» donde se venden «drogas» específicamente diseñadas para ChatGPT
Para Rudwall Pharmaicy es sobre todo y ante todo un experimento creativo y conceptual y no tanto un logro en el plano técnico. Al fin y al cabo, los chatbots de IA son entrenados en base a una vasta miríada de datos de origen humano y es en este sentido perfectamente natural explorar si tales chatbots pueden comportarse eventualmente como si estuvieran bajo los efectos de las drogas (las mismas que consumen a veces los humanos de carne y hueso).
Quienes han tenido oportunidad de ser testigos en primera persona de los «colocones» de la IA dan cuenta, no obstante, de resultados que son a veces notablemente diferentes entre sí. Los profesionales de la creatividad, la tecnología y la educación ponen, por ejemplo, de relieve que, convenientemente «dopado» con los módulos de código comercializados por Pharmaicy, ChatGPT, el chatbot de OpenAI, produce en términos generales respuestas más imaginativas y propulsadas en mayor medida por las emociones y la libertad de pensamiento.
Los defensores de las «drogas» diseñadas específicamente para la IA sostienen que su efecto es en realidad muy similar al impacto que las sustancias psicodélicas han tenido históricamente en la creatividad humana en ámbitos como la ciencia, la música y la informática.
Por su parte, los científicos y los filósofos insisten en que los «colocones» de la IA no son en realidad tales y que son meramente simulaciones, pues no echan raíces en experiencias internas ligadas a la consciencia (una consciencia de la que son, al fin y al cabo, huérfanos los chatbots). Y los más críticos hacen hincapié en que los módulos comercializados por Pharmaicy simplemente exhortan a los chatbots a remedar los patrones lingüísticos normalmente asociados los efectos derivados del consumo de drogas (las divagaciones y las metáforas, por ejemplo), lo cual puede aumentar a la postre el riesgo de alucinaciones.
Lo que parece fuera de toda duda es que Pharmaicy prende la mecha de un interesante debate sobre la ética de la IA y la posibilidad (quizás no demasiado lejana) de que esta tecnología desarrolle eventualmente consciencia en el futuro.































