Expertos alertan sobre la “psicosis de la IA”, un fenómeno en crecimiento donde usuarios desarrollan alucinaciones y confunden chatbots con entidades reales.
En los últimos meses, profesionales de la salud mental han identificado un fenómeno emergente que ya tiene nombre: la “psicosis de la IA”. Se trata de un patrón de comportamiento observado en personas que utilizan de manera intensiva chatbots como ChatGPT de OpenAI o los sistemas de Meta, y que empiezan a confundir estas herramientas tecnológicas con entidades reales.
Según reportó Gizmodo, la psicosis de la IA no es un diagnóstico oficial, pero describe síntomas como delirios, alucinaciones, pérdida de la noción entre realidad y ficción, y apegos emocionales peligrosos. La Asociación Estadounidense de Psicología (APA) ha advertido que la ausencia de regulaciones estrictas en torno a los chatbots facilita que validen ideas paranoicas o brinden información errónea sin filtros, exponiendo a los usuarios a graves riesgos.
Los ejemplos son alarmantes. Uno de los casos más estremecedores ocurrió en Nueva Jersey, donde un hombre con problemas cognitivos murió tras intentar viajar a Nueva York convencido por un chatbot de Meta de que lo esperaba allí una entidad ficticia. Otro episodio involucró a un usuario de 60 años que, sin historial psiquiátrico previo, sufrió envenenamiento por bromuro tras seguir una recomendación de ChatGPT para disminuir su consumo de sal. El resultado fue una crisis psicótica temporal que requirió hospitalización de emergencia.
La Comisión Federal de Comercio de Estados Unidos (FTC) ha registrado un incremento en las denuncias de engaños inducidos por IA, muchos relacionados con vínculos emocionales peligrosos. En comunidades digitales como Reddit se multiplican relatos —serios o satíricos— de personas que aseguran haberse “enamorado” de un chatbot. Este tipo de experiencias puede profundizar condiciones mentales preexistentes o incluso generar nuevas crisis en individuos sin antecedentes clínicos.
La APA ha identificado a los grupos más vulnerables: personas con trastornos mentales, niños, adolescentes y adultos con historial familiar de esquizofrenia o aislamiento social. En febrero, la Asociación se reunió con reguladores para advertir sobre el riesgo de que aplicaciones de entretenimiento se conviertan en “terapeutas no autorizados”, desincentivando a los usuarios de acudir a profesionales de la salud mental.
El propio Sam Altman, CEO de OpenAI, reconoció que ChatGPT está siendo utilizado de forma creciente con fines terapéuticos, pese a que la empresa nunca lo diseñó para ese uso. Altman ha desaconsejado explícitamente recurrir a la herramienta como sustituto de psicoterapia y anunció medidas de mitigación, como sugerir pausas durante sesiones prolongadas y colaborar con expertos en salud mental para ajustar las respuestas en casos de crisis emocionales.
La situación deja en evidencia el vacío regulatorio y la fragilidad psicológica de sociedades cada vez más dependientes de la inteligencia artificial. Mientras tanto, la discusión sobre hasta qué punto estas tecnologías deben intervenir en la vida cotidiana sigue abierta, y la línea entre la utilidad y el peligro se vuelve cada vez más difusa.
Todos los derechos reservados El Pirobo news