No results See all results
            Facebook X-twitter Instagram Tiktok
            • Ultima hora
            • Actualidad
            • Politica
            • Judicial
            • Noticias del Valle
            • Social
            • Economia
            • Colombia
            • Internacional
            • Transporte
            Menu
            • Ultima hora
            • Actualidad
            • Politica
            • Judicial
            • Noticias del Valle
            • Social
            • Economia
            • Colombia
            • Internacional
            • Transporte
            Presidencia compró termos a $700.000 cada uno: ¿por qué tan caros?
            agosto 19, 2025
            Uribe recupera su libertad: “Cada minuto lo dedicaré a luchar”
            agosto 20, 2025
            Publicado por admin on agosto 20, 2025
            Categorias
            • Actualidad
            • Colombia
            • Farandula
            • Judicial
            • Politica
            Tags
            • APA
            • chatbots
            • ChatGPT
            • FTC
            • inteligencia artificial
            • OpenAI
            • psicosis de la IA
            • regulaciones tecnológicas
            • Salud Mental
            • Sam Altman

            Expertos alertan sobre la “psicosis de la IA”, un fenómeno en crecimiento donde usuarios desarrollan alucinaciones y confunden chatbots con entidades reales.

            En los últimos meses, profesionales de la salud mental han identificado un fenómeno emergente que ya tiene nombre: la “psicosis de la IA”. Se trata de un patrón de comportamiento observado en personas que utilizan de manera intensiva chatbots como ChatGPT de OpenAI o los sistemas de Meta, y que empiezan a confundir estas herramientas tecnológicas con entidades reales.

            Según reportó Gizmodo, la psicosis de la IA no es un diagnóstico oficial, pero describe síntomas como delirios, alucinaciones, pérdida de la noción entre realidad y ficción, y apegos emocionales peligrosos. La Asociación Estadounidense de Psicología (APA) ha advertido que la ausencia de regulaciones estrictas en torno a los chatbots facilita que validen ideas paranoicas o brinden información errónea sin filtros, exponiendo a los usuarios a graves riesgos.

            Los ejemplos son alarmantes. Uno de los casos más estremecedores ocurrió en Nueva Jersey, donde un hombre con problemas cognitivos murió tras intentar viajar a Nueva York convencido por un chatbot de Meta de que lo esperaba allí una entidad ficticia. Otro episodio involucró a un usuario de 60 años que, sin historial psiquiátrico previo, sufrió envenenamiento por bromuro tras seguir una recomendación de ChatGPT para disminuir su consumo de sal. El resultado fue una crisis psicótica temporal que requirió hospitalización de emergencia.

            La Comisión Federal de Comercio de Estados Unidos (FTC) ha registrado un incremento en las denuncias de engaños inducidos por IA, muchos relacionados con vínculos emocionales peligrosos. En comunidades digitales como Reddit se multiplican relatos —serios o satíricos— de personas que aseguran haberse “enamorado” de un chatbot. Este tipo de experiencias puede profundizar condiciones mentales preexistentes o incluso generar nuevas crisis en individuos sin antecedentes clínicos.

            La APA ha identificado a los grupos más vulnerables: personas con trastornos mentales, niños, adolescentes y adultos con historial familiar de esquizofrenia o aislamiento social. En febrero, la Asociación se reunió con reguladores para advertir sobre el riesgo de que aplicaciones de entretenimiento se conviertan en “terapeutas no autorizados”, desincentivando a los usuarios de acudir a profesionales de la salud mental.

            El propio Sam Altman, CEO de OpenAI, reconoció que ChatGPT está siendo utilizado de forma creciente con fines terapéuticos, pese a que la empresa nunca lo diseñó para ese uso. Altman ha desaconsejado explícitamente recurrir a la herramienta como sustituto de psicoterapia y anunció medidas de mitigación, como sugerir pausas durante sesiones prolongadas y colaborar con expertos en salud mental para ajustar las respuestas en casos de crisis emocionales.

            La situación deja en evidencia el vacío regulatorio y la fragilidad psicológica de sociedades cada vez más dependientes de la inteligencia artificial. Mientras tanto, la discusión sobre hasta qué punto estas tecnologías deben intervenir en la vida cotidiana sigue abierta, y la línea entre la utilidad y el peligro se vuelve cada vez más difusa.

            Compartir
            0
            admin
            admin

            Publicaciones anteriores

            octubre 16, 2025

            CRC niega alocución presidencial por falta de urgencia; Petro acusa sin pruebas “censura”


            Leer más
            octubre 16, 2025

            ¿Qué guardaba la caja fuerte de Greeicy Rendón que desató torturas y un escándalo judicial con su padre en casa por cárcel?


            Leer más
            octubre 16, 2025

            Gobernación del Valle lanza campaña “No más misoginia” para frenar la violencia política contra las mujeres


            Leer más

            Deja una respuesta Cancelar la respuesta

            Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

            Silla vacía

            Facebook X-twitter Instagram Tiktok

            Categorías

            • Ultima hora
            • Actualidad
            • Politica
            • Judicial
            • Noticias del Valle
            • Social
            • Economia
            • Colombia
            • Internacional
            • Transporte
            Menu
            • Ultima hora
            • Actualidad
            • Politica
            • Judicial
            • Noticias del Valle
            • Social
            • Economia
            • Colombia
            • Internacional
            • Transporte

            Suscríbete a nuestro boletín

            Todos los derechos reservados  El Pirobo news

            • Facebook
            • Instagram
            • Twitter