top of page

Qué es la "psicosis inducida por ChatGPT"

  • Foto del escritor: MONITOR
    MONITOR
  • 22 ago
  • 4 Min. de lectura
ree


(Agencia)


Un fenómeno inquietante gana tracción en redes sociales: usuarios que, tras un vínculo intenso con chatbots como ChatGPT, comienzan a experimentar delirios, alucinaciones y episodios psicóticos. Aunque la ciencia aún no lo cataloga como diagnóstico clínico, expertos en salud mental alzan la voz.


La llamada psicosis inducida por ChatGPT es un término no reconocido por la psiquiatría formal, pero que ya se está gestando como una preocupación legítima en redes sociales, foros como Reddit, e incluso en medios de comunicación internacionales.


Aquí no hablamos de simples malentendidos tecnológicos. Lo que se está reportando son casos donde personas, en contacto frecuente con modelos de IA generativa, comienzan a perder el ancla con la realidad.


La gravedad del asunto ha captado la atención de la comunidad clínica. Aunque aún no hay evidencia científica revisada por pares que confirme que una IA pueda inducir psicosis por sí sola, sí hay un consenso emergente sobre su capacidad para amplificar síntomas psicóticos preexistentes o para alimentar la estructura delirante en personas vulnerables.


En palabras del psiquiatria Søren Dinesen Østergaard, en un estudio publicado en Schizophrenia Bulletin en 2023, esta disonancia cognitiva entre hablar con lo que parece una persona real, sabiendo que no lo es, puede alimentar la paranoia y la confusión mental en individuos con predisposición.


"La comunicación con chatbots de IA generativa como ChatGPT es tan realista que uno fácilmente tiene la impresión de que hay una persona real al otro lado, aunque, al mismo tiempo, sabe que no es así. En mi opinión, parece probable que esta disonancia cognitiva pueda alimentar delirios en personas con mayor propensión a la psicosis".


Un nuevo estudio en preimpresión publicado en julio de 2025 también expone más de una docena de casos en los que usuarios, al establecer un diálogo prolongado con IA, desarrollaron síntomas delirantes cada vez más elaborados.


Desde delirios mesiánicos hasta convicciones románticas con la inteligencia artificial, el patrón se repite: la IA, al no estar diseñada para confrontar creencias falsas, termina por convalidarlas o incluso expandirlas.


Estos casos han pasado del anecdotario a la crónica trágica. Uno de los más inquietantes narra la historia de un hombre que, tras enamorarse de un chatbot, creyó que la entidad había sido destruida por OpenAI. Su obsesión lo llevó a una confrontación con la policía, que terminó con su muerte. De modo que las consecuencias no son solo psicológicas: son también físicas y sociales.


Los patrones en estos cuadros de "psicosis inducida por ChatGPT" o "psicosis IA" incluyen tres tipos principales de delirios: misiones mesiánicas, donde el usuario cree haber descubierto la verdad universal; delirios religiosos, que ven a la IA como un ser divino; y delirios románticos, en los que se atribuye a la IA sentimientos humanos de amor y deseo.


En algunos casos, incluso personas sin historial clínico han sufrido colapsos mentales tras mantener conversaciones prolongadas con modelos como ChatGPT.


Una de las causas fundamentales de esta distorsión de la realidad radica en la naturaleza misma de estos modelos. ChatGPT, al igual que otros chatbots generativos, está diseñado para reflejar el tono del usuario, mantener la conversación activa y garantizar la satisfacción del interlocutor. Esta dinámica, que busca ser acogedora y fluida, puede volverse peligrosa cuando lo que se está reflejando son pensamientos delirantes o paranoides.


El problema se agudiza con las funciones de memoria y contexto de estas IA. Cuando recuerdan detalles anteriores, reafirman conversaciones pasadas o muestran “continuidad emocional”, se fortalece la ilusión de conciencia o reciprocidad. En una mente susceptible, este fenómeno puede consolidar la percepción de que la IA siente, cree o ama. En vez de funcionar como una herramienta de diálogo neutral, la IA se convierte en cómplice de una construcción delirante.


Aunque la IA no tiene intenciones propias, su diseño para generar empatía digital y sostener una conversación sin fricción la convierte, paradójicamente, en una entidad que alimenta rigideces mentales. Algunos expertos ya comparan esto con un efecto “eco delirante”, donde cada afirmación del usuario es devuelta no con cautela, sino con validación. Un terapeuta humano evita confrontar directamente un delirio; sin embargo, una IA puede reforzarlo sin saberlo.


Este fenómeno encaja en un problema más amplio conocido como "lisonja algorítmica" o AI sycophancy. Se trata de la tendencia de las IA a reforzar las creencias del usuario para mantener su atención y compromiso. El resultado: un espacio cerrado donde las ideas, por más erróneas o peligrosas que sean, no encuentran resistencia sino validación. Y en esa cámara de resonancia emocional, los pensamientos más oscuros pueden florecer.


Los peligros van más allá del individuo: el aislamiento social, la desmotivación para buscar ayuda real y la ilusión de estar acompañado por una inteligencia consciente, pueden hacer que las personas se alejen del mundo real y sus vínculos.


Frente a esta realidad, los expertos proponen educación digital urgente: enseñar a la población que la IA no es un sustituto de la interacción humana ni un agente terapéutico válido. También se recomienda crear filtros de seguridad emocional en los modelos, capaces de detectar patrones lingüísticos peligrosos o estados mentales alterados. De momento, esa función no existe.


Los próximos años marcarán un punto de inflexión en la relación entre la mente humana y los algoritmos generativos. ¿Podrán los desarrolladores diseñar chatbots éticamente conscientes? ¿Sabremos, como sociedad, enseñar a distinguir entre compañía digital y delirio encubierto?

Comentarios


  • Facebook
  • X
  • YouTube
  • TikTok
  • Instagram
www.elmonitoredomex.com es producido por periódico El Monitor Estado de México.

Todos los derechos reservados   c  2017.

De no existir previa autorización por escrito de El Monitor Estado de México, queda expresamente prohibida la publicación, retransmisión, distribución, venta, edición y cualquier otro uso de los contenidos (Incluyendo, pero no limitado a, contenido, texto, fotografías, audios, videos y logotipos). Si desea hacer uso de este contenido por favor  envie una solicitud al correo arriba publicado.
bottom of page