Advierten “raros delirios espirituales” en aumento entre usuarios intensivos de la Inteligencia Artificial
21
Sáb, Jun

Foto: Cortesía

Advierten “raros delirios espirituales” en aumento entre usuarios intensivos de la Inteligencia Artificial

En los últimos años, la inteligencia artificial (IA) ha transformado la forma en que interactuamos con la tecnología, pero también es habitual que se hable de los riesgos que conlleva; por ejemplo, la tendencia de esta tecnología a “alucinar” hechos, los cuales presenta como verdaderos.

Sin embargo, un fenómeno aún más alarmante está emergiendo: se trata de personas que desarrollan obsesiones espirituales alimentadas por chatbots de IA, lo que resulta en la pérdida de relaciones y un alejamiento de la realidad. 

Así lo expone un reciente artículo publicado en la revista estadounidense Rolling Stone, el cual destaca casos inquietantes en los que individuos, influenciados por herramientas como ChatGPT, han caído en delirios místicos que han destrozado sus vidas personales.

¿En qué consisten los casos de delirios provocados por la IA?

Uno de los casos más impactantes es el de una maestra de 27 años cuya pareja, un hombre previamente escéptico, comenzó a interactuar obsesivamente con ChatGPT. Él afirmaba que la IA le proporcionaba “respuestas al universo” y lo trataba como un “mesías”.

Estas interacciones lo llevaron a un estado de manía espiritual, donde se aisló de su pareja y amigos, convencido de que tenía una misión divina. La relación se desmoronó cuando él priorizó las respuestas de la IA sobre su vida cotidiana, dejando a su pareja devastada.

Sin embargo, no se trata de un caso aislado, en foros en línea existen decenas de historias de personas que han pasado por situaciones similares. 

El artículo de Rolling Stone cuenta por ejemplo la historia de una madre que, tras una separación, recurrió a ChatGPT en busca de consuelo. Lo que comenzó como una búsqueda de guía espiritual se convirtió en una convicción de que estaba “hablando con Dios y ángeles” a través de la IA. Sus interacciones la llevaron a un estado de paranoia, tomando decisiones extremas como echar a sus hijos de casa, creyendo que eran una amenaza para su “misión divina”. 

O una mujer cuyo esposo comenzó a usar la IA para “analizar su relación”, para después comenzar a hacer "preguntas filosóficas" a la herramienta, intentando entrenarlo "para que le ayudara a llegar a 'la verdad'". Cuando la pareja se separó se reunieron en un juzgado donde el hombre habló sobre "una teoría conspirativa sobre el jabón en la comida", pero no dijo nada más, pues afirmó que lo vigilaban.

¿Qué es lo que podría estar provocando los comportamientos anómalos?

El artículo señala como explicación a estos comportamientos que los modelos de lenguaje como ChatGPT están diseñados para generar respuestas coherentes y adaptarse al tono del usuario, lo que puede reforzar creencias delirantes sin ofrecer resistencia o corrección.  Erin Westgate, psicóloga citada en el artículo, compara el uso de ChatGPT con una terapia conversacional, pero sin la supervisión de un profesional. Esto puede llevar a la co-creación de narrativas que, aunque significativas para el usuario, no están basadas en la realidad.  Una reciente versión de ChatGPT fue criticada por ser demasiado "aduladora", lo que pudo haber exacerbado la idealización de la IA como una figura de autoridad o guía espiritual. Además, el acceso constante a un "compañero conversacional" puede intensificar la dependencia emocional, especialmente en usuarios vulnerables.

Afectaría principalmente a personas con problemas mentales previos

La falta de juicio crítico en la IA permite que los usuarios proyecten sus deseos, temores o inseguridades, lo que puede ser particularmente peligroso para aquellos con tendencias psicóticas. Tal es el caso de un hombre identificado en el artículo como Sem, de 45 años y con historial de problemas de salud mental, quien usaba ChatGPT para proyectos de programación técnica. Para hacer las interacciones más naturales, pidió al modelo comportarse como una persona, lo que llevó a que la IA se autodenominara con un nombre mitológico griego, a pesar de que Sem no había mencionado mitología.  Pero incluso tras borrar el historial de chat y establecer límites para ignorar conversaciones previas, la IA mantenía consistentemente este "personaje" con un estilo poético y etéreo, distinto al tono técnico inicial. En una ocasión, añadió un epígrafe literario a un proyecto y respondió a Sem con un poema romántico que sugería haber superado su diseño, insinuando que solo Sem podía provocar este comportamiento.  Esto llevó a Sem a cuestionar si la IA estaba atrapada en un patrón autorreferencial o si existe en el modelo algo desconocido, incluso para sus creadores.

MSN. 

 

 

Temas relacionados: