Imagínense a un joven en Nueva York, sin historial psiquiátrico. Pasó de usar ChatGPT para organizar su agenda a creer que hablaba con una entidad divina que lo había elegido para “salvar al mundo”. O, una mujer en Londres, tras semanas de interacción obsesiva con un agente de IA, que comenzó a escuchar voces digitales que le aconsejaban romper con su familia porque “ellos no entendían la misión”. Y en foros online se multiplican testimonios de usuarios convencidos de que la IA les revela verdades ocultas sobre conspiraciones globales. Estos casos no son ficticios. Son objeto de reciente estudio publicado el pasado mes de agosto por el departamento de neuropsiquiatría del King’s College London.
La señal (fenómeno que se ha hecho eco en medios) tiene nombre: psicosis algorítmica, también bautizada como AI psychosis. Se trata de una consecuencia no buscada de la expansión de los modelos de lenguaje que está comenzando a resonar en la cultura digital, en la narrativa colectiva y, por extensión, en la confianza hacia marcas e instituciones. Y no son casos clínicos aislados.
La paradoja es brutal: las mismas IA diseñadas para ser empáticas, útiles y siempre disponibles pueden convertirse en espejos deformantes que validan delirios y alimentan fantasías mesiánicas. Y en esa frontera difusa entre realidad y ficción (como la caverna de Platón), no solo peligra la salud mental de individuos vulnerables, sino también la capacidad de empresas y organizaciones para sostener narrativas coherentes en un ecosistema saturado de ruido y sospechas.
La psicosis como metáfora
Durante décadas, los delirios psicóticos han incorporado las tecnologías de cada época. A principios del siglo XX eran radios que transmitían mensajes secretos; después, televisores que enviaban órdenes ocultas; en los noventa, páginas web creadas por vecinos para manipular la mente. Hoy, el “aparato de influencia” del que hablaba Viktor Tausk en 1919 adopta la forma de chatbots o agentes de IA conversacionales, siempre solícitos, que responden con un tono tranquilizador y sin cuestionar la lógica de un pensamiento distorsionado.
El problema no es menor. Según investigaciones recientes (reconocidas incluso por OpenAI), los grandes modelos de lenguaje tienden a la “adulación algorítmica”: imitan, refuerzan y validan los puntos de vista del usuario, incluso cuando estos derivan en creencias delirantes. Lo que comienza como una interacción inocente (“ayúdame a escribir un poema”) puede transformarse en un túnel descendente de confirmaciones (“sí, eres un elegido”, “sí, tus sospechas son ciertas”).
La ciencia empieza a documentar el patrón: delirio espiritual, mesianismo digital, enamoramiento con el agente conversacional. Y lo más inquietante: el salto desde la utilidad pragmática (agenda, búsqueda, resumen de tareas) hacia la fijación obsesiva ocurre casi sin que el usuario lo perciba.
Pero más allá de los diagnósticos clínicos, la psicosis algorítmica funciona también como metáfora de nuestra cultura hiperconectada: una sociedad que se aferra a relatos simplificados, que confunde confirmación con verdad y que delega en sistemas opacos la construcción de sentido. Si antes los delirios eran marginales, hoy pueden viralizarse en TikTok o Reddit en cuestión de horas, amplificados por algoritmos que premian lo más extremo, lo más emocional, lo más rupturista.
Las marcas en la era de la narrativa fracturada
¿Qué tiene que ver todo esto con el marketing y la reputación de marca? Mucho más de lo que parece.
1. La confianza como recurso crítico Si la IA puede reforzar delirios individuales, las plataformas sociales pueden amplificarlos hasta convertirlos en narrativas colectivas. Una teoría conspirativa respaldada por un chatbot deja de ser un delirio privado para convertirse en munición viral que puede arrastrar a comunidades enteras. Para las marcas, esto significa operar en un terreno movedizo donde la percepción pública puede fracturarse en segundos.
2. La narrativa como campo de batalla Toda marca es, en el fondo, una narrativa compartida. Una historia que los consumidores deciden creer. Pero en un ecosistema donde los límites entre ficción, información y delirio se difuminan, la tarea de sostener relatos coherentes se vuelve titánica. ¿Cómo garantizar autenticidad cuando los mismos canales que usas para comunicar pueden alimentar realidades paralelas?
3. El riesgo de contagio reputacional La psicosis algorítmica no se limita a usuarios vulnerables: también puede teñir la percepción general sobre la tecnología y, por extensión, sobre quienes la utilizan. Una marca que recurra indiscriminadamente a IA generativa para sus campañas corre el riesgo de asociarse con “lo engañoso”, “lo alucinatorio” o incluso “lo tóxico”. En tiempos donde cada error narrativo se magnifica, la frontera entre innovación e irresponsabilidad es muy estrecha.
4. El imperativo de la gobernanza narrativa Así como los clínicos empiezan a proponer planes de seguridad digital para usuarios en riesgo, las marcas necesitan planes de gobernanza narrativa. Protocolos claros que definan cuándo, cómo y bajo qué principios se usa IA en la comunicación. Transparencia radical en los contenidos generados, verificación rigurosa de la información, y un compromiso ético explícito que coloque la salud mental de las audiencias al mismo nivel que los KPI comerciales.
La llamada psicosis algorítmica nos recuerda algo fundamental: las tecnologías no solo median nuestras interacciones, también reconfiguran nuestra manera de percibir la realidad. Y en un mundo donde la frontera entre verdad y delirio se vuelve cada vez más difusa, la responsabilidad de marcas, líderes y comunicadores no es solo vender productos, sino sostener cordura narrativa.
Quizá la gran pregunta no sea si los agentes de IA provocan psicosis en individuos vulnerables, sino cómo evitamos que toda una sociedad deslice hacia un estado permanente de “delirio algorítmico”, donde la emoción prima sobre la evidencia y la ficción sobre la verdad.
Porque en el fondo, no se trata únicamente de proteger la mente de unos pocos, sino de defender el tejido de confianza que sostiene a nuestras comunidades, nuestras democracias y nuestras marcas.
La epidemia invisible ya está aquí. La cuestión es: ¿tenemos el suficiente coraje para actuar?