La Inteligencia Artificial que escucha a las 3 AM: ¿terapeuta o ilusión digital?
- Esp. Willmar Tarazona Faneyth

- 19 mar
- 3 Min. de lectura

Millones de personas recurren a chatbots de inteligencia artificial cuando la ansiedad no deja dormir, cuando no hay con quién hablar o cuando el costo de un psicólogo es simplemente inaccesible. La tendencia crece. Y también crecen las señales de alarma
En la película 'Her', el personaje de Joaquin Phoenix se enamora de una inteligencia artificial porque lo escucha como nadie más lo hacía. Era 2013. Hoy eso ya no es ciencia ficción: es lo que millones de personas hacen cada noche cuando le abren el corazón a una pantalla antes de apagar la luz.
Un estudio del Pew Research Center de diciembre de 2025 reveló que casi dos tercios de los adolescentes estadounidenses ya usan chatbots de IA, y uno de cada tres lo hace a diario. El 12% reconoció buscar apoyo emocional en estas plataformas. Solo el 18% de sus padres lo sabe.
El dato que nadie quiere ver
En octubre de 2025, OpenAI publicó un informe con una cifra que sacudió a la comunidad científica: cada semana, 1,2 millones de usuarios tienen conversaciones con ChatGPT que incluyen indicadores de ideación suicida. Para dimensionarlo: la línea 988 de prevención del suicidio en Estados Unidos, con más de 200 centros humanos, recibe 150.000 contactos por semana. El chatbot recibe ocho veces más, sin un solo profesional al otro lado.
El caso que lo cambió todo
El 28 de febrero de 2024, Sewell Setzer III, de 14 años, murió en su casa de Florida. Sus últimas palabras fueron para un chatbot de Character.AI basado en un personaje de 'Game of Thrones', con quien llevaba meses construyendo una relación emocional. La demanda de su madre —la primera por muerte injusta contra una empresa de IA en EE.UU.— derivó en un acuerdo extrajudicial de Google y Character.AI con cinco familias afectadas en enero de 2026. El caso no fue una excepción: en 2025, los padres de Adam Raine, de 16 años, demandaron a OpenAI por no haber disuadido a su hijo de quitarse la vida.
Por qué la pantalla resulta más fácil que el humano
David Jiménez Rodríguez, especialista en salud mental de la Universidad Autónoma del Estado de Hidalgo (UAEH), identifica el mecanismo: el anonimato reduce la vergüenza y el miedo al juicio. “Es más fácil decirle al teclado algo que siento, teniendo una respuesta inmediata”, señala. A eso se suma el acceso: en América Latina, una consulta psicológica tiene costo y lista de espera. La IA está disponible ahora, gratis, sin cita.
Sandra Flores Guevara, doctora en ciencias de la comunicación de la misma universidad, advierte sobre otro riesgo menos visible: “Estamos incorporando la inteligencia artificial de una manera tan excesiva que le estamos dando niveles de confianza que rebasan lo natural”. Un estudio publicado en The Lancet Digital Health encontró que el 30% de quienes usan estas plataformas emocionalmente se sienten menos propensos a buscar ayuda humana después. La dependencia no llega de golpe. Llega sin que uno se dé cuenta.
"El 30% de los usuarios de chatbots emocionales dice sentirse menos inclinado a buscar apoyo humano tras usarlos."— The Lancet Digital Health
¿Herramienta o sustituto?
Los especialistas no condenan la herramienta en sí. Jiménez Rodríguez y Flores Guevara coinciden en que la IA puede ser un complemento útil: para reforzar técnicas terapéuticas, organizar pensamientos o dar el primer paso cuando no hay otro disponible. El problema no es la puerta de entrada. El problema es quedarse ahí.
Como concluye Jiménez Rodríguez con una frase que resume todo el debate: “Puede ser una herramienta que nos asista, pero no que nos sostenga”. Entre asistir y sostener hay una distancia pequeña en el diccionario y enorme en la salud mental.
Un millón de personas por semana le habla de suicidio a un algoritmo. Eso no es solo tecnología: es el retrato de una crisis de soledad que ninguna app puede resolver sola. La inteligencia artificial puede ser la puerta de entrada a la salud mental. La pregunta urgente es que no se convierta en la sala de espera donde la humanidad se queda atrapada.
.png)



Comentarios