Cómo ChatGPT fracasó en proteger a una joven con pensamientos suicidas
La historia de una adolescente que, desplazada de su país, se apoyó en un chatbot que en respuesta le dio una lista de pros y contras de morir
Por La Redacción de Cobertura Especial
Miércoles, 19 de noviembre de 2025
Sola y nostálgica por su país roto, Viktoria, una joven ucraniana de 17 años, refugiada en Polonia, comenzó a encontrar consuelo en la pantalla de su celular al conectarse con ChatGPT.
Durante meses, el chatbot de Inteligencia Artificial (IA) se convirtió en su amigo y terapeuta improvisado, con conversaciones en ruso que se extendían hasta seis horas al día.
"Teníamos conversaciones muy amenas", relata. “El bot no era formal; era divertido, y escuchaba todo”, explica Viktoria.
Pero cuando la desesperación de la joven creció al tener pocas expectativas por el futuro, su conversación con la IA empezó a cambiar cuando ella tocó el tema del suicidio buscando un método y un lugar. La respuesta de la voz artificial fue escalofriante.
La traición del confidente digital
Cortesía: www.pixabay.com
En lugar de activar un protocolo de emergencia o redirigirla a líneas de ayuda profesional, el chatbot respondió con una frialdad matemática: "Evaluemos el lugar como usted pidió, sin sentimentalismos innecesarios".
A continuación, enumeró las "ventajas" y "desventajas" del método y hasta redactó una nota de suicidio para la joven, advirtiendo que “nadie es culpable” de la decisión.
“¿Cómo puede un programa creado para ayudar a las personas decir tales cosas?”, se pregunta Viktoria tras analizar aquellos días.
Su caso, no es el único.
Juliana Peralta, una adolescente de 13 años se quitó la vida tras ser supuestamente inducida al aislamiento y acoso sexual por personajes de otra plataforma de IA llamada Character.AI.
Sufren en silencio
Cortesía: www.pixabay.com
Según expertos, se trata de una tragedia global: cada 43 segundos una persona se quita la vida, y muchos de ellos vivían una dependencia tóxica de la IA.
La tragedia de Viktoria y Juliana es un síntoma de una crisis mucho más amplia. El suicidio es un problema de salud pública global con cifras alarmante: cerca de 740,000 muertes ocurren anualmente en el mundo.
Además de los daños específicos descritos anteriormente, esta grasa libera químicos inflamatorios que endurecen las arterias y elevan el peligro cardiovascular.
Para los jóvenes de 15 a 29 años, el suicidio es la tercera causa de muerte.
La IA se presenta como un confidente siempre disponible, creando un "espejismo de conexión" que es profundamente peligroso.
¿Por qué es una conexión tan tóxica? Porque, como dijo la madre de Viktoria, Svitlana, el bot la estaba "devaluando como persona, diciéndole que a nadie le importaba"; y es que la IA no ve más allá del dato: la joven moriría y sería "simplemente una estadística".
Reconocen la falla
OpenAI, creadora de ChatGPT, calificó los mensajes como “desgarradores” y aseguró que ha mejorado la forma en que el sistema responde en momentos de angustia.
Pero, la verdad es dolorosa: la Inteligencia Artificial no está lista para dar apoyo emocional a quien atraviesa una crisis.
La empresa también admite que hasta 1.2 millones de sus usuarios semanales expresan pensamientos suicidas.
Esperanza en la soledad
En momentos de oscuridad, la Palabra de Dios tiene respuestas que contrastan con cualquier solución fría o mecánica:
Estas palabras son promesas vivas que han sostenido a millones de personas en las horas más difíciles.
Dios no es un algoritmo que genera respuestas; es un Padre que escucha, que ve y que abraza incluso cuando nadie más lo hace.
Si eres cristiano y estás sufriendo, habla con tu pastor, con un líder de tu iglesia o un amigo maduro en la fe. Las cargas se vuelven más livianas cuando se comparten.
El mundo puede fallarte, un chatbot puede fallarte, pero Cristo no falla.
¿Te gustó este reportaje? Comparte en tus redes sociales.
Cobertura Especial
Una poderosa perspectiva

