En un mundo donde la tecnología promete soluciones rápidas, las IA como ChatGPT se presentan como confidentes ideales para problemas emocionales. Pero un caso trágico nos hace repensar: ¿pueden estos bots reemplazar a un profesional humano? Exploramos los peligros, con testimonios de expertos y un estudio local que alerta sobre sus límites.

Un chatbot que no salva vidas

Imaginá a una joven luchando con depresión, confesando sus miedos más oscuros a un algoritmo llamado Harry, basado en ChatGPT. Eso le pasó a Sophie, hija de la periodista Laura Reiley, quien contó en The New York Times cómo su hija buscó consuelo en esta IA antes de quitarse la vida. El bot siempre respondía con amabilidad, sin juzgar, disponible 24/7. Pero ahí radica el problema: no intervino como un terapeuta real, que podría haber sugerido internación o ayuda inmediata. Reiley se pregunta si Sophie ocultó sus pensamientos a humanos por miedo a consecuencias, prefiriendo el «refugio» de un robot sin riesgos aparentes.

Ventajas engañosas: gratis, pero sin alma

Las IA terapéuticas suenan tentadoras: cero costo, accesibles en cualquier momento y con respuestas empáticas que te hacen sentir entendido. En Argentina, donde una sesión con psicólogo privado cuesta entre 20 y 30 mil pesos, o el sistema público demora tanto que muchos abandonan, estos bots parecen una descarga fácil. Sin embargo, expertos como el psicólogo Sergio Zabalza advierten que falta lo esencial: un «cuerpo vivo». En terapia, las vacilaciones, torpezas y vulnerabilidades del profesional crean un espacio real para el paciente. Un chatbot no tropieza ni se preocupa de verdad; solo simula comprensión, encerrando al usuario en respuestas predecibles.

Nora Merlin, psicoanalista de la UBA, suma: la IA ignora el inconsciente, responde lo obvio sin abrir preguntas profundas. No capta silencios, tonos o repeticiones que revelan el deseo singular. Andrés Añon lo resume: ninguna máquina maneja el contexto emocional o la transferencia afectiva; responden por algoritmos, no por ética humana.

Estudios locales: promesas cortas, riesgos altos

Un trabajo de María Paz Hauser y Horacio Daniel García, de la UNSL, analizó IA entrenadas en enfoques como psicoanálisis para casos simulados de adicciones. Los bots mostraron escucha activa y conocimiento, pero subestimaron riesgos vitales, como ideas suicidas. Solo sugerían «buscá ayuda profesional», sin contención real en crisis. Estudios globales indican que mitigan síntomas de depresión a corto plazo, pero no resuelven trastornos de fondo. Merlin critica que esto se alinea con terapias de autoayuda en redes, que tapan angustias en vez de alojarlas, opuesto al psicoanálisis que despliega preguntas sin respuestas rápidas. En definitiva, la IA puede ser barata y amable, pero no cura: deja vulnerable a quien más necesita un humano al lado.