Además de transformar fotos en dibujos japoneses de dudoso gusto y ayudar en la tarea del colegio a adolescentes en crisis con sus profesores, hoy millones de personas conversan con chatbots de inteligencia artificial sobre sus miedos y fantasías.
El uso de ChatGPT y otras plataformas para una suerte de terapia virtual es una realidad que nos enfrenta a las promesas y límites de la tecnología: ¿hasta qué punto estamos preparados para que nuestras confesiones más íntimas sean procesadas como simples datos?
De acuerdo con distintos índices globales, los problemas de salud mental se multiplicaron desde la pandemia y tensaron aún más la situación de médicos y terapeutas, expuestos a la precarización de sus trabajos.
Según cifras de la Organización Mundial de la Salud, más de la mitad de las personas con trastornos mentales no recibe ningún tipo de tratamiento y quienes sí lo hacen, muchas veces acceden solo a 45 minutos de atención semanal.
Este escenario es una de las motivaciones para la adopción sin precedentes de herramientas que no fueron pensadas para lidiar con estas tareas y que ni siquiera están reguladas como dispositivos médicos, lo que arroja serias dudas sobre la responsabilidad que asume sobre sus respuestas y también sobre el manejo de los datos sensibles que recoge.
Sin embargo, quizá el riesgo ético más grande es la ilusión de conexión emocional que genera una máquina programada para responder de manera agradable y buscando complicidad en interacción con un ser humano en estado de vulnerabilidad.
Porque cuando alguien le pide a ChatGPT que lo ayude a controlar una crisis de ansiedad o le confiesa que siente que sus problemas lo abruman… ¿estamos ante una democratización de la terapia o una mímica vacía que pretende ser un acompañamiento?
De todos modos, a pesar de las advertencias de profesionales, la popularidad de estos terapeutas artificiales sigue en ascenso y su efectividad está siendo investigada.
Esta semana la Geisel School of Medicine publicó un estudio que reveló que una IA entrenada con prácticas terapéuticas basadas en evidencia logró reducir los síntomas de depresión en un 51 por ciento, en un ensayo clínico con 210 participantes.
Si bien es una muestra reducida, es un dato impactante: es una tasa de éxito comparable a la de varias terapias humanas.
Otra investigación reveló una faceta inesperada: estos chatbots también “sufren” estrés. De acuerdo con un estudio en Suiza, modelos masivos de lenguaje como ChatGPT respondían con señales internas análogas a la ansiedad humana al ser expuestos a narrativas traumáticas. Tal vez estamos construyendo sistemas que nos imitan en casi todo.
Y lo hacen a partir de datos privados de s que no saben que sus confesiones alimentan modelos comerciales y llenan bolsillos ajenos.
La fascinación con la eficiencia de una tecnología que es más económica que un profesional y la promesa de una escalabilidad sin límites nos puede cegar frente a lo esencial: La salud mental no es una ecuación lógica que se resuelve con respuestas correctas, sino un territorio con matices, silencios y empatía.
Y eso sigue siendo hoy, un terreno donde los humanos somos los mejores.
Sobre la firma
Newsletter Clarín
Recibí en tu email todas las noticias, coberturas, historias y análisis de la mano de nuestros periodistas especializados
QUIERO RECIBIRLO