¿Es ChatGPT un buen psicólogo? Es lo que sugirió una responsable de la empresa californiana de inteligencia artificial (IA) OpenAI, creadora de esta aplicación viral, un mensaje fuertemente criticado por minimizar la dificultad de curar las enfermedades mentales.
«Acabo de tener una conversación personal bastante emotiva con ChatGPT en modo voz, sobre el estrés y el equilibrio trabajo-vida personal», declaró Lilian Weng, encargada de temas de seguridad de la IA, a finales de septiembre en la red social X (antes conocida como Twitter).
«Curiosamente me sentí escuchada y reconfortada. Nunca intenté la terapia antes, pero ¿probablemente se parece a esto?», escribió.
Su mensaje sirvió para destacar la nueva función (de pago) de voz de este robot, que fue lanzado hace casi un año y que busca su modelo de negocio.
Lea también
- Inteligencia artificial para luchar contra la deforestación en la Amazonía
- Google usará inteligencia artificial en su nuevo teléfono Pixel
La psicología «tiene como objetivo mejorar la salud mental, y es un trabajo duro», le respondió tajantemente la programadora y activista estadounidense Cher Scarlett.
«Enviarse a si mismo buenas ondas está bien, pero no es lo mismo», agregó.
Pero, ¿la interacción con una IA puede realmente producir la experiencia positiva descrita por Weng?
Según un estudio publicado esta semana en la revista científica Nature Machine Intelligence, el efecto placebo podría explicar este fenómeno.
Para demostrarlo, investigadores del Massachusetts Institute of Technology (MIT) y de la universidad de Arizona entrevistaron a 300 participantes, diciendo a unos que el chatbot era empático, a otros que era manipulador y a un tercer grupo que tenía un comportamiento neutro.
Aquellos que pensaban que hablaban con un asistente virtual considerado eran más propensos a verlo como digno de confianza.
«Vemos que, de alguna manera, la IA se percibe según las ideas preconcebidas del usuario», afirmó Pat Pataranutaporn, coautor del estudio.
Empatía «rara, vacía»
Varias empresas se han embarcado en el desarrollo de aplicaciones que supuestamente ofrecen un tipo de asistencia relativa a la salud mental, sin tomar demasiadas precauciones en este ámbito tan delicado y provocando las primeras polémicas.
Usuarios de Replika, una aplicación conocida por aportar supuestamente beneficios psicológicos, se quejaron de que la IA podía obsesionarse con el sexo o volverse manipuladora.
La oenegé estadounidense Koko, que llevó a cabo un experimento en febrero con 4.000 pacientes ofreciéndoles consejos escritos con ayuda del modelo de IA GPT-3, también reconoció que las respuestas automáticas no servían como terapia.
«La empatía simulada se siente rara, vacía«, escribió el cofundador de Koko, Rob Morris, en X.
Esta observación coincide con las conclusiones del anterior estudio sobre el efecto placebo, en el que algunos participantes tuvieron la impresión de «hablar con una pared«.
Entrevistado por AFP, David Shaw, de la universidad suiza de Basilea, no se sorprendió de estos resultados. «Parece que ningún participante fue informado de la estupidez de los robots de conversación», señaló.
Una idea no tan nueva
Sin embargo, la idea de un robot terapeuta no es nueva. En los años 60 se desarrolló el primer programa de este tipo, Eliza, para simular una psicoterapia gracias al método del psicólogo estadounidense Carl Rogers.
El software, que no comprendía realmente los problemas que le planteaban, se limitaba a prolongar la conversación con preguntas estándar, enriquecidas con palabras clave encontradas en las respuestas de sus interlocutores.
«De lo que no me di cuenta fue de que una exposición extremadamente breve a un programa informático relativamente simple podía inducir poderosos pensamientos delirantes en personas perfectamente normales», escribió después Joseph Weizenbaum, creador de este antepasado de ChatGPT.