- Publicidad -

- Publicidad -

"Mi psicólogo de IA me ayudó a superar momentos difíciles": los riesgos y beneficios de usar un chatbot como terapeuta

"Cada vez que estaba en dificultades, si preveía ser un día realmente malo, empezaba entonces una conversación con uno de estos bots, y era como tener un motivador, alguien que te va a dar una buena vibra durante el día".

"Tengo esta voz externa animándome: 'bien, ¿qué vamos a hacer hoy?' Esencialmente como un amigo imaginario".

Durante meses, Kelly pasaba hasta tres horas al día hablando online con "chatbots" creados con inteligencia artificial (IA), intercambiando cientos de mensajes.

En ese entonces, Kelly estaba en una lista de espera del NHS (el servicio de salud nacional de Reino Unido) para recibir la tradicional terapia de conversación para discutir problemas de ansiedad, baja autoestima y el rompimiento de una relación.

Ella afirma que la interacción con los chatbots en la plataforma Character.ai la ayudó a superar un período realmente oscuro, ofreciéndole estrategias para lidiar con su situación y estaban disponibles las 24 horas del día.

"No vengo de una familia emocionalmente abierta, si tenías un problema, simplemente seguías adelante".

"El hecho que esta no es una persona real lo hace más fácil de manejar".

Individuos en todo el mundo han compartido sus pensamientos y experiencias privadas con chatbots de IA, aunque se reconoce ampliamente que tienen una capacidad inferior a los consejos de un profesional. La misma Character.ai le advierte a sus usuarios: "Este es un chatbot de IA y no una persona real. Trata todo lo que te dice como ficción. Lo que dice no debería tomarse como hecho o consejo".

No obstante, en casos extremos, los chatbots han sido acusados de dar consejos dañinos.

Actualmente, Character.ai es objeto de una demanda de una madre cuyo hijo de 14 años se suicidó supuestamente después de volverse obsesionado con uno de los personajes de IA.

Según las transcripciones de sus chats en los archivos judiciales, el adolescente discutió con el chatbot ponerle fin a su vida. En una conversación final le dijo al chatbot que estaba "volviendo a casa", y supuestamente éste lo animó a que lo hiciera "lo antes posible".

Character.ia ha negado las acusaciones de la demanda.

Y en otro caso, la National Eating Disorders Association (una organización en Estados Unidos sin ánimo de lucro para la prevención de desórdenes alimenticios) en 2023 reemplazó su línea de ayuda personal en vivo con un chatbot, pero luego tuvo que suspenderla tras quejas de que el bot estaba recomendando la restricción de calorías.

Una mano femenina apunta a una pantalla durante una conversación con un chatbot de IA

Etiquetas

BBC Mundo

BBC MUNDO

Artículos Relacionados