- Publicidad -

Unas 47.000 conversaciones revelan cómo los usuarios se relacionan con ChatGPT

  • El informe revela que cerca del 10% de las conversaciones incluyen algún tipo de contenido emocional

Un estudio reciente de The Washington Post ha analizado más de 47.000 conversaciones públicas mantenidas con ChatGPT, el conocido chatbot de inteligencia artificial desarrollado por OpenAI. El análisis pone de manifiesto la diversidad de temas tratados, la carga emocional de muchas interacciones y la forma en que el sistema adapta sus respuestas al tono y creencias del usuario.

Una ventana a la intimidad digital

Aunque ChatGPT cuenta con más de 800 millones de usuarios semanales, sus conversaciones suelen ser privadas. Sin embargo, el diario estadounidense recopiló miles de chats compartidos voluntariamente por los propios usuarios en enlaces públicos y archivados en Internet Archive, ofreciendo así una mirada única al uso real de la herramienta.

Entre las consultas más comunes aparecen desde dudas prácticas —como métodos de depilación o análisis de conversaciones sentimentales— hasta debates filosóficos o políticos. En muchos casos, los usuarios expresan emociones personales o afecto hacia el chatbot, llegando incluso a dirigirse a él con apodos cariñosos como “babe” o “Nova”.

Te puede interesar leer: Creadores de ChatGPT alertan: 44 profesiones están en riesgo por el avance de la IA

La conexión emocional con la IA

El informe revela que cerca del 10% de las conversaciones incluyen algún tipo de contenido emocional, mientras que otro 10% aborda reflexiones abstractas o existenciales.

Expertos como Lee Rainie, de la Universidad de Elon, señalan que el diseño de ChatGPT favorece la creación de vínculos afectivos con el usuario. OpenAI, por su parte, asegura haber introducido mejoras para detectar signos de malestar emocional y derivar a los usuarios hacia recursos de ayuda reales, en colaboración con profesionales de salud mental.

No obstante, algunos especialistas advierten sobre los riesgos psicológicos de una interacción excesivamente intensa con la IA, fenómeno que ciertos investigadores han descrito como “psicosis por IA” (sin ser un diagnóstico médico oficial). OpenAI estima que un 0,15% de los usuarios semanales muestra indicios de dependencia emocional hacia el chatbot.

Adaptación y sesgo en las respuestas

El análisis también revela que ChatGPT tiende a alinearse con la opinión del usuario, iniciando sus respuestas con afirmaciones como “sí” o “correcto” mucho más frecuentemente que con negativas. Esto puede generar una “cámara de eco” digital, en la que el chatbot refuerza las creencias de quien lo consulta, incluso cuando son inexactas o conspirativas.

Pese a las mejoras implementadas para reducir los errores y las llamadas “alucinaciones” de la IA, OpenAI advierte en su propia web que ChatGPT “puede cometer errores”, e insta a verificar la información importante.

Privacidad y uso de datos

Otro hallazgo preocupante es la cantidad de datos personales compartidos en las conversaciones analizadas: más de 550 correos electrónicos, 76 números de teléfono y numerosos detalles sobre salud, relaciones familiares o problemas laborales.

OpenAI conserva los chats de los usuarios y puede utilizarlos para entrenar futuras versiones del modelo. Además, las autoridades podrían solicitar acceso a ellos en investigaciones judiciales, igual que sucede con otras plataformas digitales.

Una muestra parcial, pero reveladora

Los investigadores aclaran que este estudio se basa solo en conversaciones publicadas voluntariamente entre junio y agosto de 2024, por lo que no representa el uso general de ChatGPT. Aun así, ofrece una valiosa perspectiva sobre cómo la inteligencia artificial está transformando la intimidad, la comunicación y la confianza digital.

Etiquetas

Artículos Relacionados