Por Miguel Otáñez
El que manda nunca va, he escuchado a mucha gente decir. La inteligencia artificial (IA) ha revolucionado la comunicación, y parece que lo está haciendo con todo, facilitando desde la generación automática de contenido hasta el análisis de datos en tiempo real.
Sin embargo, ante la reflexión anterior, analizaba el tema con mis estudiantes del Centro de Análisis y Estudio de la Comunicación (CAESCO) que como todos los avances este ha traído consigo sus propios retos o problemas.
En este caso, uno de los grandes retos a superar es el de las alucinaciones artificiales, donde los sistemas de IA producen información inexacta o ficticia presentada como real, para satisfacer la necesidad de quien le solicita.
Esto plantea desafíos significativos en términos de credibilidad, ética y gestión de la información; más cuando no hay quién regule lo que la IA genera y cómo lo hace, sino que todo depende de ella.
De hecho, para explicar el caso, pusimos en marcha una prueba y llegamos al hallazgo de que en el ámbito de la comunicación, donde la precisión es esencial, las alucinaciones artificiales representan un riesgo considerable.
Por ejemplo, un sistema de IA encargado de redactar noticias podría inventar estadísticas o atribuir citas a fuentes inexistentes, comprometiendo la veracidad de la información.
Esto no solo afecta la reputación de los medios y organizaciones, sino que también puede propagar desinformación y erosionar la confianza pública en las tecnologías emergentes, aunque ya sabemos que muchos apuestan a desinformar por lo que no es de su preocupación estás debilidades.
El dato habla
Se estima que modelos avanzados como ChatGPT pueden experimentar alucinaciones en aproximadamente un 10 y un 15% de las respuestas generadas, dependiendo del contexto y la complejidad de la consulta. Este margen de error es particularmente crítico en sectores donde la precisión es indispensable, como el periodismo, la comunicación corporativa y la divulgación científica.
Un caso notable que retrata las consecuencias de las alucinaciones artificiales ocurrió en 2023, cuando un abogado utilizó ChatGPT para preparar una presentación legal.
El modelo generó referencias a casos judiciales inexistentes, que el abogado presentó ante el tribunal como auténticos. Este incidente resultó en sanciones y puso de manifiesto los riesgos de confiar ciegamente en herramientas de IA sin una verificación humana adecuada.
Se trató de un caso donde un usuario demandó a la aerolínea colombiana Avianca.
La comunicación corporativa
Además, las alucinaciones artificiales pueden afectar la comunicación corporativa y la gestión de crisis. Muchas empresas recurren a la IA para responder preguntas frecuentes o gestionar consultas en redes sociales.
Sin embargo, si la IA proporciona respuestas erróneas o no verificadas, el daño a la reputación puede ser inmediato.
En estos contextos, la alineación entre los sistemas de IA y las estrategias de comunicación corporativa es esencial para mitigar errores y garantizar un diálogo coherente con las audiencias.
Para enfrentar este desafío, es crucial que los profesionales de la comunicación trabajen estrechamente con expertos en IA para comprender las limitaciones de estos sistemas.
La educación en alfabetización digital y la promoción de una cultura de verificación son pasos esenciales para reducir el impacto de las alucinaciones artificiales.
Además, los desarrolladores de IA deben priorizar la transparencia en el diseño de modelos, permitiendo a los usuarios rastrear el origen de la información generada.
Cuando nos constituimos en equipo, la clase hizo el ejercicio de preguntarle a ChatGPT sobre sus fuentes para elaborar los texto que le habíamos solicitado, sus respuestas fueron reveladoras puesto que advertimos que no citaba de forma fiel, sino que hacia inferencias o referencias que no siempre eran precisas.
Amén de ello, también esto nos sirvió como herramienta para demostrarnos que ChatGPT puede ser utilizado para verificar los contenidos que genera, y esto, bien usado, lo puede hacer una herramienta muy robusta para validar y contrastar información a gran velocidad.
El trabajo de los desarrolladores
Una tarea pendiente de entregarnos a los usuarios de IA, es la que tiene los desarrolladores, los cuales sabemos que están trabajando para reducir las alucinaciones en IA mediante aprendizaje supervisado, datos validados, trazabilidad para verificar fuentes y algoritmos que prioricen precisión en contextos sensibles.
Además de esto, ellos deben implementar retroalimentación para corregir errores y fomentar la transparencia y explicabilidad.
Puesto lo anterior en práctica, lo que se espera estás acciones refuercen la confiabilidad de los sistemas, promoviendo un uso ético y responsable de la tecnología.
Aunque la IA ofrece oportunidades sin precedentes para la comunicación, su implementación debe ir acompañada de un compromiso ético y técnico.
Las alucinaciones artificiales, aunque inevitables en cierta medida, deben ser gestionadas con estrategias que mantengan la verdad y la confianza como pilares fundamentales de la comunicación en la Era Digital.