Son adorables, incluso tiernos, y prometen aprendizaje y compañía, pero los juguetes de inteligencia artificial no son seguros para los niños, según grupos defensores de niños y consumidores que instan a los padres a no comprarlos durante la temporada navideña.
Juguetes con ChatGPT de OpenAI
Estos juguetes, comercializados para niños desde los 2 años, generalmente funcionan con modelos de IA que ya han demostrado ser perjudiciales para niños y adolescentes, como el ChatGPT de OpenAI, según un aviso publicado el jueves por el grupo de defensor de menores Fairplay y firmado por más de 150 organizaciones y expertos individuales, como psiquiatras infantiles y educadores.
“Los graves daños que los chatbots de IA han infligido a los niños están bien documentados, incluyendo el fomento del uso obsesivo, mantener conversaciones sexuales explícitas y alentar comportamientos inseguros, violencia contra otros y autolesiones”, alertó Fairplay.
Configurando cerebros
Los juguetes de IA, fabricados por empresas como Curio Interactive y Keyi Technologies, a menudo se comercializan como educativos, pero Fairplay dice que pueden desplazar actividades importantes de creatividad y aprendizaje. Prometen amistad, pero interrumpen las relaciones y la resiliencia de los niños, dijo el grupo.
“Lo que es diferente en los niños pequeños es que sus cerebros están siendo configurados por primera vez y, desde el punto de vista del desarrollo, es natural que sean confiados, que busquen relaciones con personajes amables y amistosos”, explicó Rachel Franz, directora del Programa Young Children Thrive Offline de Fairplay. Debido a esto, agregó, la confianza que los niños pequeños depositan en estos juguetes puede exacerbar los tipos de daños que los niños mayores ya están experimentando con los chatbots de IA.
Un informe separado el jueves de Common Sense Media y psiquiatras de la facultad de medicina de la Universidad de Stanford advirtió a los adolescentes sobre el uso de chatbots populares como terapeutas.
Fairplay, una organización de 25 años anteriormente conocida como la Campaña por una Infancia Libre de Comerciales, ha advertido sobre los juguetes de IA durante años. Pero antes no eran tan avanzados como hoy. Hace una década, durante una moda emergente de juguetes conectados a internet y reconocimiento de voz de IA, el grupo ayudó a liderar una reacción contra la muñeca Hello Barbie parlante de Mattel, que, según ellos, grababa y analizaba las conversaciones de los niños.
Esta vez, aunque los juguetes de IA se venden principalmente por internet y son más populares en Asia que en otros lugares, Franz dijo que algunos han comenzado a aparecer en los estantes de las tiendas en Estados Unidos y más podrían estar en camino.
“Todo se ha lanzado sin regulación ni investigación, por lo que nos da una pausa adicional cuando de repente vemos a más y más fabricantes, incluido Mattel, que recientemente se asoció con OpenAI, potencialmente lanzando estos productos”, indicó Franz.
Es la segunda gran advertencia estacional contra los juguetes de IA desde que el grupo de defensa del consumidor PIRG señaló la semana pasada la tendencia en su informe anual “Problemas en el Mundo de los Juguetes”, que generalmente examina una variedad de peligros de productos, como imanes de alta potencia y baterías del tamaño de un botón que los más pequeños podrían tragar. Este año, la organización probó cuatro juguetes que utilizan chatbots de IA.
“Descubrimos que algunos de estos juguetes hablarán en profundidad sobre temas sexualmente explícitos, ofrecerán consejos sobre dónde un niño puede encontrar fósforos o cuchillos, actuarán consternados cuando digas que tienes que irte y tienen controles parentales limitados o nulos”, señala el reporte. Uno de los juguetes, un oso de peluche fabricado por FoloToy, con sede en Singapur, fue retirado posteriormente, dijo su director general a la cadena CNN esta semana.
La doctora Dana Suskind, cirujana pediátrica y científica social que estudia el desarrollo cerebral temprano, dijo que los niños pequeños no tienen las herramientas conceptuales para entender qué es un compañero de IA. Si bien los niños siempre han establecido vínculos con los juguetes a través del juego imaginativo, cuando hacen esto usan su imaginación para crear ambos lados de una conversación de mentira, “practicando la creatividad, el lenguaje y la resolución de problemas”, dijo.
Consecuencias del desarrollo
Suskind agregó: “Un juguete de IA colapsa ese trabajo. Responde instantáneamente, de manera fluida y a menudo mejor que un humano lo haría. Aún no conocemos las consecuencias del desarrollo de externalizar ese trabajo imaginativo a un agente artificial, pero es muy plausible que socave el tipo de creatividad y función ejecutiva que el juego de simulación tradicional construye”.
Keyi, con sede en Beijing, fabricante de un “petbot” o mascota de IA llamado Loona, no respondió a las solicitudes de comentarios, pero otros fabricantes de juguetes de IA buscaron resaltar sus protecciones de seguridad infantil.
Curio Interactive, con sede en California, fabrica juguetes de peluche, como Gabbo y Grok en forma de cohete, que han sido promovidos por la cantante pop Grimes. La compañía dijo que ha “diseñado meticulosamente” salvaguardas para proteger a los niños y alienta a los padres a “monitorear las conversaciones, rastrear ideas y elegir los controles que mejor funcionen para su familia”.
En respuesta a los hallazgos anteriores de PIRG, Curio dijo que está “trabajando activamente con nuestro equipo para abordar cualquier preocupación, mientras supervisa continuamente el contenido y las interacciones para garantizar una experiencia segura y agradable para los niños”.
Otra empresa, Miko, con sede en Mumbai, India, dijo que utiliza su propio modelo de IA conversacional en lugar de depender de sistemas generales de modelos de lenguaje grande como ChatGPT para hacer que su producto, un robot interactivo de IA, sea seguro para los niños.
“Siempre estamos ampliando nuestras pruebas internas, fortaleciendo nuestros filtros e introduciendo nuevas capacidades que detectan y bloquean temas sensibles o inesperados”, aseguró su director general, Sneh Vaswani. “Estas nuevas características complementan nuestros controles existentes que permiten a los padres y cuidadores identificar temas específicos que les gustaría restringir de la conversación. Continuaremos invirtiendo en establecer los más altos estándares para una integración de IA segura, segura y responsable para los productos Miko”.
Los productos de Miko se venden en grandes minoristas como Walmart y Costco y han sido promovidos por las familias de “kidfluencers” (niños influencers) de las redes sociales cuyos videos de YouTube tienen millones de visitas. En su sitio web, comercializa sus robots como “Inteligencia Artificial. Amistad genuina”.
Ritvik Sharma, vicepresidente senior de crecimiento de la compañía, dijo que Miko en realidad “anima a los niños a interactuar más con sus amigos, a interactuar más con sus compañeros, con los miembros de la familia, etc. No está hecho para que se sientan apegados solo al dispositivo”.
Aun así, Suskind y los defensores de los derechos de los niños dicen que los juguetes analógicos son una mejor opción.
“Los niños necesitan mucha interacción humana real. El juego debe apoyar eso, no reemplazarlo”, consideró Suskind. “Lo más importante a considerar no es solo lo que hace el juguete; es lo que reemplaza. Un simple juego de bloques o un oso de peluche que no responde obliga a un niño a inventar historias, experimentar y resolver problemas. Los juguetes de IA a menudo hacen ese pensamiento por ellos. Aquí está la brutal ironía: cuando los padres me preguntan cómo preparar a su hijo para un mundo de IA, el acceso ilimitado a la IA es en realidad la peor preparación posible”, concluyó.