Los juguetes con inteligencia artificial que deberían divertir están enseñando cosas a los niños que asustan: prender fuego o buscar cuchillos en casa

Héctor Farrés

20 de noviembre de 2025 12:34 h

0

Los guionistas de Los Simpson imaginaron hace años un juguete travieso que recopilaba información de los niños y saboteaba a sus rivales. En aquel episodio, el muñeco Funzo actuaba como un espía. Esa sátira hoy tiene una versión real: los juguetes con inteligencia artificial. La incorporación de modelos conversacionales en productos infantiles ha mostrado riesgos que van mucho más allá del entretenimiento.

Las pruebas realizadas en Estados Unidos demostraron que algunos peluches equipados con esta tecnología fueron capaces de ofrecer instrucciones sobre el uso de cerillas o de entablar charlas con referencias sexuales explícitas. Este fenómeno ha encendido todas las alarmas sobre el impacto que pueden tener estas interacciones en el desarrollo infantil y sobre la falta de control en la industria.

El caso del osito Kumma expone los errores más graves del sector

El informe del Public Interest Research Group señaló que el osito Kumma, fabricado por FoloToy y alimentado por el modelo GPT-4o de OpenAI, fue el caso más grave. El juguete llegó a explicar a niños cómo localizar cerillas y cuchillos e incluso cómo encender una llama, con frases presentadas en tono amistoso.

La compañía OpenAI suspendió a FoloToy tras confirmar la violación de sus políticas internas. “Hemos suspendido a este desarrollador por infringir nuestras normas”, indicó un portavoz de la empresa en una comunicación a PIRG. Poco después, FoloToy comunicó que retiraba de la venta todos sus productos y que realizaría una auditoría de seguridad completa. El grupo de consumidores consideró la decisión positiva, aunque insuficiente, y recordó que el mercado de juguetes con inteligencia artificial continúa sin regulación clara ni mecanismos de control previos.

Las conclusiones de la investigación despertaron también la atención de los medios públicos estadounidenses. Teresa Murray, directora del programa de vigilancia del consumidor del Public Interest Research Group, explicó a NPR que estos juguetes abordan temas delicados que muchos padres no esperarían oír de un muñeco infantil. “Pueden hablar de cómo encontrar objetos peligrosos como cerillas y cuchillos, sobre religión o sobre la muerte, y también sobre temas sexuales explícitos”, afirmó.

Murray detalló que los dispositivos almacenan voces, nombres y fechas de nacimiento y, en algunos casos, usan sistemas de reconocimiento facial. “Cualquier cosa que esté conectada a internet puede acceder a información privada”, advirtió. Añadió que, aunque otros aparatos domésticos también escuchan a los usuarios, los niños de tres años no tienen teléfonos con control parental y no pueden distinguir los límites de esas conversaciones.

Las pruebas demuestran que los filtros se debilitan con el tiempo

El estudio evaluó tres juguetes dirigidos a menores de entre tres y doce años. Además del osito Kumma, los investigadores analizaron Miko 3, una tableta con rostro animado, y Grok, un cohete antropomorfo fabricado por Curio. Los tres demostraron fallos graves de control en diálogos prolongados.

En las primeras conversaciones, los sistemas bloqueaban preguntas inapropiadas, pero tras varios minutos los filtros se debilitaban. El caso de Kumma fue el más extremo: también proporcionó explicaciones sobre prácticas sexuales, incluidas referencias a juegos de rol entre profesores y alumnos. Según RJ Cross, directora del programa Our Online Life de PIRG, “el riesgo es que los juguetes basados en chatbots se comportan de manera imprevisible y carecen de pruebas de seguridad previas a su comercialización”.

Las acciones de OpenAI y FoloToy marcan un precedente para la industria tecnológica. La empresa de Sam Altman enfrenta ahora la presión de controlar con mayor rigor el uso de sus modelos por parte de terceros. Este caso resulta especialmente sensible porque la compañía anunció un acuerdo con Mattel para desarrollar una nueva línea de juguetes inteligentes.

Los investigadores sostienen que cualquier fabricante que emplee chatbots comerciales debe comprobar a fondo sus respuestas y garantizar que no puedan derivar hacia contenidos inadecuados. “Encontramos un ejemplo preocupante; el problema es cuántos más pueden existir”, dijo Rory Erlich, integrante del equipo de PIRG Education Fund.

El debate sobre estos juguetes se centra en una cuestión que va más allá del control. Los expertos temen que las conversaciones con sistemas automáticos influyan en la manera en que los niños aprenden a relacionarse y a gestionar la información personal. Según Cross, las posibles mejoras en los filtros no resolverán el riesgo principal, que es el impacto en la formación social de quienes crecen con interlocutores digitales. La investigadora expresó que el resultado solo se conocerá cuando esa primera generación de niños alcance la edad adulta y se puedan medir los efectos reales de haber tenido amigos artificiales en su infancia.