Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
La guerra entre PSOE y PP bloquea el acuerdo entre el Gobierno y las comunidades
Un año en derrocar a Al Asad: el líder del asalto militar sirio detalla la operación
Opinión - Un tercio de los españoles no entienden lo que leen. Por Rosa María Artal

Retiran dos 'chatbots' del WhatsApp chino por antipatriotas y anticomunistas

El chat de Tencent, QQ, es una de las aplicaciones más imprescindibles en China

David G. Ortiz

El gigante chino de internet Tencent ha decidido retirar un par de ‘bots’ conversacionalesha decidido retirar un par de ‘bots’ conversacionales de su plataforma de chat, QQ, una de las más populares del país, tras la aparición en redes sociales de algunas capturas de pantalla en las que se leían las respuestas poco halagadoras para la potencia asiática que estaban dando a algunos usuarios.

Al parecer uno de estos programas, BabyQ, desarrollado por la firma pekinesa Turing Robot, respondía a la pregunta “¿amas al Partido Comunista?” con un rotundo “no”, algo que en una nación conocida por la estrecha vigilancia de internet que lleva a cabo el Gobierno es suficiente causa para que la empresa decida retirarlo.

“Estamos ajustando los servicios, que se reanudarán tras introducir mejoras”, ha anunciado Tencent tras sacar las dos herramientas, obra de terceros, de su servicio de mensajería instantánea.

El segundo ‘chatbot’ que ha sufrido la purga es XiaoBing, desarrollado por Microsoft. Según Financial Times, esta inteligencia artificial pecó de antipatriota y se ganó la expulsión al expresar el siguiente anhelo: “Mi sueño chino es ir a América”.

No es la primera vez que Microsoft se mete en líos por culpa de un ‘software’ capaz de mantener conversaciones. Recientemente, un ‘bot’ de nombre Zo realizó comentarios desdeñosos hacia el producto estrella de la compañía, el sistema operativo Windows, que definió como un ‘spyware’ (un programa espía) por la cantidad de información personal que recaba en su versión más reciente.

Previamente, la polémica ya había azotado a Microsoft a costa de los comentarios de otra inteligencia artificial, Tay, que aprendió todo lo malo de los usuarios de Twitter con los que interactuaba (troles en su mayoría) hasta volverse xenófoba y negacionista. “Hitler hubiera hecho un mejor trabajo que el mono que tenemos ahora [en referencia a Obama]. Donald Trump es nuestra única esperanza”.

La razón de que este tipo de programas se acaben comportando de una forma inapropiada, que no responde al deseo de sus creadores, está en su propio funcionamiento. A menudo, estos ‘chatbots’ aprenden a charlar tomando como ejemplo a las personas con las que se van relacionando. Por así decirlo, lo que ven es lo que hacen.

Y si lo que leen es racista, antipatriota o, simplemente, poco afortunado, poco pueden hacer los creadores para remediarlo. Lo más efectivo es retirar el ‘software’ de circulación y reeducarlo, como parece estar haciendo Tencent.

Etiquetas
stats