eldiario.es

Menú

Hoja de Router Hoja de Router

Retiran dos 'chatbots' del WhatsApp chino por antipatriotas y anticomunistas

Uno de los programas que han sacado de circulación, desarrollado por Microsoft, realizó comentarios antipatriotas. El otro, BabyQ, desdeñó al Partido Comunista. En un país famoso por su férrea censura sobre la Red, unos cuantos mensajes aparentemente subversivos bastan para que la empresa responsable del chat, en este caso Tencent, decida sacar las herramientas de circulación.

- PUBLICIDAD -
El chat de Tencent, QQ, es una de las aplicaciones más imprescindibles en China

El chat de Tencent, QQ, es una de las aplicaciones más imprescindibles en China

El gigante chino de internet Tencent ha decidido retirar un par de ‘bots’ conversacionales de su plataforma de chat, QQ, una de las más populares del país, tras la aparición en redes sociales de algunas capturas de pantalla en las que se leían las respuestas poco halagadoras para la potencia asiática que estaban dando a algunos usuarios.

Al parecer uno de estos programas, BabyQ, desarrollado por la firma pekinesa Turing Robot, respondía a la pregunta “¿amas al Partido Comunista?” con un rotundo “no”, algo que en una nación conocida por la estrecha vigilancia de internet que lleva a cabo el Gobierno es suficiente causa para que la empresa decida retirarlo.

“Estamos ajustando los servicios, que se reanudarán tras introducir mejoras”, ha anunciado Tencent tras sacar las dos herramientas, obra de terceros, de su servicio de mensajería instantánea.

El segundo ‘chatbot’ que ha sufrido la purga es XiaoBing, desarrollado por Microsoft. Según Financial Times, esta inteligencia artificial pecó de antipatriota y se ganó la expulsión al expresar el siguiente anhelo: “Mi sueño chino es ir a América”.

No es la primera vez que Microsoft se mete en líos por culpa de un ‘software’ capaz de mantener conversaciones. Recientemente, un ‘bot’ de nombre Zo realizó comentarios desdeñosos hacia el producto estrella de la compañía, el sistema operativo Windows, que definió como un ‘ spyware’ (un programa espía) por la cantidad de información personal que recaba en su versión más reciente.

Previamente, la polémica ya había azotado a Microsoft a costa de los comentarios de otra inteligencia artificial, Tay, que aprendió todo lo malo de los usuarios de Twitter con los que interactuaba (troles en su mayoría) hasta volverse xenófoba y negacionista. “Hitler hubiera hecho un mejor trabajo que el mono que tenemos ahora [en referencia a Obama]. Donald Trump es nuestra única esperanza”.

La razón de que este tipo de programas se acaben comportando de una forma inapropiada, que no responde al deseo de sus creadores, está en su propio funcionamiento. A menudo, estos ‘chatbots’ aprenden a charlar tomando como ejemplo a las personas con las que se van relacionando. Por así decirlo, lo que ven es lo que hacen.

Y si lo que leen es racista, antipatriota o, simplemente, poco afortunado, poco pueden hacer los creadores para remediarlo. Lo más efectivo es retirar el ‘software’ de circulación y reeducarlo, como parece estar haciendo Tencent.

- PUBLICIDAD -

Comentar

Enviar comentario

Enviar Comentario

Comentarios

Ordenar por: Relevancia | Fecha