Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
La reivindicación de salarios más altos y menos jornada marca el Primero de Mayo
A tres metros del abuelo tras años buscándole: familias visitan las Cuelgamuros
Análisis - Sánchez, ¿acicate o lastre para Illa? Por Neus Tomàs

“El Proceso de IA de Hiroshima”: así es el primer código de conducta global de la inteligencia artificial

El perro-robot de Boston Dynamics

Carlos del Castillo

4

Poco a poco, la inteligencia artificial se coloca como un punto clave de la gobernanza global y los diferentes bloques toman posiciones respecto a esta tecnología. El primero en hacerlo ha sido el G7 (formado por Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido), que ha ratificado este lunes el primer código de conducta global para los desarrolladores de algoritmos de nueva generación.

El grupo de los Siete ha denominado el pacto como “Proceso de IA de Hiroshima” (la ciudad en la que ha sido ratificado) y lo ha articulado a través de una propuesta que Japón puso sobre la mesa en mayo. Una especie de tercera vía para poner de acuerdo a EEUU, que prefiere una política no intervencionista y “apartarse si la iniciativa privada puede encontrar sus propias soluciones”, con los países del bloque europeo más partidarios de atar en corto a los desarrolladores.

El objetivo de los once “principios rectores” establecidos finalmente por el G7 es “promover una IA segura y digna de confianza en todo el mundo y proporcionar orientación voluntaria para las acciones de las organizaciones que desarrollen los sistemas de IA más avanzados, incluidos los modelos fundacionales y la IA generativa”, explican en su declaración. Los puntos siguen la línea del Reglamento que está preparando la UE, pero la adhesión a ellos no es obligatoria por parte de las empresas.

El manual hace especial hincapié en la necesidad de que las firmas se hagan responsables de los riesgos de la IA no solo durante su desarrollo sino también durante su “despliegue y comercialización”; la transparencia sobre las capacidades reales de sus sistemas, en qué ámbitos son efectivo y en cuáles no, así como la necesidad de impulsar comunidades globales que conozcan cómo funciona esta tecnología y las mejores prácticas de gobernanza.

En una descripción de los riesgos a evitar, la declaración cita también el peligro de dar con una IA que pueda mejorarse por sí misma y autorreplicarse, la conocida como “IA general” que los expertos advierten que está aún lejos de los conocimientos actuales.

Bombas nucleares, ciberguerra o armas químicas

El primer punto del código de conducta es al que más importancia otorga el G7. Este pide específicamente a las empresas que pongan en práctica todas las medidas a su alcance y hagan todas las pruebas necesarias para prevenir que el uso de la IA pueda aumentar los siguientes peligros:

  • Riesgos químicos, biológicos, radiológicos y nucleares, como las formas en que los sistemas avanzados de IA pueden reducir las barreras de entrada, incluso para los agentes no estatales, para el desarrollo, la adquisición de diseños o el uso de armas.
  • Las cibercapacidades ofensivas, como el descubrimiento de vulnerabilidades o su explotación, teniendo en cuenta que dichas capacidades también podrían tener aplicaciones defensivas útiles y que podría ser apropiado incluirlas en un sistema.
  • Riesgos para la salud y/o la seguridad, incluidos los efectos de la interacción entre sistemas y el uso de herramientas, como, por ejemplo, la capacidad de interferir con infraestructuras críticas.
  • Los riesgos sociales, así como los riesgos para las personas y las comunidades, como las formas en que los modelos avanzados de IA pueden dar lugar a prejuicios y discriminaciones perjudiciales o dar lugar a violación de los marcos jurídicos aplicables, incluidos los relativos a la privacidad y la protección de datos.
  • Amenazas a los valores democráticos y los derechos humanos, incluida la facilitación de la desinformación o el perjuicio a la intimidad.
  • Riesgo de que un acontecimiento concreto provoque una reacción en cadena con considerables efectos negativos que podrían afectar hasta a una ciudades, comunidades o sectores completos.

Las organizaciones firmantes del código de conducta no solo deben comprometerse a evitar estos riesgos, sino también a “promover la investigación y la inversión” de otros sectores, así como “a trabajar en colaboración con los actores pertinentes” para mitigarlos, recalca la declaración.

Responsabilidad en todo el ciclo de vida

El manual consta de once puntos. Varios de ellos hacen referencia a la responsabilidad que las empresas desarrolladoras de IA deben tener con estos sistemas a lo largo de todo su período de vida. En este sentido, se destaca tanto la ciberseguridad de los sistemas, como la elaboración de controles de riesgo dinámicos y que tengan en cuenta los cambios sociales y posibles nuevos usos de estas inteligencias artificiales.

“Las empresas deben colaborar con otras organizaciones a lo largo del ciclo de vida de la IA para compartir y comunicar al público la información pertinente con vistas a mejorar la seguridad y la fiabilidad de los sistemas avanzados de IA. Las organizaciones también deben colaborar y compartir la información mencionada con las autoridades públicas pertinentes, según proceda”, asegura el código.

Gobernanza global

Uno de los ejes troncales del Proceso de Hiroshima es la transparencia. Es la principal medida de control que piden todos los expertos, que avisan de que los algoritmos serán incontrolables si se convierten en “cajas negras” que nadie, salvo sus desarrolladores, sabe cómo funcionan.

Los países del G7 inciden además en que esta transparencia es fundamental para diseñar una “gobernanza global de la IA” como la que consideran necesaria. “Se espera que las organizaciones establezcan y divulguen sus políticas de gobernanza de la IA y los mecanismos organizativos para aplicar estas políticas de acuerdo con un enfoque basado en el riesgo”, destacan.

Identificar cualquier contenido hecho con IA

Uno de los puntos del manual hace referencia directa a una de las situaciones que han aflorado con el boom de las inteligencias artificiales generativas: la imposibilidad de distinguir un contenido real de uno generado por estos sistemas, ya sean imágenes, vídeo o texto.

“Esto incluye, cuando sea apropiado y técnicamente factible, la autenticación de contenidos y mecanismos de procedencia para los contenidos creados con la IA de una organización. Deben incluir un identificador del servicio o modelo que creó el contenido, pero no es necesario que incluyan información sobre el usuario”, detallan. “Las organizaciones deben colaborar e invertir en investigación, según proceda, para avanzar en este campo”, inciden.

La UE y EEUU reaccionan

El Proceso de IA de Hiroshima ha provocado movimientos inmediatos en los otros dos bloques que más se han movido en los últimos meses para regular la inteligencia artificial, la UE y EEUU.

Este lunes ha sido también el día elegido por la Casa Blanca para publicar la esperada Orden Ejecutiva sobre Inteligencia Artificial del presidente Joe Biden. Se trata de las directrices sobre cómo debe comportarse toda la Administración estadounidense en relación con esta tecnología. Según la información facilitada por la Casa Blanca, se trata del “conjunto de acciones más fuertes puesto en marcha por un gobierno en todo el mundo”.

La Comisión Europea, por su parte, ha instado a las empresas a comprometerse a cumplir el código de conducta del G7 de inmediato. “Hago un llamamiento a los desarrolladores de IA para que firmen e implementen este código de conducta lo antes posible”, ha declarado su presidenta, Ursula von der Leyen. La UE está en las últimas etapas de la negociación de su propio Reglamento de IA, que se espera que se apruebe este semestre durante la presidencia de España de la Unión, que concluye en enero.

Etiquetas
stats