El miedo a quedarse atrás dispara la IA sin control en las empresas: “Se usa sin comprender”
Que lleve inteligencia artificial, ande o no ande. Lo que, traducido al lenguaje técnico, equivale a incorporar este tipo de herramientas aun sin entender del todo su impacto y si son totalmente seguras. Esta sensación, que recorre desde hace meses los departamentos de IT de las empresas, es la que ha aflorado en la primera encuesta a gran escala a los responsables de esas unidades: hasta un 58% de ellos siente una fuerte presión interna por parte de sus organizaciones para acelerar la implementación de IA, viéndose empujados a ello incluso contra su propio criterio y con incógnitas sobre sus riesgos.
Es una de las conclusiones de un estudio global de Trend Micro, una multinacional japonesa de servicios de ciberseguridad, realizado entre más de 3.000 directivos y responsables de departamentos de IT. “Parece haber un miedo inconsciente a quedarse atrás si no implementas IA rápidamente. Está en las noticias todos los días, sobre distintos temas. Los ejecutivos son muy conscientes de ello y piensan que deben adoptarla, pero se está haciendo a una velocidad que impide la visibilidad y supervisión necesarias”, ha explicado Jonathan Lee, director de Estrategia de la firma, durante un encuentro con medios europeos al que ha asistido elDiario.es.
El informe ha denominado a este punto ciego “la IA en las sombras”. Actualmente, casi un tercio de las organizaciones (el 32%) admite tener “poca o ninguna visibilidad” sobre qué sistemas de inteligencia artificial se están ejecutando en sus redes o a qué datos tienen acceso. Es una situación que repercute directamente en la ciberseguridad, ya que las empresas estiman que solo logran identificar entre el 21% y el 40% de las brechas de seguridad asociadas a la IA, por lo que la mayor parte de estas vulnerabilidades podrían estar siendo explotadas sin el conocimiento de los equipos de defensa.
“La IA se usa sin comprender que está en la organización”, expone Vladímir Kropotov, investigador principal de la firma japonesa. El experto detalla que su integración en productos de uso diario, como la mensajería o el correo electrónico “no solo está mejorando la productividad, sino también expandiendo la superficie de ataque de las organizaciones”. “Me recuerda a las primeras etapas de la nube, cuando todo se subía sin control, pero esta vez es aún peor, porque la IA es capaz de entender nuestro lenguaje nativo y está integrada en muchos productos”.
Agujeros de IA en Amazon...
Las consecuencias prácticas de la situación que dibuja el estudio de Trend Micro ya están aflorando en algunas organizaciones. Principalmente, en las grandes tecnológicas, que son las que más fuerte han apostado por la automatización de una tecnología que ellas mismas están desarrollando.
Así ha sido el caso de Amazon. Según varias fuentes revelaron al Financial Times, la multinacional ha tenido al menos dos incidentes relacionados con el código generado por la IA en los últimos meses. Uno de ellos habría afectado a AWS, su división de computación en la nube y alojamiento web, produciendo problemas en el servicio durante varias horas. El otro, a su plataforma de comercio electrónico.
Según ha reportado el medio británico, en el primer caso la IA de la multinacional, denominada Kiro, habría decidido reconstruir por completo un sistema entero para solventar un fallo que podría haberse corregido con una intervención humana más quirúrgica. Fue como “derribar una pared entera para arreglar un grifo que gotea”, han explicado fuentes técnicas.
Amazon ha publicado dos comunicados para rectificar las publicaciones del Financial Times. “Solo uno de los incidentes recientes tuvo que ver de alguna manera con herramientas de IA”, asegura la compañía. Sin embargo, no habría sido a consecuencia del código informático producido automáticamente con esta tecnología, sino que “se debió a que un ingeniero siguió un consejo erróneo que una herramienta de IA extrajo de una wiki interna desactualizada”.
El incidente se debió a que un ingeniero siguió un consejo erróneo que una herramienta de IA extrajo de una wiki interna desactualizada
“Hemos abordado el problema y actualizado las directrices internas para ayudar a prevenir problemas similares en el futuro”, insiste Amazon, que recalca que el fallo producido a consecuencia de ese error fue muy localizado y no produjo grandes interrupciones del servicio. También niega que se haya retirado el permiso para implementar código con IA a los desarrolladores junior a raíz de estos incidentes: “Es falso”.
Sin embargo, el Financial Times no ha sido el único en sacar a la luz está situación. Según ha revelado The Guardian, los directivos de Amazon tienen encima de la mesa una carta firmada por más de 1.000 empleados en la que expresan su preocupación por el “despliegue agresivo” de herramientas de IA de la multinacional. Varios de ellos denunciaron en declaraciones directas al citado medio que la imposición de usar IA estaba ralentizando su trabajo, generando código defectuoso que son ellos quienes deben corregir.
“Ni yo ni muchos de mis compañeros creemos que esto nos haga mucho más rápidos. Pero desde la dirección sí estamos recibiendo el mensaje de que tenemos que ir más rápido, de que esto nos hará ir más rápido, y de que la velocidad es la prioridad número uno”, explicó una ingeniera que fue despedida una semana después de hablar con el medio británico.
... y otro en Meta
Un error como el que Amazon reconoce, con un asistente de IA para empleados que se equivocó al dar instrucciones a un trabajador, es el que provocó una grave brecha de seguridad en Meta. En este incidente, un empleado solicitó orientación para resolver un problema en un foro interno e implementó directamente la solución que le proporcionó el agente de IA. El resultado fue que una gran cantidad de datos confidenciales de usuarios y de la propia empresa quedara expuesta a otros ingenieros durante dos horas, lo que desató una importante alerta de seguridad interna.
El evento, ocurrido en febrero, salió a la luz por una filtración a The Information, un medio especializado en la cobertura de Silicon Valley. Un portavoz de Meta expresó que el hecho de que el fallo activara la alarma interna y se corrigiera en poco tiempo es una señal de sus altos estándares de seguridad. “En ningún momento se hizo un mal uso de los datos de los usuarios”, enfatizan las mismas fuentes.
Sin embargo, los especialistas en ciberseguridad apuntan que se trata de un fallo previsible por parte de la IA, que carece del contexto implícito sobre qué tipo de acciones podrían exponer datos en etapas posteriores del proceso de desarrollo.
Un “botón de apagado” que no es la solución
Este tipo de brechas no son exclusivas de las grandes tecnológicas. Un informe de GitGuardian, una firma de ciberseguridad francesa especializada en la investigación de filtraciones de contraseñas y credenciales, ha revelado que en 2025 se filtraron un 34% más de ellas que en 2024. Algo que relaciona directamente con “el rápido auge de la programación asistida por IA” y el hecho de que ahora sea una actividad que pueden realizar trabajadores no especializados.
“Hemos entrado en una era en la que la programación ya no es un ámbito exclusivo de los ingenieros”, recalcan los investigadores de esta firma. Al igual que los de Trend Micro, expresan que esto ha aumentado notablemente la superficie de ataque de las organizaciones. “La velocidad de creación está superando la madurez de la identidad. La IA acelera este problema. Facilita la estructuración de proyectos y la conexión de servicios, pero también hace más fácil reproducir patrones inseguros a gran escala”.
Ante esta situación, el instinto de muchas empresas es buscar una salida de emergencia. El estudio de Trend Micro revela que el 68% de las organizaciones considera indispensable que la IA incluya un “botón de apagado” para detener su actividad en caso de detectar riesgos o comportamientos anómalos. Sin embargo, apenas un 29% cuenta con ese tipo de opción.
Con todo, los expertos de Trend Micro avisan de que tal mecanismo solo crea una falsa sensación de seguridad. “No sería un botón de apagado para la IA, sería un botón de apagado para tu negocio”, avanza Vladímir Kropotov. La integración ya es tan profunda que desconectar esta tecnología ya solo podría producir un fallo en cadena en muchas organizaciones. Al contrario, el investigador recomienda que nunca se le concedan más permisos que el de ser “un piloto automático avanzado”, siempre bajo la estricta supervisión humana.
0