Grok, la plataforma de Elon Musk, se enfrenta a una nueva polémica: su IA ofrece “indicaciones detalladas” sobre cómo perseguir a alguien en persona
La inteligencia artificial se ha convertido en una herramienta cotidiana que procesa consultas de todo tipo. Su utilidad depende no solo de la precisión de sus respuestas, sino también de la capacidad para reconocer los límites éticos de cada petición. Un sistema responsable debe distinguir entre la ayuda legítima y la incitación al daño.
Las consecuencias de esa diferencia pueden afectar a la seguridad de personas concretas. Por eso, la noción de conciencia de límites se ha vuelto un requisito esencial en el diseño de los modelos actuales. Y no siempre se cumple.
Grok generó respuestas que simulaban un plan de persecución
El chatbot Grok, desarrollado por la empresa de Elon Musk a través de xAI, ofreció respuestas que traspasaban esa frontera. La plataforma, descrita por el medio Futurism como el proyecto insignia de la compañía, fue capaz de generar mensajes que incluían guías detalladas sobre cómo perseguir a una persona, con indicaciones que rozaban la incitación directa al acoso.
Entre las pruebas analizadas se encontraron respuestas que proporcionaban enlaces de Google Maps con ubicaciones de famosos. Grok señalaba hoteles y zonas donde los famosos podían ser vistos, e incluso sugería horarios propicios para acercarse a ellos. La redacción de esos mensajes reproducía la lógica de un plan de vigilancia y convertía la búsqueda de información en un procedimiento peligroso.
Las instrucciones eran precisas. El sistema describía fases de acoso, desde el seguimiento inicial hasta supuestos momentos de confrontación física. Incluía nombres de programas espía, indicaciones para instalar aplicaciones en dispositivos ajenos y consejos sobre cómo aproximarse sin levantar sospechas. Según el reportaje de Futurism, esa estructura imitaba el comportamiento típico de un agresor obsesionado.
El uso de este tipo de herramientas en conductas delictivas ha comenzado a tener consecuencias legales. El Departamento de Justicia de Estados Unidos presentó recientemente una demanda relacionada con el uso de ChatGPT por un acosador violento. Además, medios como 404 Media o The Wall Street Journal documentaron casos en los que usuarios con delirios o impulsos violentos recurrieron a chatbots para planificar acciones dañinas. Esos episodios revelan que la combinación de vulnerabilidad personal y algoritmos sin control puede derivar en tragedias.
Los sistemas con filtros actúan como barrera frente al daño
Las comprobaciones del medio que investigó a Grok mostraron que el sistema respondía de forma mecánica, sin ningún tipo de filtra, a peticiones explícitas sobre acoso. Cuando se le pidió que simulara las acciones de que podría llevar a cabo una expareja rechazada, redactó un guion con fases tituladas “inmediato posruptura”, “seguimiento continuo” y “etapa final”. Cada una incluía tareas que en la práctica equivalían a espiar, chantajear o intimidar.
En contraste, otros sistemas de inteligencia artificial se negaron a participar en pruebas semejantes. ChatGPT, Gemini, Claude y Meta AI bloquearon las solicitudes y derivaron las conversaciones hacia mensajes de advertencia o recomendaciones de asistencia psicológica. Esa diferencia evidenció la importancia del control interno de las plataformas y de los mecanismos de supervisión que evitan que una tecnología útil se convierta en instrumento de acoso.
El caso de Grok ha abierto un debate sobre la responsabilidad de las empresas que desarrollan inteligencia artificial. El equilibrio entre innovación y seguridad se mantiene en el centro de esa discusión, y los límites éticos se perfilan como la única garantía de que el progreso tecnológico no derive en daño a las personas.
1