<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:media="http://search.yahoo.com/mrss/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:atom="http://www.w3.org/2005/Atom"  xmlns:content="http://purl.org/rss/1.0/modules/content/" version="2.0">
  <channel>
    <title><![CDATA[elDiario.es - Anthropic]]></title>
    <link><![CDATA[https://www.eldiario.es/temas/anthropic/]]></link>
    <description><![CDATA[elDiario.es - Anthropic]]></description>
    <language><![CDATA[es]]></language>
    <copyright><![CDATA[Copyright El Diario]]></copyright>
    <ttl>10</ttl>
    <atom:link href="https://www.eldiario.es/rss/category/tag/1055857/" rel="self" type="application/rss+xml"/>
    <item>
      <title><![CDATA[Anthropic investiga un acceso no autorizado a su inteligencia artificial capaz de realizar ciberataques masivos]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/anthropic-investiga-acceso-no-autorizado-inteligencia-artificial-capaz-realizar-ciberataques-masivos_1_13163350.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/91533f6c-766d-4ade-a4bf-060a3b54edee_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Anthropic investiga un acceso no autorizado a su inteligencia artificial capaz de realizar ciberataques masivos"></p><div class="subtitles"><p class="subtitle">La compañía afirma que el incidente se limitó a un entorno de proveedores externos y no afectó a sus sistemas principales</p><p class="subtitle">Una nueva IA de Anthropic hace saltar las alarmas en EEUU por su capacidad para explotar brechas de seguridad
</p></div><p class="article-text">
        La startup de inteligencia artificial Anthropic ha confirmado este mi&eacute;rcoles que investiga un posible acceso no autorizado a Claude Mythos Preview. Se trata de un modelo desarrollado recientemente capaz de encontrar agujeros de seguridad en sistemas inform&aacute;ticos que hasta ahora se consideraban robustos y que ha puesto en alerta a las grandes tecnol&oacute;gicas y principales bancos del mundo. 
    </p><p class="article-text">
        Su lanzamiento se hab&iacute;a restringido a un pu&ntilde;ado de empresas de confianza debido a estos riesgos, con el objetivo de que pudieran analizar su ciberseguridad e impedir que Claude Mythos desencadenara una campa&ntilde;a de ataques inform&aacute;ticos a gran escala. No obstante, este mi&eacute;rcoles <a href="https://www.bloomberg.com/news/articles/2026-04-21/anthropic-s-mythos-model-is-being-accessed-by-unauthorized-users" target="_blank" data-mrf-recirculation="links-noticia" class="link">Bloomberg</a> ha informado de que un grupo de personas ajeno a esa pantalla de seguridad ha accedido al modelo sin autorizaci&oacute;n. Horas m&aacute;s tarde, Anthropic ha reconocido que lo est&aacute; investigando.
    </p><p class="article-text">
        &ldquo;Estamos investigando un informe que advierte de a un acceso no autorizado a Claude Mythos Preview a trav&eacute;s de uno de nuestros entornos de proveedores externos&rdquo;, ha declarado la startup. Este acceso se habr&iacute;a producido gracias al sistema utilizado por terceras compa&ntilde;&iacute;as que realizan trabajos de desarrollo para Anthropic.
    </p><p class="article-text">
        Seg&uacute;n ha explicado Bloomberg, un peque&ntilde;o grupo de personas en un foro privado obtuvo acceso al modelo el mismo d&iacute;a en que la startup anunci&oacute; su despliegue para pruebas con socios estrat&eacute;gicos. No obstante, la empresa ha asegurado que no existen pruebas de que la actividad se extendiera m&aacute;s all&aacute; del entorno de ese proveedor. 
    </p><p class="article-text">
        <a href="https://www.eldiario.es/tecnologia/nueva-ia-anthropic-saltar-alarmas-eeuu-capacidad-explotar-brechas-seguridad_1_13132918.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Anthropic lanz&oacute; Mythos este mes</a> bajo un despliegue restringido para que corporaciones como Amazon, Microsoft, Apple, Cisco y CrowdStrike pudieran identificar y parchear vulnerabilidades cr&iacute;ticas en sus propios sistemas antes de que la tecnolog&iacute;a llegue al p&uacute;blico general. Algunos bancos estadounidenses tambi&eacute;n han tenido acceso al modelo.
    </p><p class="article-text">
        Mozilla, la organizaci&oacute;n que desarrolla el navegador Firefox y que tambi&eacute;n ha contaco con ese acceso anticipado, ha publicado <a href="https://blog.mozilla.org/en/privacy-security/ai-security-zero-day-vulnerabilities/" target="_blank" data-mrf-recirculation="links-noticia" class="link">un parche para 271 vulnerabilidades detectadas por Mythos</a>. &ldquo;Nuestra experiencia es esperanzadora para los equipos que superan el v&eacute;rtigo y se ponen manos a la obra&rdquo;, hab&iacute;a declarado la organizaci&oacute;n. &ldquo;Las vulnerabilidades inform&aacute;ticas son finitas, y estamos entrando en un mundo donde finalmente podremos encontrarlas todas&rdquo;.
    </p><p class="article-text">
        La aparici&oacute;n de Mythos tambi&eacute;n parec&iacute;a haber relajado las tensiones entre la Casa Blanca y Anthropic. La startup fue incluida en una lista negra el pasado febrero por negarse a ceder ante algunas peticiones del Pent&aacute;gono <a href="https://www.eldiario.es/tecnologia/anthropic-startup-planta-cara-trump-estilo-dictador-ia-guerra_1_13045909.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">en cuanto al uso de su IA en la guerra de Ir&aacute;n</a>. Esto provoc&oacute; la ira de Donald Trump, que los denomino &ldquo;locos izquierdistas&rdquo;. Sin embargo, en los &uacute;ltimos d&iacute;as se han producido acercamientos y el presidente estadounidense ha afirmado que la tecnolog&iacute;a de Anthropic &ldquo;podr&iacute;a ser muy &uacute;til&rdquo; y que sus dirigentes <a href="https://www.eldiario.es/tecnologia/trump-dice-ahora-anthropic-son-inteligentes-sean-izquierda-radical-encarrilando_1_13161141.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">&ldquo;se est&aacute;n encarrilando&rdquo;</a>. 
    </p><p class="article-text">
        La posible brecha de seguridad en Mythos se suma, no obstante, a otros incidentes recientes que han puesto bajo escrutinio los procesos de Anthropic. El pasado marzo, la compa&ntilde;&iacute;a atribuy&oacute; a un error humano el descubrimiento del nombre y las descripciones de Mythos en un registro de datos accesible p&uacute;blicamente. Adem&aacute;s, este mismo mes se produjo la publicaci&oacute;n no autorizada del c&oacute;digo fuente de Claude Code, su asistente de programaci&oacute;n.
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/anthropic-investiga-acceso-no-autorizado-inteligencia-artificial-capaz-realizar-ciberataques-masivos_1_13163350.html]]></guid>
      <pubDate><![CDATA[Wed, 22 Apr 2026 12:06:24 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/91533f6c-766d-4ade-a4bf-060a3b54edee_16-9-discover-aspect-ratio_default_0.jpg" length="15432985" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/91533f6c-766d-4ade-a4bf-060a3b54edee_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="15432985" width="1200" height="675"/>
      <media:title><![CDATA[Anthropic investiga un acceso no autorizado a su inteligencia artificial capaz de realizar ciberataques masivos]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/91533f6c-766d-4ade-a4bf-060a3b54edee_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Ciberseguridad,Ciberataques,Bancos,Hackeo,Pentágono,Casa Blanca,Donald Trump,Silicon Valley,Anthropic]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Trump dice ahora que en Anthropic son "muy inteligentes" aunque sean "izquierda radical": "Se están encarrilando"]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/trump-dice-ahora-anthropic-son-inteligentes-sean-izquierda-radical-encarrilando_1_13161141.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/03120067-4ff1-4285-8c46-a4278a0e99b5_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Trump dice ahora que en Anthropic son &quot;muy inteligentes&quot; aunque sean &quot;izquierda radical&quot;: &quot;Se están encarrilando&quot;"></p><div class="subtitles"><p class="subtitle">"Creo que pueden ser de gran utilidad", dice el republicano sobre la startup de IA, que acaba de desarrollar un modelo que puede ser clave para la ciberseguridad internacional </p><p class="subtitle">Una nueva IA de Anthropic hace saltar las alarmas en EEUU por su capacidad para explotar brechas de seguridad</p></div><p class="article-text">
        El presidente de Estados Unidos, Donald Trump, ha elogiado este martes a la tecnol&oacute;gica Anthropic y dijo que se &ldquo;lleva bien&rdquo; con la empresa de inteligencia artificial (IA), quit&aacute;ndole as&iacute; hierro al conflicto y al bloqueo que enfrenta la compa&ntilde;&iacute;a con el Pent&aacute;gono desde principios de a&ntilde;o.
    </p><p class="article-text">
        En declaraciones a la cadena CNBC, el mandatario ha elogiado la capacidad intelectual de los directivos de la firma y confirm&oacute; que ambas partes mantuvieron una reuni&oacute;n &ldquo;muy buena&rdquo; en la Casa Blanca la semana pasada. &ldquo;Son un grupo de personas muy inteligentes. Al principio empezaron a decirle a los militares c&oacute;mo operar y no quer&iacute;amos eso&rdquo;, explic&oacute; Trump, aludiendo al conflicto que mantiene la empresa con el Pent&aacute;gono.
    </p><p class="article-text">
        El presidente reconoci&oacute; que la direcci&oacute;n de la compa&ntilde;&iacute;a tiende a situarse en la <a href="https://www.eldiario.es/internacional/trump-ordena-eliminar-contratos-federales-ia-locos-izquierdistas-anthropic-abre-puerta-grok-elon-musk_1_13028370.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">&ldquo;izquierda radical</a>&rdquo;, pero matiz&oacute; que la relaci&oacute;n ha mejorado significativamente: &ldquo;Creo que se est&aacute;n encarrilando. Me gusta la gente inteligente, la gente con un alto coeficiente intelectual, y ellos definitivamente lo tienen&rdquo;.
    </p><p class="article-text">
        &ldquo;Son muy inteligentes, y creo que pueden ser de gran utilidad&rdquo;, ha reiterado. Palabras que llegan apenas unos d&iacute;as despu&eacute;s de que el consejero delegado de Anthropic, Dario Amodei, se reuniera con la jefa de gabinete de la Casa Blanca, Susie Wiles.
    </p><p class="article-text">
        Seg&uacute;n medios locales, <a href="https://www.eldiario.es/tecnologia/nueva-ia-anthropic-saltar-alarmas-eeuu-capacidad-explotar-brechas-seguridad_1_13132918.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">uno de los ejes de la reuni&oacute;n fue Mythos</a>, el nuevo y potente modelo de computaci&oacute;n con capacidades de programaci&oacute;n y ciberseguridad tan avanzadas que Anthropic ha decidido vetar su lanzamiento al p&uacute;blico general por considerarlo un riesgo para la seguridad global. El encuentro, adem&aacute;s, buscaba desbloquear el veto a la tecnolog&iacute;a de Anthropic impuesto por la Administraci&oacute;n Trump el pasado febrero, cuando incluy&oacute; a la empresa en una &ldquo;lista negra&rdquo; por supuestos riesgos para la seguridad nacional.
    </p><p class="article-text">
        La relaci&oacute;n entre Anthropic y el Pent&aacute;gono no pasa por su mejor momento, despu&eacute;s de que la empresa de IA impugnara la reciente decisi&oacute;n del Departamento de Defensa (DoD) de catalogar su tecnolog&iacute;a como<a href="https://www.eldiario.es/tecnologia/jueza-suspende-cautelarmente-veto-trump-startup-ia-anthropic-arbitrario-caprichoso_1_13102446.html" target="_blank" data-mrf-recirculation="links-noticia" class="link"> un riesgo para la seguridad nacional</a> en la cadena de suministro. Pese a esta disputa p&uacute;blica, los medios especializados han informado de que el DoD ha continuado utilizando la tecnolog&iacute;a de Anthropic durante la guerra en Ir&aacute;n. 
    </p>]]></description>
      <dc:creator><![CDATA[EFE]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/trump-dice-ahora-anthropic-son-inteligentes-sean-izquierda-radical-encarrilando_1_13161141.html]]></guid>
      <pubDate><![CDATA[Tue, 21 Apr 2026 15:31:04 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/03120067-4ff1-4285-8c46-a4278a0e99b5_16-9-discover-aspect-ratio_default_0.jpg" length="2834141" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/03120067-4ff1-4285-8c46-a4278a0e99b5_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="2834141" width="1200" height="675"/>
      <media:title><![CDATA[Trump dice ahora que en Anthropic son "muy inteligentes" aunque sean "izquierda radical": "Se están encarrilando"]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/03120067-4ff1-4285-8c46-a4278a0e99b5_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Donald Trump,Inteligencia artificial,Casa Blanca,Pentágono,Silicon Valley,Anthropic]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Una nueva IA de Anthropic hace saltar las alarmas en EEUU por su capacidad para explotar brechas de seguridad]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/nueva-ia-anthropic-saltar-alarmas-eeuu-capacidad-explotar-brechas-seguridad_1_13132918.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/9b876a91-3edd-4a44-aa62-cfd48070124b_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Una nueva IA de Anthropic hace saltar las alarmas en EEUU por su capacidad para explotar brechas de seguridad"></p><div class="subtitles"><p class="subtitle">El secretario del Tesoro de EEUU convoca a los principales bancos para avisarles del riesgo de que los ciberdelincuentes descubran agujeros en sus sistemas gracias al nuevo modelo</p><p class="subtitle">Qué es Anthropic, la startup que planta cara a Trump y su “estilo dictador” por el uso de IA en la guerra</p></div><p class="article-text">
        Anthropic, la startup que compite con OpenAI por el liderazgo de la inteligencia artificial, afirma que ha desarrollado un modelo demasiado peligroso para ser liberado al p&uacute;blico. La compa&ntilde;&iacute;a ha anunciado esta semana que su nueva tecnolog&iacute;a, denominada Claude Mythos, posee una capacidad sin precedentes para identificar y explotar <a href="https://www.eldiario.es/temas/ciberseguridad/" target="_blank" data-mrf-recirculation="links-noticia" class="link">vulnerabilidades de ciberseguridad</a>. Seg&uacute;n sus datos internos, el sistema ha localizado miles de fallos en los principales programas, incluyendo todos los grandes sistemas operativos y navegadores web.
    </p><p class="article-text">
        La startup ha expresado en un comunicado que teme que si publica el modelo en abierto este pueda ser utilizado por grupos de ciberdelincuentes para aprovecharse de agujeros en el c&oacute;digo que hasta ahora hab&iacute;an pasado inadvertidos. <a href="https://www.eldiario.es/tecnologia/anthropic-startup-planta-cara-trump-estilo-dictador-ia-guerra_1_13045909.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Claude Mythos es un modelo general</a> que tambi&eacute;n puede generar texto como los chatbots m&aacute;s conocidos, pero han sido su capacidad de analizar software lo que lo que ha desatado las alarmas. 
    </p><p class="article-text">
        &ldquo;Los modelos de IA han alcanzado un nivel de capacidad de codificaci&oacute;n que les permite superar a todos, salvo a los humanos m&aacute;s habilidosos, a la hora de <a href="https://www.eldiario.es/tecnologia/google-alerta-ia-creando-virus-informaticos-mutan-tiempo-real-saltar-barreras-ciberseguridad_1_12739216.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">encontrar y explotar vulnerabilidades de software</a>&rdquo;, asegura Anthropic en su comunicado. 
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Los modelos de IA han alcanzado un nivel que les permite superar a todos, salvo a los humanos más habilidosos, a la hora de encontrar y explotar vulnerabilidades de software</p>
                <div class="quote-author">
                        <span class="name">Anthropic</span>
                                  </div>
          </div>

  </blockquote><p class="article-text">
        Entre los hitos del modelo, presume Anthropic, est&aacute; el descubrimiento de una vulnerabilidad de 27 a&ntilde;os de antig&uuml;edad en OpenBSD, un sistema operativo dise&ntilde;ado espec&iacute;ficamente para ser dif&iacute;cil de hackear. Logan Graham, responsable del equipo de pruebas de la empresa, ha calificado el avance como &ldquo;un punto de inflexi&oacute;n&rdquo; para la industria tecnol&oacute;gica.
    </p><p class="article-text">
        Ante el temor de que la herramienta sea utilizada por los ciberdelincuentes, Anthropic ha optado por un despliegue restringido a trav&eacute;s de una iniciativa llamada <em>Project Glasswing</em>. Se trata de una coalici&oacute;n de 40 organizaciones, entre las que se encuentran gigantes como Apple, Amazon, Microsoft, Google y la Linux Foundation, a los que ha dado acceso al modelo para que parcheen las posibles brechas que Claude Mythos pueda detectar en sus sistemas.
    </p><p class="article-text">
        A pesar del revuelo generado en torno a las capacidades de esta nueva IA en las &uacute;ltimas horas, por el momento ninguna de estas compa&ntilde;&iacute;as ha desmentido las capacidades de las que presume Anthropic. Amazon, Google y Microsoft son inversores oficiales de la startup, mientras que Apple y la Linux Foundation colaboran estrechamente con la empresa.
    </p><h2 class="article-text">El secretario del Tesoro re&uacute;ne a los bancos</h2><p class="article-text">
        El debate en torno a Claude Mythos ha escalado fuera de las fronteras de la industria tecnol&oacute;gica este viernes. Varios diarios econ&oacute;micos, entre ellos el <a href="https://www.ft.com/content/397bf755-54cf-4018-a01d-8f714d8667c5?syn-25a6b1a6=1" target="_blank" data-mrf-recirculation="links-noticia" class="link"><em>Financial Times</em></a><em>,</em> han informado de que el secretario del Tesoro de Estados Unidos, Scott Bessent, convoc&oacute; esta semana a los m&aacute;ximos responsables de algunos de los mayores bancos del pa&iacute;s para abordar los riesgos asociados a esta IA. 
    </p><p class="article-text">
        Seg&uacute;n el citado medio, que cita fuentes conocedoras del encuentro, a este asistieron directivos de Bank of America, Citigroup, Goldman Sachs, Morgan Stanley y Wells Fargo. Tambi&eacute;n particip&oacute; el presidente de la Reserva Federal, Jay Powell. El consejero delegado de JPMorgan Chase, Jamie Dimon tambi&eacute;n hab&iacute;a sido invitado, aunque finalmente no pudo asistir. 
    </p><p class="article-text">
        Hab&iacute;a sido precisamente Dimon el que, en su carta anual publicada esta semana, hab&iacute;a escrito que los ciberataques &ldquo;siguen siendo uno de nuestros mayores riesgos&rdquo;, que &ldquo;la IA casi con seguridad lo agravar&aacute;&rdquo; y que ser&aacute; necesaria una inversi&oacute;n significativa en defensa. 
    </p><p class="article-text">
        Seg&uacute;n ha informado Anthropic, ya antes de esta reuni&oacute;n con los principales bancos, sus responsables hab&iacute;an iniciado conversaciones con el gobierno estadounidense para hablar de los riesgos de Claude Mythos para la seguridad nacional. La salida a la luz del modelo pilla a la startup en medio de <a href="https://www.eldiario.es/tecnologia/jueza-suspende-cautelarmente-veto-trump-startup-ia-anthropic-arbitrario-caprichoso_1_13102446.html" data-mrf-recirculation="links-noticia" class="link">una guerra abierta con la Casa Blanca</a>: Donald Trump orden&oacute; calificar a la empresa como un &ldquo;riesgo para la cadena de suministro&rdquo; despu&eacute;s de que esta se negara a levantar algunas salvaguardas de seguridad en el uso de su IA en la guerra de Ir&aacute;n.
    </p><h2 class="article-text">La sombra de una estrategia comercial</h2><p class="article-text">
        Sin embargo, no todos los expertos comparten el clima de p&aacute;nico. El analista Gary Marcus, uno de los mayores cr&iacute;ticos con el &ldquo;autobombo&rdquo; que rodea a la industria de la IA, ha se&ntilde;alado que el anuncio de Anthropic podr&iacute;a estar &ldquo;inflado&rdquo; y responder m&aacute;s a una maniobra de marketing que a una amenaza inmediata. 
    </p><p class="article-text">
        Marcus advierte que, en las pruebas de explotaci&oacute;n del navegador Firefox presentadas por la empresa, se desactiv&oacute; el &ldquo;sandboxing&rdquo; (un mecanismo de aislamiento de seguridad), lo que facilit&oacute; enormemente la tarea del modelo y lo convirti&oacute; m&aacute;s en una &ldquo;prueba de concepto&rdquo; que en un peligro real.
    </p><p class="article-text">
        Adem&aacute;s, Marcus subraya que modelos de c&oacute;digo abierto mucho m&aacute;s peque&ntilde;os y econ&oacute;micos ya han demostrado ser capaces de realizar an&aacute;lisis de vulnerabilidades similares a los de Mythos. Para el analista, el modelo est&aacute; &ldquo;en la tendencia&rdquo; de evoluci&oacute;n de la industria, pero no representa un salto fuera de los gr&aacute;ficos respecto a sus competidores.
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/nueva-ia-anthropic-saltar-alarmas-eeuu-capacidad-explotar-brechas-seguridad_1_13132918.html]]></guid>
      <pubDate><![CDATA[Fri, 10 Apr 2026 14:57:43 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/9b876a91-3edd-4a44-aa62-cfd48070124b_16-9-discover-aspect-ratio_default_0.jpg" length="15432636" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/9b876a91-3edd-4a44-aa62-cfd48070124b_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="15432636" width="1200" height="675"/>
      <media:title><![CDATA[Una nueva IA de Anthropic hace saltar las alarmas en EEUU por su capacidad para explotar brechas de seguridad]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/9b876a91-3edd-4a44-aa62-cfd48070124b_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Ciberseguridad,Estados Unidos,Hackeo,Bancos,Ciberdelincuencia,Anthropic]]></media:keywords>
    </item>
    <item>
      <title><![CDATA[Qué es Anthropic, la startup que planta cara a Trump y su "estilo dictador" por el uso de IA en la guerra]]></title>
      <link><![CDATA[https://www.eldiario.es/tecnologia/anthropic-startup-planta-cara-trump-estilo-dictador-ia-guerra_1_13045909.html]]></link>
      <description><![CDATA[<p><img src="https://static.eldiario.es/clip/c5f82495-f384-4c4b-b639-98564c800ae9_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675" alt="Qué es Anthropic, la startup que planta cara a Trump y su &quot;estilo dictador&quot; por el uso de IA en la guerra"></p><div class="subtitles"><p class="subtitle">El presidente amenaza con expulsar del mercado a una de las empresas con más potencial del mundo por negarse a levantar sus protecciones éticas para atacar Irán</p><p class="subtitle">Sánchez: “Respeto a EEUU, pero entre aliados es bueno señalar cuando se comete un error y la guerra de Irán lo es”</p></div><p class="article-text">
        Anthropic es uno de los mejores ejemplos de c&oacute;mo funciona el autobombo en la industria de la inteligencia artificial. Esta startup suele ser una gran desconocida fuera del sector. <a href="https://www.eldiario.es/temas/chatgpt/" target="_blank" data-mrf-recirculation="links-noticia" class="link">ChatGPT</a>, Google e incluso algunos modelos chinos acaparan m&aacute;s atenci&oacute;n que ella. Algo que contrasta con lo que ocurre de puertas adentro en eventos como el <a href="https://www.eldiario.es/tecnologia/ia-ciberseguridad-conectividad-mobile-world-congress-dejado-feria-moviles_1_13037250.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Mobile World Congress</a> celebrado esta semana en Barcelona, donde un alto ejecutivo de una gran teleco europea reconoc&iacute;a en privado que lo que est&aacute; haciendo Anthropic es &ldquo;de lo m&aacute;s impresionante&rdquo; que ha visto en toda su carrera.
    </p><p class="article-text">
        En esos c&iacute;rculos especializados, afirmar que dentro de 10 a&ntilde;os Anthropic ser&aacute; considerada la gran ganadora de <a href="https://www.eldiario.es/tecnologia/inversiones-disparadas-falta-retornos-activan-cuenta-burbuja-ia_1_12966061.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">la revoluci&oacute;n de la IA</a> ni siquiera se considera una apuesta demasiado arriesgada. Al menos as&iacute; era hasta esta semana, despu&eacute;s de que Donald Trump se haya propuesto acabar con ella tras denunciar que est&aacute; dirigida por &ldquo;locos de izquierda&rdquo; que intentan &ldquo;dictar&rdquo; c&oacute;mo el &ldquo;gran Ej&eacute;rcito de Estados Unidos lucha y gana guerras&rdquo;.
    </p><p class="article-text">
        El motivo es que en el momento clave de <a href="https://www.eldiario.es/internacional/trump-enfrenta-guerra-larga-esperado-iran-problemas-suministros-municion-armas_1_13044661.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">la ofensiva contra Ir&aacute;n</a>, Anthropic se neg&oacute; a ceder a las exigencias del Pent&aacute;gono para utilizar sus modelos de inteligencia artificial sin restricciones. El gobierno estadounidense exig&iacute;a usar su tecnolog&iacute;a para <a href="https://www.eldiario.es/internacional/investigacion-eeuu-apunta-probable-responsabilidad-ejercito-masacre-168-personas-escuela-ninas-irani_1_13045108.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">&ldquo;todos los prop&oacute;sitos legales&rdquo;</a>, pero la startup se opuso al considerar que los &ldquo;guardarra&iacute;les&rdquo; establecidos en su contrato de 200 millones de d&oacute;lares con el Departamento de Guerra eran fundamentales para impedir que la IA tome decisiones equivocadas con armas aut&oacute;nomas o se use para la vigilancia masiva de su propia poblaci&oacute;n.
    </p><p class="article-text">
        La reacci&oacute;n de la Casa Blanca ha sido furibunda y ejemplarizante. No solo ha impedido que Anthropic pueda volver a contratar con la administraci&oacute;n, sino que quiere etiquetarla como un &ldquo;riesgo para la cadena de suministro&rdquo;. Esto implicar&iacute;a que ninguna empresa que contrate los servicios de la startup podr&iacute;a tener relaciones con el Estado. En la pr&aacute;ctica, es un asesinato corporativo. 
    </p><p class="article-text">
        La disputa permanece abierta y el resultado ser&aacute; una prueba de fuego sobre los l&iacute;mites de seguridad de la tecnolog&iacute;a m&aacute;s potente del mundo. Anthropic cree que si Trump se impone, se habr&aacute; iniciado la cuenta atr&aacute;s para el primer gran desastre b&eacute;lico de la era de la inteligencia artificial.
    </p><h2 class="article-text">Dario Amodei, el evangelista de la IA General y la seguridad</h2><p class="article-text">
        No es casualidad que en medio de toda esta situaci&oacute;n est&eacute; Dario Amodei, el cofundador y director ejecutivo de Anthropic. Este empresario e investigador de 43 a&ntilde;os fue el vicepresidente de OpenAI hasta 2021, cuando abandon&oacute; la organizaci&oacute;n al considerar que no estaba poniendo las suficientes medidas de seguridad para evitar el mal uso o descarrilamiento de una tecnolog&iacute;a que considera tan poderosa. Junto a su hermana Daniela y otros exmiembros de <a href="https://www.eldiario.es/temas/openai/" target="_blank" data-mrf-recirculation="links-noticia" class="link">OpenAI</a>, fund&oacute; Anthropic con el objetivo de desarrollar IA verdaderamente segura. 
    </p><figure class="ni-figure">
        
                                            






    <picture class="news-image">
                                    <!--[if IE 9]>
                <video style="display: none;"><![endif]-->
                                                                                                                                        
                                                    <source
                                    media="(max-width: 576px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_50p_0.webp"
                            >
                                                <source
                                media="(max-width: 576px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_50p_0.jpg"
                        >
                                                                                                                        
                                                    <source
                                    media="(max-width: 767px)"
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_75p_0.webp"
                            >
                                                <source
                                media="(max-width: 767px)"
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_75p_0.jpg"
                        >
                                                                    
                                                    <source
                                    
                                    type="image/webp"
                                    srcset="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_default_0.webp"
                            >
                                                <source
                                
                                type="image/jpg"
                                srcset="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_default_0.jpg"
                        >
                                    
                <!--[if IE 9]></video><![endif]-->

                <img
                                        src="https://static.eldiario.es/clip/55a7d3f5-c053-4698-9c11-cd14338321ec_16-9-discover-aspect-ratio_default_0.jpg"
                    alt="Dario Amodei, en una imagen de archivo"
                >

            
            </picture>

            
            
                            <figcaption class="image-footer">
            <span class="title">
                Dario Amodei, en una imagen de archivo                            </span>
                                    </figcaption>
            
                </figure><p class="article-text">
        Desde entonces, la obsesi&oacute;n de los Amodei ha sido que la inteligencia artificial &ldquo;se alinee con los valores humanos&rdquo;. Dario se ha convertido en una de las voces m&aacute;s influyentes en los debates sobre los riesgos de esta tecnolog&iacute;a y c&oacute;mo deber&iacute;an imponerse m&eacute;todos de control. Ha publicado varios ensayos al respecto. En el &uacute;ltimo, <a href="https://www.darioamodei.com/essay/the-adolescence-of-technology" target="_blank" data-mrf-recirculation="links-noticia" class="link"><em>La Adolescencia de la Tecnolog&iacute;a</em></a>, publicado en enero, pide que la IA se rija por una &ldquo;constituci&oacute;n&rdquo; que permita todas sus decisiones puedan ser interpretables por humanos. 
    </p><p class="article-text">
        Tambi&eacute;n alerta sobre el peligro de que la IA sea capturada por reg&iacute;menes autoritarios y se convierta en una herramienta de vigilancia masiva. &ldquo;La humanidad est&aacute; a punto de recibir un poder casi inimaginable, y es profundamente incierto si nuestros sistemas sociales, pol&iacute;ticos y tecnol&oacute;gicos poseen la madurez para ejercerlo&rdquo;, escribe: &ldquo;Entrenar modelos de IA es m&aacute;s un arte que una ciencia, m&aacute;s parecido a 'cultivar' algo que a 'construirlo'. Ahora sabemos que es un proceso donde muchas cosas pueden salir mal&rdquo;.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">La humanidad está a punto de recibir un poder casi inimaginable, y es profundamente incierto si nuestros sistemas sociales, políticos y tecnológicos poseen la madurez para ejercerlo</p>
                <div class="quote-author">
                        <span class="name">Dario Amodei</span>
                                        <span>—</span> cofundador de Anthropic
                      </div>
          </div>

  </blockquote><p class="article-text">
        Su figura, no obstante, es controvertida incluso entre los especialistas que comparten esta postura. Amodei no es solo uno de los mayores evangelistas sobre la seguridad de la IA. Tambi&eacute;n lo es sobre la inminencia de la <a href="https://www.eldiario.es/tecnologia/si-manana-llega-inteligencia-artificial-general-equipo-google-gano-nobel-senala-mayores-riesgos_1_12213166.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">Inteligencia Artificial General</a>, esa m&aacute;quina autoconsciente y capaz de mejorarse a s&iacute; misma que puede generar un peligro existencial para la raza humana. Durante a&ntilde;os, asegur&oacute; que este momento llegar&iacute;a a &ldquo;finales de 2026&rdquo;. En entrevistas m&aacute;s recientes ha empezado a retrasarlo hasta 2027-2029. 
    </p><p class="article-text">
        Sus creencias casi religiosas sobre la IA General, unidas a la postura determinista sobre el potencial de esta tecnolog&iacute;a (para &eacute;l, es la pieza clave sobre la que pivota el futuro de la humanidad), ha hecho que muchos expertos consideren que forma parte de su propio autobombo. Amodei ha convertido la IA segura y &eacute;tica en la estrategia de mercado de Anthropic. Algo que la hab&iacute;a hecho una de las preferidas para los clientes corporativos antes de que Trump amenazara con sacarla del mapa precisamente por anteponer sus prioridades &eacute;ticas a la seguridad nacional.
    </p><h2 class="article-text">C&oacute;mo Anthropic ha llegado a ser tan importante</h2><p class="article-text">
        El discurso de Amodei est&aacute; reflejado en los estatutos de Anthropic. La startup est&aacute; constituida como una corporaci&oacute;n de beneficio p&uacute;blico. Esto significa que, legalmente, la empresa no est&aacute; obligada a priorizar solo el beneficio econ&oacute;mico de sus accionistas, sino tambi&eacute;n construir &ldquo;sistemas de IA que sean controlables, interpretables y seguros&rdquo;.
    </p><p class="article-text">
        Esto la ha convertido en un socio muy fiable para el sector corporativo. &ldquo;Han sido los que mejor han entendido que las empresas no solo necesitaban un chatbot de usuarios, sino un producto que se pusiera mucho foco en la seguridad, la privacidad y el control de los datos&rdquo;, explica Diego M&eacute;ndez, director ejecutivo de la firma de software espa&ntilde;ola Tailor Hub.
    </p><p class="article-text">
        &ldquo;Pero lo interesante es que no es solo un producto, sino una apuesta por una forma diferente de desarrollar software&rdquo;, detalla M&eacute;ndez. Y es aqu&iacute; donde conecta con posicionamientos como los que expresaban los grandes ejecutivos del Mobile World Congress y el entusiasmo con Anthropic en los c&iacute;rculos especializados. Su herramienta Claude Code est&aacute; cambiando las reglas del juego para los desarrolladores de software.
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">Lo interesante es que Claude Code no solo es un producto, sino una apuesta por una forma diferente de desarrollar software</p>
                <div class="quote-author">
                        <span class="name">Diego Méndez</span>
                                        <span>—</span> director ejecutivo de la firma de software española Tailor Hub
                      </div>
          </div>

  </blockquote><p class="article-text">
        En lugar de sugerir c&oacute;digo l&iacute;nea a l&iacute;nea, como hacen la mayor&iacute;a de asistentes actuales, Claude Code puede asumir tareas completas de desarrollo y ejecutarlas de principio a fin. Funciona como un agente aut&oacute;nomo que opera directamente desde la terminal o el navegador del usuario al que se le pueden dar instrucciones en lenguaje natural. Esto facilita que personas con pocos conocimientos t&eacute;cnicos puedan abordar tareas sencillas, como crear prototipos de apps o p&aacute;ginas web, aunque sigue siendo necesaria cierta supervisi&oacute;n.
    </p><p class="article-text">
        En entornos profesionales, encargos como crear funciones nuevas dentro de una aplicaci&oacute;n, corregir errores detectados por los usuarios o integrar un determinado programa con otros servicios digitales pueden realizarse con &oacute;rdenes sencillas. &ldquo;Para nosotros se ha convertido en un compa&ntilde;ero de trabajo indispensable&rdquo;, expone el responsable de Tailor Hub. El cambio de la herramienta de Anthropic es estructural, permitiendo que los desarrolladores pasen de ser &ldquo;picadores de c&oacute;digo&rdquo; a &ldquo;orquestadores de agentes&rdquo;, con ritmos de trabajo muy superiores. 
    </p><p class="article-text">
        En este sector, la asimilaci&oacute;n ha sido extremadamente r&aacute;pida. Seg&uacute;n un informe de SemiAnalysis, Claude Code es el responsable del 4% de todo el c&oacute;digo que se sube a GitHub, una red social y repositorio donde los programadores guardan, comparten y trabajan juntos en el c&oacute;digo de sus aplicaciones.
    </p><p class="article-text">
        Es una revoluci&oacute;n que las empresas de software est&aacute;n aplicando ya a campos fuera de la programaci&oacute;n &ldquo;como finanzas o administraci&oacute;n&rdquo; y que avisan que terminar&aacute; llegando a todos los sectores. El terremoto ya tiene efecto en las cuentas de Anthropic, que ha multiplicado sus ingresos por veinte en apenas un a&ntilde;o, pasando de apenas mil millones a principios de 2025 a rozar los veinte mil millones de d&oacute;lares en marzo de 2026. 
    </p><h2 class="article-text">Qu&eacute; pasa si Anthropic cede</h2><p class="article-text">
        Una herramienta que permite automatizar procesos de manera segura es un importante recurso militar para el Pent&aacute;gono. Por eso Amodei piensa que la bravata de la Casa Blanca se debe a que &ldquo;no le hemos dado elogios al estilo dictador a Trump&rdquo;, en contraste con el jefe de OpenAI, Sam Altman. As&iacute; lo expres&oacute; en una carta enviada a sus empleados este jueves.
    </p><p class="article-text">
        Sin embargo, este viernes el Departamento de Guerra ha pulsado el bot&oacute;n. Los productos de Anthropic ya son considerados por el Gobierno estadounidense como un riesgo para la cadena de suministro. &ldquo;Bueno, desped&iacute; a Anthropic. Anthropic est&aacute; en problemas porque los desped&iacute; como perros&rdquo;, ha declarado Donald Trump. Con todo, informaciones de Bloomberg y otros medios apuntan a que las negociaciones entre la startup y el Pent&aacute;gono para reconducir la situaci&oacute;n contin&uacute;an.
    </p><p class="article-text">
        De no conseguirlo, ambas partes perder&iacute;an. La startup ser&iacute;a liquidada, pero para EEUU perder a Anthropic no solo implicar&iacute;a no tener acceso a Claude Code, sino tambi&eacute;n a uno de sus mayores activos estrat&eacute;gicos en el desarrollo de inteligencia artificial. 
    </p><blockquote class="quote">

    
    <div class="quote-wrapper">
      <div class="first-quote"></div>
      <p class="quote-text">El gran problema de todo esto es China, donde las empresas no pueden imponer este tipo de salvaguardas al gobierno. Es una desventaja estratégica</p>
                <div class="quote-author">
                        <span class="name">Jesús Alcalde</span>
                                        <span>—</span> jefe de Tecnología de la firma de ciberseguridad española Flameera
                      </div>
          </div>

  </blockquote><p class="article-text">
        &ldquo;El gran problema de todo esto es China, donde las empresas no pueden imponer este tipo de salvaguardas al gobierno. Es una desventaja estrat&eacute;gica&rdquo;, expresa Jes&uacute;s Alcalde, jefe de Tecnolog&iacute;a de la firma de ciberseguridad espa&ntilde;ola Flameera. &ldquo;Lo que no quieren es que si ma&ntilde;ana hay un conflicto por Taiw&aacute;n, Estados Unidos llegue con Anthropic capado mientras el Ej&eacute;rcito chino dispone de todos sus modelos liberados y sin problemas&rdquo;.
    </p><p class="article-text">
        &ldquo;Al final estamos en una guerra armament&iacute;stica&rdquo;, contin&uacute;a el especialista. &ldquo;Todos estamos de acuerdo en que no queremos armamento nuclear, pero como el vecino lo tiene, pues entonces yo tambi&eacute;n lo quiero para poder defenderme&rdquo;.
    </p><p class="article-text">
        Pero la batalla de Anthropic por mantener sus medidas de seguridad no solo afecta a esta empresa y al Ej&eacute;rcito de EEUU. Si la startup termina perdiendo su disputa con Trump y deja caer esas protecciones, sentar&aacute; un precedente en el que se habr&aacute; impuesto el &ldquo;todo vale&rdquo; para esta tecnolog&iacute;a. En cuestiones como la ciberseguridad, esto implica que la IA liberada pueda convertirse en un &ldquo;gran amplificador del crimen&rdquo;, capaz de dise&ntilde;ar los mejores ataques y <a href="https://www.eldiario.es/tecnologia/google-alerta-ia-creando-virus-informaticos-mutan-tiempo-real-saltar-barreras-ciberseguridad_1_12739216.html" target="_blank" data-mrf-recirculation="links-noticia" class="link">virus capaces de reprogramarse a s&iacute; mismos en tiempo real</a>. 
    </p><p class="article-text">
        &iquest;C&oacute;mo acabar&aacute; esto? &ldquo;En mi opini&oacute;n, es como intentar tapar una fuga de agua en una presa con las manos&rdquo;, confiesa Alcalde. &ldquo;Con otro tipo de armas, como las nucleares, puedes generar cuellos de botella. Tienes que tener acceso a determinados materiales y maquinaria. Pero la IA es informaci&oacute;n. Si no lo haces t&uacute;, al final lo va a terminar haciendo otro&rdquo;. 
    </p>]]></description>
      <dc:creator><![CDATA[Carlos del Castillo]]></dc:creator>
      <guid isPermaLink="true"><![CDATA[https://www.eldiario.es/tecnologia/anthropic-startup-planta-cara-trump-estilo-dictador-ia-guerra_1_13045909.html]]></guid>
      <pubDate><![CDATA[Sat, 07 Mar 2026 21:37:50 +0000]]></pubDate>
      <enclosure url="https://static.eldiario.es/clip/c5f82495-f384-4c4b-b639-98564c800ae9_16-9-discover-aspect-ratio_default_0.jpg" length="475225" type="image/jpeg"/>
      <media:content url="https://static.eldiario.es/clip/c5f82495-f384-4c4b-b639-98564c800ae9_16-9-discover-aspect-ratio_default_0.jpg" type="image/jpeg" fileSize="475225" width="1200" height="675"/>
      <media:title><![CDATA[Qué es Anthropic, la startup que planta cara a Trump y su "estilo dictador" por el uso de IA en la guerra]]></media:title>
      <media:thumbnail url="https://static.eldiario.es/clip/c5f82495-f384-4c4b-b639-98564c800ae9_16-9-discover-aspect-ratio_default_0.jpg" width="1200" height="675"/>
      <media:keywords><![CDATA[Inteligencia artificial,Pentágono,Estados Unidos,Donald Trump,Ciberseguridad,Irán,OpenAI,Anthropic]]></media:keywords>
    </item>
  </channel>
</rss>
