Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Memex, el buscador de DARPA que rastrea la Deep Web

Si internet fuera un iceberg, la Deep Web sería la parte oculta: se calcula que es mucho mayor que la Web visible

Pablo G. Bejerano

Madrid —

El término proviene de un artículo de 1945, publicado durante las últimas semanas de la II Guerra Mundial por el ingeniero y director de la U.S Office of Scientific Research and Development (OSRD) Vannevar Bush. En él se describía Memex como una especie de invento electromecánico capaz de almacenar todos los libros, grabaciones y todo tipo de información con el fin de poder rescatarla a placer.

El ingenio no fue desarrollado, claro está, y hoy lo más parecido que hay son los buscadores de Internet. Pero estos se dejan una parte sustancial de la Red sin acceder, la Deep Web, que en 2013 saltó a los titulares de los medios por el caso Silk Road. La agencia gubernamental estadounidense DARPA (Defense Advanced Research Project Agency) ha desarrollado un buscador que puede llegar a todos estos sitios donde no llegan Google, Yahoo o Bing. Lo han llamado Memex.

Aunque en principio la idea de DARPA es que Memex también pueda usarse en el ámbito comercial, lo que significaría que cualquier usuario podría utilizarlo, por el momento son las autoridades estadounidenses las que operan con él. Desde enero de 2014 sirve para las investigaciones sobre tráfico de personas que lleva a cabo el fiscal del distrito de Manhattan.

Este sería su principal propósito: facilitar las investigaciones de delitos que se cometen mediante o en internet. El buscador tiene como objetivo organizar subconjuntos de información en base a intereses específicos, de manera que sea más útil para mostrar resultados relacionados con determinados dominios o actividades. Usa inteligencia artificial y, dentro de este campo, ‘machine learning’ para establecer conexiones que de otra forma no se percibirían.

Resquemor en torno a la privacidad

Memex estaría pensado para que lo utilizara cualquier perfil de usuario, sin necesidad de que este tenga conocimientos de programación. Aparte de esto, es inevitable dirigir las miradas hacia el programa de vigilancia de la NSA, pese a que en DARPA aseguran que no trabajan para la agencia de espionaje y aclaran que el buscador no está hecho para desenmascarar el anonimato.

La Deep Web también es un terreno donde operan partes del colectivo Anonymous, activistas de distinto calado que necesitan proteger su identidad y otros usuarios que no están relacionados con actos delictivos. Por eso en DARPA se han preocupado por declarar que Memex no permite atribuir servicios anónimos ni identificar servidores o direcciones IP. El buscador solo puede acceder a la información que esté públicamente disponible, aunque sea en la Deep Web. En todo caso, no sirve para intervenir mensajería privada.

El primer objetivo para el que Memex fue creado es combatir el tráfico de personas. La ventaja que ofrece a las autoridades para investigar este tipo de delitos es la extracción de datos relevantes que se encuentran en grandes cantidades de información. Hasta ahora aquellos que trataban de descubrir redes de tráfico de personas, por ejemplo, usaban los buscadores tradicionales y pinchaban en enlaces o en anuncios, uno a uno, para comprobar si eran ilegales. No hay suficientes trabajadores para analizar toda la información disponible.

Memex se centra en búsquedas específicas de dominio para mostrar resultados agregados y contenido relacionado, dando también importancia a determinados factores, como la localización. Se trata de operaciones que los buscadores tradicionales ya llevan a cabo, aunque sin tanta profundidad. El programa creado por DARPA está basado en arquitectura de código abierto y no requiere de un hardware especialmente potente para funcionar.

No está clara la cantidad de información que hay en la Deep Web, pero sus dimensiones se presuponen considerables. Para hacerse una idea, en 2001 Michael Bergman (creador del término unos años antes) publicó un estudio en el que estimaba que la parte invisible de Internet era unas 400 ó 550 veces más grande que lo que normalmente se entendía por Internet. En aquel momento también señaló que la Deep Web crecía más que la denominada World Wide Web.

Imagen:  ⣫⣤⣇⣤

Etiquetas
stats