eldiario.es

Menú

El Congreso sobre la IA analiza los nuevos mecanismos informáticos para mejorar la predicción de terremotos

SANTA CRUZ DE TENERIFE

El desarrollo de mecanismos informáticos que permitan mejorar la predicción de desastres naturales ha sido una de las conferencias que se han presentado hoy en el marco de la segunda jornada de la XIV Conferencia de la Asociación Española para la Inteligencia Artificial (CAEPIA'11), que se desarrolla en La Laguna, en Tenerife.

- PUBLICIDAD -

SANTA CRUZ DE TENERIFE, 8 (EUROPA PRESS)

El desarrollo de mecanismos informáticos que permitan mejorar la predicción de desastres naturales ha sido una de las conferencias que se han presentado hoy en el marco de la segunda jornada de la XIV Conferencia de la Asociación Española para la Inteligencia Artificial (CAEPIA'11), que se desarrolla en La Laguna, en Tenerife.

Los profesores Francisco Martínez y Alicia Troncoso de la Universidad Pablo de Olavide pusieron sobre la mesa su trabajo centrado en el desarrollo de mecanismos para anticiparse a los desastres naturales y destacaron los prometedores resultados que se han obtenido en la aplicación sobre los datos proporcionados por el Instituto Geográfico Nacional español de cara a la predicción de estos fenómenos.

En este sentido, explicaron que a partir de un parámetro estudiado que caracteriza cómo se comporta el suelo, se ha comprobado que existe una posibilidad elevada de predecir terremotos de una intensidad media-alta en un periodo inferior a cuatro meses. Asimismo, señalaron la importancia de este tipo de investigaciones ya que dichos resultados podrían extrapolarse a muchas zonas, como es el caso de Canarias.

El reto de explotar el potencial económico de la información que se mueve en el mundo digital fue la apuesta hecha por la investigadora de la Open University de Reino Unido Miriam Fernández.

Durante su intervención, Fernández señaló que estamos en la era de los datos, lo que se traduce en un enorme volumen de información en el mundo digital que se publica cada año y que esto contiene un potencial económico muy fuerte que debe utilizarse. En este sentido, señaló que se debe apostar por que las máquinas no solo almacenen la información sino que la procesen y aprovechar ese conocimiento para aplicarlo a los mercados, la educación, la sanidad y las organizaciones públicas. Un aspecto que, insistió, no sólo repercutirá en un ahorro de dinero sino que facilitará las tareas de la vida diaria.

Miriam Fernández precisó que ya hay compañías que están realizando inversiones en este tema, como es el caso de la web semántica, un área joven centrada en dotar a las máquinas de una estructura semánticas para que sean capaces de interpretar y sacar la información. Asimismo, se refirió al trabajo con datos enlazados desarrollado por la Open University que se ha traducido en el desarrollo de aplicaciones que han permitido enlazar la información de los cursos con el material educativo.

APRENDIZAJE CONTINUO

Otra de las exposiciones de hoy corrió a cargo del profesor Tom M. Mitchell, miembro del Departamento de Aprendizaje Automático de la Universidad Carnegie Mellon, uno de los centros superiores de investigación de Estados Unidos con mayor prestigio en las áreas de informática y robótica.

En este caso, Mitchell centró su ponencia en el método de construcción de agentes de software inteligente que van aprendiendo todos los días. Bajo el título 'Learning forever' (Siempre aprendiendo), Mitchell expuso el estudio de un caso, el del sistema Nell, que ha aprendido durante las 24 horas del día y por espacio de un año a extraer información de la red y a mejorar, posteriormente, su técnica según lo aprendido diariamente.

Estas ponencias forman parte de las más de 16 sesiones y reuniones de trabajo que se mantendrán a lo largo del día de hoy con el fin de debatir los avances en la investigación de la inteligencia artificial y el desarrollo de máquinas capaces de emular el comportamiento humano.

Otra de las intervenciones corrió a cargo de Francisco Herrera, profesor de la Universidad de Granada, en la que dio a conocer un trabajo dirigido a la clasificación de huellas dactilares. Precisó que, a partir de un conjunto de patrones establecidos, se ha apostado por reconocer a qué clase pertenecen los nuevos patrones que se vayan incorporando mediante el Soft computing.

Explicó que en cualquier sistema automático para identificar a un cliente existen cinco clases de tipo de huellas y es muy importante detectar a qué grupo pertenece el nuevo modelo que se introduzca para obtener una respuesta inmediata que permita hacer una búsqueda rápida de los datos de los clientes y realizar las operaciones que quiera en aquella empresas que tiene un sistema de autentificación biométrica.

REFERENTE DEL SECTOR

Precisamente, este es el objetivo de CAEPIA'11, evento organizado por el Grupo de Computación Inteligente de la Universidad de La Laguna, junto a la Asociación Española para la Inteligencia Artificial y con la colaboración del Ministerio de Ciencia e Innovación, el Gobierno de Canarias, el Cabildo de Tenerife, el Ayuntamiento de La Laguna y el Instituto Universitario de Desarrollo Regional.

Dicho encuentro cuenta con la participación de más de 200 expertos nacionales e internacionales en el campo de la inteligencia artificial, una modalidad dirigida a conseguir que las máquinas, fundamentalmente los ordenadores, tenga un comportamiento que emule al de ser humano.

Este foro de referencia de la comunidad de investigadores que trabajan con temas relaciones con la Inteligencia Artificial y, que se desarrolla con carácter bienal, abordará hasta el próximo jueves los últimos avances tecnológicos y científicos existentes en este campo.

- PUBLICIDAD -

Comentar

Enviar comentario

Enviar Comentario

Comentarios

Ordenar por: Relevancia | Fecha