Las máquinas, como el diablo, están en los detalles
Un conocido dicho anglosajón dice que el diablo está en los detalles, y a la inteligencia artificial le ocurre algo parecido: puede tomar decisiones, incluso mejor que nosotros, en base a sutilezas o a cuestiones anecdóticas o irrelevantes a “nuestros ojos”. Me explicaré.
La forma más común de aprendizaje automático, el que realizan las máquinas, se basa en utilizar un conjunto de datos de entrenamiento que sirven de ejemplo de lo que se quiere aprender. En los métodos de aprendizaje supervisado, el conjunto de entrenamiento está formado por pares de datos formados por una entrada –puede ser la foto de un gato– y la respuesta o salida que el sistema ha de darle a la misma una vez adiestrado al efecto –la categoría “gato”–. De este modo, para diseñar un sistema capaz de diagnosticar COVID-19 a partir de una radiografía de tórax, el conjunto de entrenamiento podría estar formado por miles de radiografías de personas sanas y enfermas, etiquetadas según cada caso.
Los algoritmos que aprenden sobre estos conjuntos de datos lo hacen calculando el valor de los miles y miles de parámetros de sus complejos modelos matemáticos, de modo que, tras ese adiestramiento, la inteligencia artificial sea capaz de reproducir adecuadamente la respuesta asociada a los ejemplos de entrenamiento y, sobre todo, obtener respuestas acertadas para nuevos casos, que, aun siendo más o menos semejantes a los del conjunto de entrenamiento, no serán iguales. Siguiendo el ejemplo anterior, si el sistema aprendió a resolver bien la tarea, será capaz de diagnosticar nuevos pacientes a través de sus radiografías de tórax.
Nosotros, las personas, operamos de un modo semejante. Pero solo semejante. Nuestra capacidad para reconocer el mundo y desenvolvernos en él, también en los entornos profesionales, es incomparablemente superior a la de las máquinas y además somos inteligencias de propósito general. Sin embargo, convenientemente diseñadas para resolver problemas concretos, las máquinas sí pueden superarnos. Nos superan jugando al ajedrez o detectando tumores sobre imágenes médicas, por poner solo dos ejemplos bien conocidos. Eso sí, en función de cómo se elija el conjunto de entrenamiento, podemos llevarnos algunas sorpresas.
Volviendo al ejemplo de la COVID-19, un sistema diseñado en la universidad milanesa de San Raffaele aprendió a hacerlo detectando, entre otras cosas, la existencia de una clara correlación entre la fecha impresa en las radiografías de tórax y la probabilidad de que los pacientes tuviesen COVID-19. Muchos de los pacientes que ingresaron en el hospital universitario en 2020 tenían COVID-19, así que el momento del ingreso se convirtió en un buen elemento de diagnóstico para la máquina, por más circunstancial y hasta anecdótica que fuese dicha información para el experto humano. Es más, la máquina puede aprender a detectar COVID-19 sobre una radiografía mejor que un radiólogo, sin necesidad de saber siquiera qué son los pulmones ni cuál es su función.
Entre los cientos de intentos por diseñar sistemas de diagnóstico de COVID-19 a partir de radiografías de tórax, ha habido otros casos en los que el sistema aprendió a fijarse en lo aparentemente relevante, como la postura del paciente (a los pacientes más graves se les hacen más radiografías tumbados), o en las anotaciones hechas a mano sobre radiografías realizadas en hospitales de referencia durante la pandemia, en los que el número de ingresos de personas enfermas era mucho más alto.
También las máquinas pasan a veces de la anécdota a la categoría, y más cuando usan modelos matemáticos capaces de “fijarse” en cualquier detalle que pueda serles útil para el objetivo que les hemos marcado, tenga o no sentido lógico para resolver un problema. Y es que de momento tenemos máquinas que pueden llegar a saber mucho, pero pensando muy poco.
0