Es uno de los debates de nuestro tiempo: el uso de la inteligencia artificial, sus sesgos, su impacto y su procesamiento de información. Pero no hace tanto que el término empezó a estar en boca de todos: en 2022 la expresión inteligencia artificial fue reconocida como palabra del año por la FundéuRAE. Y por entonces aún no nos hacíamos una idea de hasta dónde podía llegar esta disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.
La consultora digital especializada en IA, Cloud District, propone una mirada alternativa al tema, con la que arrojar luz al tiempo que aportar cierto sosiego ante los cambios que se suceden con rapidez y poco contexto. “En lo que a tecnología se refiere, vivimos un momento tan fascinante como agotador”, explican desde la consultora.
“Mucha expectativa, también temor y quizá desconocimiento. Sin embargo, ningún modelo de IA —por muy sofisticado que sea— vive en el vacío. Lo mismo con las herramientas y los productos digitales que usamos. Por eso nos parece importante cambiar el foco —en general, pero sobre todo con las empresas con las que trabajamos— de la herramienta o solución por solución a fomentar una visión y forma de trabajar que evite la desconexión de las soluciones con los problemas”. Algo que se refleja en una filosofía de trabajo que la propia consultora explora en iniciativas como La Inquieta, que propone una mirada amplia y curiosa hacia la IA.
Priorizar el cómo se hacen las cosas
El concepto de inteligencia artificial se incorporó al diccionario de la Academia en su edición de 1992, pero viene de mucho antes. En sus inicios allá por los años 50, tanto el hardware como el software eran muy, pero que muy, distintos. Se basaban en decisiones sencillas, mundos de reglas claras conocidos como modelos de caja de cristal porque el usuario podía seguir todo el proceso desde que le introducía unos datos a la energía computacional hasta que los transformaba en una respuesta. A partir de los 80 los modelos de IA se basaban en lo que se conocía como los árboles de decisión, también interpretables ante los ojos humanos.
Pero con el tiempo, se desarrollaron modelos como los que operan hoy, llamados modelos de caja negra porque no se puede ver con exactitud cómo de unos datos se extraen unas respuestas. Una situación que produce miedo por desconocimiento, y cierto desconcierto en empresas que, sin embargo, necesitan la IA para sus procesos. Y ahí es donde la visión de Cloud District marca la diferencia.
Ellos acompañan a organizaciones y empresas en su proceso de transformación digital, algo muy demandado en la actualidad. Y entre sus servicios y actividades, el verbo acompañar es clave. “Cuando trabajamos con cualquier equipo no les preguntamos por la herramienta que querrían usar. Tampoco les sugerimos lo que esté de moda, sino que nos cuestionamos cómo las personas deciden en qué aspectos la tecnología debe asistirles. Les acompañamos en ese proceso”, reflexionan sobre el espíritu que guía su trabajo.
“También es una forma de llamar la atención sobre algunas soluciones o respuesta a problemas actuales que requieren de más complejidad que una sola herramienta de IA generativa o un chatbot. Reconocer esa complejidad y abordarla es también cultura”, defienden. “Al final se trata de destacar más el cómo lo hacemos que el qué hacemos en todo el ciclo de desarrollo de un producto digital. Separar la potencia, la IA en sí, de hacia dónde la apuntamos o sobre qué la aplicamos; la cultura”.
Cultura frente al sesgo de la IA
Este acompañamiento con las empresas define los principios y la cultura de Cloud District. “Una parte importante de nuestro trabajo tiene que ver con la evolución, con cómo van adaptándose y actualizándose los productos que hicimos frente a cambios tecnológicos, nuevos hábitos de las personas o incluso nuevas regulaciones”, describen. “Si algo caracteriza el momento que vivimos es que a todo el mundo nos toca aprender a aprender. A nuestro equipo el primero”.
Sin embargo, la adaptación se produce en un entorno que da vértigo, de lo cambiante que resulta. El Observatorio Nacional de Tecnología y Sociedad, en su último informe Indicadores de uso de inteligencia artificial en España 2024 revelaba un crecimiento significativo en el uso de tecnologías de IA, que ya usan el 11,4% de las empresas con diez o más personas empleadas. Unos datos que también certifican que las tecnologías de generación de lenguaje escrito o hablado han experimentado el mayor crecimiento medido solo el último año. El informe señala que la mayoría de la población considera que la IA tendrá un impacto positivo en el mundo laboral, pero, ¿qué hay de las dudas éticas que surgen de la IA? ¿Qué hay de sus sesgos, en ocasiones discriminatorios?
“Ser conscientes de la carga que lleva toda tecnología es un paso clave”, nos dicen desde Cloud District. “Cada vez más, la IA toma o condiciona decisiones muy importantes; desde evaluar un riesgo crediticio hasta conceder o no una ayuda. Parte de nuestro compromiso es, ante cualquier cliente, explicar que si bien una solución puede mejorar la eficiencia también debemos plantearnos si sabemos o podremos explicar de dónde vienen algunas decisiones. Ya no se trata de obtener buenos resultados, sino también de entender de dónde salen”.
Partiendo de esa mirada, adaptada pero preocupada por el cómo, por la ética del trabajo, Cloud District trabaja “la configuración de los datos que utilizamos, las preguntas que le hacemos (o no) al producto, pero siempre trabajando desde el diseño. Aquí, el poder prototipar y experimentar rápido nos ayuda a toparnos cuanto antes con posibles sesgos, por ejemplo”.
Datos para la esperanza
Cloud District lleva años aplicando esta mirada alternativa y responsable sobre la IA a sus trabajos, incluso llevando a cabo proyectos que la definen. Uno podría ser el podcast Miradas, en el que conversa y debate sobre la filosofía detrás de las tecnologías. Otro podría ser Data for Hope, realizado durante la pandemia, que fue usado con propósito ético y comunitario. Se trataba, cuentan, de “buscar soluciones rápidas y útiles a través de los datos. Pero no desde un laboratorio cerrado, sino desde una red abierta y colaborativa donde conviven médicos, tecnólogos, diseñadores o investigadores. Gente que cree en los datos, sí, pero también en el optimismo y en la diversidad de perspectivas”.
Otro ejemplo de la cultura que se encuentra en el centro del desarrollo de proyectos digitales de Cloud District es House of beautiful business, un espacio con el objetivo de plantear otra forma de mirar la tecnología, donde “se cruzan pensamiento crítico, creatividad y visión empresarial, y donde hablar de IA es también hablar de belleza, contradicciones, futuro compartido”. Para los responsables de Cloud District, “tanto la una como la otra se construyen a partir de colaboraciones basadas en crear comunidades de perfiles diversos, que ponen la mirada en lo humano, y que no se limitan a lo técnico, sino que se preguntan por el impacto social, cultural y ético de la tecnología”.
Por ello, la consultora plantea la necesidad, casi se diría que urgente, de tender puentes entre IA y cultura. “No es una pelea”, dejan claro. “El empujón actual de la IA es una oportunidad para ampliar un vocabulario común de métricas, valores y expectativas éticas. Y así, con ese espacio compartido, podremos cerrar la brecha entre ambición y ejecución; entre imaginar y construir”.