Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Cómo la realidad aumentada de Apple nos acerca más que nunca a 'Black Mirror'

Segundo episodio de la tercera temporada de 'Black Mirror'

José Antonio Luna

En la última conferencia de Apple se habló de algo más que Face ID o los 1.159 euros que cuesta el iPhone X. También hubo espacio para novedades en terrenos no tan explorados por la compañía de Cupertino: la realidad aumentada. No son los primeros en experimentar con esta tecnología, pero sus herramientas permiten desarrollarla a un nivel que hasta ahora no habíamos comprobado.

En Apple no solo buscan que podamos integrar un dinosaurio digital en un parque, sino ir un paso más allá. Con ARKit, el paquete de desarrollo que presentaron, la empresa quiere que los programadores realicen aplicaciones de todo tipo. Como viene siendo habitual con casi cada nueva tecnología futurista, las alusiones a la serie Black Mirror resultan inevitables.

Aunque la presentación oficial de ARKit fue realizada en el evento para desarrolladores que tuvo lugar el pasado junio, la empresa de Tim Cook sigue mostrando hasta dónde puede llegar. Antes se trataba de un producto en fase beta, ahora es una realidad.

“El gran avance es que no se necesitan códigos ni imágenes para reconocer el entorno que te rodea”, indica el director técnico de ARSoft, una empresa española especializada en realidad aumentada. Santiago González añade que “crea un mapa tridimensional y en base a eso permite colocar elementos virtuales”.

“Lo que hace es detectar planos horizontales en el espacio”, explican a eldiario.es Jordi Cuscó y Aitor Fernández, ambos encargados de la también española Paradigma Studio. “No sabe si es un suelo o una mesa, pero sí que aquello es plano y está en horizontal”, observan los desarrolladores refiriéndose a los cambios introducidos por ARKit.

De esta manera, ya no sería necesario emplear elementos como códigos QR o imágenes predefinidas para generar un objeto 3D, sino que la propia aplicación reaccionaría automáticamente ante distintas superficies. “Podemos apuntar al suelo y que nos salga un mueble del Ikea”, pone como ejemplo Fernández.

Para González, otro aspecto a destacar es las mejoras en la tecnología de tracking, que sirve para determinar el movimiento y la posición de elementos tridimensionales. “Tienes que saber desde qué perspectiva estás viendo el elemento digital, porque no es lo mismo hacerlo desde arriba que desde un lado”, señala el ingeniero. Continúa explicando que “al fin y al cabo, la realidad aumentada se trata de conocer el mundo que te rodea y sobre esa realidad mostrar objetos virtuales”.

La respuesta de Google para hacer frente a Apple

Como sostiene Cuscó, Pokémon GO fue el que “hizo entender al usuario final lo que era la realidad aumentada”. A pesar de ello, ya se hacían aplicaciones que incorporaban esta tecnología. “Por ejemplo, Google sacó un juego basado en la geolocalización en el que había que triangular por posiciones”, recuerda el técnico.

No es la primera vez que la multinacional estadounidense experimenta con realidad aumentada. En junio de 2012 lanzaron las Google Glass, unas gafas que a pesar de su repercusión mediática terminaron cayendo en el olvido. Cinco años después, han vuelto a salir a la venta pero esta vez orientadas al público empresarial.

Además, Google intentó fomentar el desarrollo de aplicaciones de realidad aumentada con Project Tango. A pesar de llegar más tarde, todo cambió con la llegada de Apple a este tipo de tecnología. “El reconocimiento de objetos 3D no lo hacían muy bien y lo que han mejorado es precisamente eso”, aclara el informático de ARSoft.

La respuesta de Google ha sido ARCore, una herramienta para desarrolladores que mejora a Tango e incorpora muchas de las funciones descubiertas por Apple. Pero, ¿hay diferencias? Para Santiago González, una de las cosas que facilita con respecto a ARKit es la capacidad de situar elementos virtuales mediante geoposicionamiento. “Es decir, basándonos no solo en un reconocimiento, sino en una localización GPS”, expresa.

El problema de Google es que, al contrario que ocurre en Apple, la fragmentación de dispositivos es mucho mayor. Esto sería un hándicap para la compañía, porque según Fernández “los modelos de Android son muchos y los fabricantes son varios, con lo cual los sensores son diferentes”. Por el contrario, la empresa de la manzana mordida no tendría ese problema: “lo puede aplicar a todos los dispositivos que tengan versión iOS 11, porque ya es un entorno más controlado y los sensores son de los mismos ingenieros”, dice el informático.

El inconveniente es que la realidad aumentada requiere de un hardware a la altura que no todos los dispositivos disponen. Nuevamente, el principal afectado por las limitaciones es Android.

“En los móviles más antiguos no va a funcionar, pero a medida que la gente vaya adquiriendo nuevos dispositivos quedará todo integrado”, indica Fernández. Apple tiene el procesador A11, pero en Android todo varía según el fabricante y el modelo del móvil. Además, la empresa de Tim Cook cuenta con Metal, un software gráfico que, según el programador, “permite un cierto realismo a la hora de ver cómo las luces reflejan los materiales”.

¿Qué tipo de aplicaciones se pueden hacer?

Desde que la empresa fundada por Steve Jobs presentó ARKit en junio, Internet se ha llenado de pequeñas demostraciones de esta tecnología. Una mascota virtual, muebles de Ikea que se integran en nuestra casa, o incluso un coche que podemos ver y personalizar sin necesidad de pisar un concesionario. A pesar de ello, todavía existen dudas sobre qué tónica deberían seguir las aplicaciones de realidad aumentada.

Jordi Cuscó y Aitor Fernández lo tienen claro: “Debe ir en la línea de lo más funcional posible. Los temas anecdóticos funcionan para alguna promoción, pero no para perdurar en el tiempo”. Los miembros de Paradigma Studio creen que servirá para aportar “mucha información de carácter visual”, que puede resultar útil para facilitar la toma de decisiones. Los ingenieros ponen como ejemplo el menú de un restaurante en el que desconocemos cómo serán los platos. “Con esta herramienta podrás tener una imagen en 3D para que conozcas exactamente lo que va a contener”, explican.

También se puede caer en el error de desarrollar aplicaciones donde, como apunta Fernández, “la experiencia se vea limitada por la mecánica de juego”. Es el caso de algunas apps diseñadas para, por ejemplo, jugar al tres en raya. El ingeniero afirma que “lo importante es saber encajar bien esta tecnología”. Sostiene además que “es responsabilidad del desarrollador y no de la tecnología el hecho de crear algo que aporte a la sociedad”.

La manera en la que la realidad aumentada impactará en nuestras vidas está todavía por determinar, pero ya existen indicios de cómo podría desarrollarse. González piensa que “al principio será más habitual en empresas y poco a poco irá llegando al ciudadano de a pie”. Además, opina que en un futuro “quizá apuntes a la nevera y te enseñe como cambiar el filtro; o apuntes al horno y te enseñe cómo hacer algo”.

Por otro lado, en Paradigma Studio explican que “no hará falta tener un televisor de 60 pulgadas en casa, porque podrás ajustar una pantalla plana en tu pared y lo tendrás todo integrado”. Añaden que se trataría de mezclar elementos físicos y cotidianos con “todo el soporte de las bases de datos y la gestión del mundo digital”.

Como asegura Fernández, “ahora estamos en una fase donde todo está muy verde”. A pesar de esto, ya se pueden comprobar algunas características que hasta no hace demasiado solo aparecían en películas de ciencia ficción. Pokémon GO fue el comienzo de algo que, en los próximos años, no solo pertenecerá al guion de una serie distópica.

Etiquetas
stats