Realidad aumentada en Android

Realidad aumentada en Android

¡El futuro ya ha llegado!, es hora de empezar a aplicar la tecnología que revolucionará el mundo de las aplicaciones móviles. Estamos hablando nada más y nada menos que de la realidad aumentada.

Si quieres saber más sobre esta tecnología y conocer las últimas novedades, sigue leyendo porque lo que viene a continuación no te va defraudar.

Introducción

Posiblemente hayas visto en los últimos años aplicaciones de éxito que utilizan realidad aumentada para mejorar la experiencia de usuario y al mismo tiempo diferenciarse del resto de alternativas en el mercado.

Quizá el caso más conocido sea el juego Pokemon Go, pero existen otras aplicaciones utilizadas por grandes empresas que permiten a sus operarios en un almacén recorrer el menor camino posible para alcanzar una determinada mercancía, por ejemplo.

También existen APPs de fabricantes y distribuidores de complementos de ropa o muebles, que nos permiten visualizar cómo nos queda un determinado look, o el espacio que ocuparía un mueble en nuestro salón.

Historia

A mediados del 2017 tuvo lugar la conferencia anual Google I/O, en la que se presentó ARCore, que pretendía ser la alternativa a ARKit para dispositivos Android. Por aquel entonces, esta tecnología se encontraba en fase beta, y tan solo estaba disponible para teléfonos Pixel.

En el MWC celebrado en 2018, se presenta oficialmente la versión 1.0.0 de ARCore, que sentaría las bases de la tecnología de realidad aumentada que disfrutamos hoy en día en el ecosistema de Google.

No todos los dispositivos soportan ARCore; esto se debe a que Google debe soportar la integración dispositivo a dispositivo llegando a un acuerdo con el fabricante para la calibración de los sensores, lo que ralentiza el despliegue.

Aquí os dejamos una lista con los dispositivos soportados actualmente ?.

En los últimos meses, estamos viendo como Google apuesta por la realidad aumentada dentro de sus aplicaciones. Lo hemos visto en Google Maps o en Google Lens, pero también hay una función de este tipo dentro del propio buscador. Podemos introducir el nombre de un animal (por ejemplo perro, caballo o tigre entre otros), y se nos dará la posibilidad de visualizar un modelo tridimensional del animal en cuestión.

ARCore

Como hemos visto, ARCore nos permite situar un modelo 3D en una posición que se corresponde con el mundo físico.

Además dispone de otras funcionalidades como:

  • Y recién salido del horno también disponemos de Depth API:

En el imagen superior podemos comparar una escena sin utilizar el API de profundidad (izquierda), y la misma escena utilizando Depth API (derecha)

Depth API es una mejora lanzada en Junio de este año (2020), y que nos permite obtener la profundidad de una escena, e integrar de forma más realista los elementos virtuales.

Limitaciones

La principal limitación de ARCore y sus elementos virtuales es su persistencia, y es que si queremos que los elementos se compartan entre diferentes dispositivos deberemos utilizar Google Cloud Anchors, que no es más que un framework que nos permite alojar los anclajes en la nube para que puedan ser compartidos.

La principal limitación de Cloud Anchors es que sólo podrán ser resueltos durante las 24 horas posteriores a su alojamiento. Una vez pasado ese tiempo, los anclajes alojados serán eliminados del servidor y no podremos volver a recuperarlos.

En este momento (Julio 2020), Google está desarrollando una versión persistente para salvar esta limitación. Cita extraída de su web:

Nota: Actualmente estamos desarrollando Cloud Anchors persistentes, que se pueden resolver durante más tiempo. Antes de hacer que la función esté ampliamente disponible, buscamos más desarrolladores que nos ayuden a explorar y probar Cloud Anchors persistentes en aplicaciones del mundo real.

Show me the code!

En este enlace a GitHub os hemos preparado un ejemplo de apenas 50 líneas de código, en el cual podemos ejecutar una aplicación muy simple programada en Kotlin, con la cual debemos escanear el entorno, de forma que ARCore identifique los puntos clave y sepa situar un modelo 3D.

Una vez que detecta un plano, nos habilita esa parte del mundo físico para que podamos situar un anclaje en él tocando la parte habilitada en pantalla. Hay que tener en cuenta que el modelo 3D se carga de red, por lo que puede tomar un par de segundos en mostrarse.

Una vez cargado, podremos visualizar un simpático animal (?) y movernos a su alrededor.

Además, este modelo es sensible a cambios de luminosidad, y proyecta la sombra hacia el lugar adecuado en función de donde reciba la fuente de luz, al igual que lo haría si fuese un objeto físico real.

Esperamos que os guste y que os familiaricéis con este paradigma que ya es tendencia, y seguro que seguirá creciendo más en los próximos años.

¡Ah! Estad atentos porque pronto anunciaremos novedades ?.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

« »