La nueva realidad (aumentada)

Las aplicaciones basadas la tecnología conocida como RA llegan a los smartphones. Cómo cambiarán la forma en que interactuamos con el mundo. 08 de Septiembre 2011
La nueva realidad (aumentada)

Imagine que está de vacaciones en México. Una playa soleada se ve perfecta para nadar, pero hay un llamativo cartel en la arena y usted no sabe el suficiente español como para leerlo.

Saca el iPhone de su bolsillo y apunta la cámara al cartel. Cuando lo ve en la pantalla, hay una diferencia: en inglés, el cartel advierte: “Playa cerrada, reciente ataque de tiburón”. 

Ese es el poder de Word Lens, una aplicación de iPhone que identifica textos en español en la vista en vivo capturada por la cámara del teléfono y que traduce las palabras en una fracción de segundo, reemplazando las originales en el mismo color, tamaño y orientación: el texto traducido realmente parece estar en frente de usted, como si el cartel estuviera impreso en inglés (la aplicación también puede traducir de inglés a español).

También hace su magia sobre carteles, diarios, menús de restaurantes y páginas web, dándoles a los usuarios un sentido de familiaridad con el territorio que no está disponible para los turistas equipados sólo con una guía.  Word Lens es el ejemplo disponible comercialmente más impresionante del gran potencial de la realidad aumentada —aplicaciones de software que trabajan sobre imágenes generadas por computadora que representan el mundo real—.

La realidad aumentada (RA, en su abreviación) se transformó en un tópico caliente hace dos años, cuando los videos de las demos inundaron Internet con ejemplos de juegos, compras virtuales y motores de búsqueda que insertaban información digital en imágenes en vivo o fotos. 

Pero ahora la RA está preparada para convertirse en más que un ingenioso modo de entretenimiento. Gracias a la nueva ola de smartphones más poderosos y que pueden detectar la ubicación, cambiará profundamente la manera en que interactuamos con lo que nos rodea.  


La varita mágica
El rango de aplicaciones va más allá de traducciones de palabras. Las aplicaciones de Google pueden reconocer productos o hitos —por ejemplo, el santuario Itsukushima en Japón— e instantáneamente mostrar la información que Google tiene compilada sobre ellos.

La aplicación del Netherlands Architecture Institute recurre a archivos de imágenes para mostrar edificios no como están ahora sino como solían ser. Metaio está desarrollando una aplicación de reparación de impresoras que puede guiar a un trabajador de oficina que no sabe demasiado de tecnología en diagnosticar y arreglar una máquina. 

Este tipo de aplicaciones de guía de mantenimiento era la visión original de realidad aumentada, que fue nombrada en 1992 por Thomas Caudell, entonces investigador de la empresa Boeing. El software que inserta instrucciones relevantes en una imagen en tiempo real vista en un display se aplica para todo: desde juegos hasta imágenes de medicina y guías del mundo real, como Word Lens. 

Con las mejores aplicaciones, “el teléfono no es sólo una ventana, es una varita mágica”, señala Christopher Stapleton, investigador en la Universidad de Florida Central, que pasó más de una década en el desarrollo de aplicaciones de RA, incluyendo simuladores para operaciones militares en zonas de combate urbano. Esas aplicaciones, sin embargo, requerían equipamiento especial para lograr lo que ahora es posible en los teléfonos. 

Las posibilidades están tomando forma por seis razones. Primero, los CPUs de los teléfonos —las unidades centrales de procesamiento que hacen la mayor parte del trabajo de computación— recientemente llegaron al umbral de 1 Gigahertz. Eso no está lejos de lo que está disponible en muchas laptops pequeñas; algunos de los chips Atom de Intel para netbooks están cerca de 1,5 Gigahertz.

En segundo lugar, los smartphones top también tienen unidades de procesamiento gráfica (GPU) pensadas para juegos y para mirar YouTube. En tercer término, las cámaras de los teléfonos ahora son lo suficientemente sofisticadas para alimentar de abundantes datos crudos acerca de su entorno en algoritmos de visión de computadora. Cuarto, la resolución de las pantallas de los aparatos móviles ha avanzado de granulosa a súper pulido.

Por último, las redes de datos inalámbricas son cada vez más rápidas y están más extendidas. Y lo más importante de todo: los smartphones tiene acelerómetros, giroscopios y brújulas que detectan su ubicación y orientación. Eso significa que la aplicación de RA puede decir dónde está parado y en qué dirección está apuntando su cámara. La detección de la locación se realiza o a través de un GPS o escaneando las redes locales de Wi-Fi y cruzándolas con la lista de nombres de una base de datos. 

Word Lens, en su forma actual, no usa ni detección de ubicación ni conexión de red. Pero presiona los límites de la computación de mano, dado que el reconocimiento óptico de los caracteres —un truco que se realiza en tiempo real— fue diseñado para la tarea menos desafiante de leer documentos de papel escaneados. 

“Tenemos que poder diferenciar una palabra de un árbol o una cara”, afirma Otávio Good, el desarrollador de la aplicación. “Para hacer eso, corremos la imagen a través de un filtro para eliminar sombras. El texto es anguloso, así que remueve todo lo que no lo sea. Hacemos la imagen blanca y negra, para ayudar a descubrir dónde están las letras. Sin embargo, estas son manchas que podrían o no ser letras. Quizá eso es un árbol y una casa, no una A o una V”, explica.

Una vez que Word Lens identificó las letras, calcula su rotación y la perspectiva desde las que se las está mirando. Luego, trata de reconocer cada letra consultando a una biblioteca de referencia.  “En ese punto, tenemos una cinta de letras”, revela Good. “Pero no estamos seguros de cuál es cada una. Hacemos una búsqueda de diccionario de esta cuerda de letras probabilísticas a lo que más se ajusta”, completa.

Si hay una equivalencia, la maniobra final de Word Lens es “repintar” el cartel. “Borramos el original y usamos la orientación, el primer plano y el color de fondo existentes, que podría ser un gradiente (en lugar de un color constante) para poner el texto nuevo arriba”, dice Good. “Esa es una operación de computación gráfica bastante directa. Es como usar Photoshop.” 

Word Lens en iPhone 4 puede redibujar español al inglés, o viceversa, hasta 10 veces por segundo mientras uno mueve su teléfono. Sólo espere hasta que Good pueda experimentar con el iPhone 5 o un nuevo teléfono Android con CPU dual-core y chips de gráficos más poderosos. Cuando éstos lleguen al mercado el año que viene, espere incluso una versión que le dé vuelta la cabeza más que Word Lens.

Será capaz de reconocer más fuentes y más lenguajes, y no tendrá problema con carteles oxidados. Good también espera reducir cualquier parpadeo visible en la aplicación. “El foto-realismo lo hace mucho más efectivo”, advierte.  


¿Realidad o milagro?
Esa es la prueba para la RA: ¿se puede olvidar uno que está mirando la pantalla de una computadora? Para llegar a ese punto, muchas aplicaciones necesitarán “inputs” más precisos de los que son posibles en los teléfonos de hoy.

“El GPS en un teléfono es certero hasta unos pocos metros”, apunta Bruce Thomas, que dirige un laboratorio de computación en indumentaria en la Universidad de Australia Sur. El investigador construye sistemas que requieren mochilas y auriculares para ofrecer realidad aumentada apropiada para entrenamiento militar, o para caminar pacíficamente alrededor de un desarrollo suburbano propuesto para ver cómo se verá cuando esté construido.

“Estamos usando sensores de U$S 3.000 que pueden localizar con exactitud su ubicación hasta el ancho de su cabeza, y la inclinación de la cabeza hasta cinco grados”, comenta. Esa precisión aumentada le permite al sistema de Thomas revestir de edificios imaginarios su visión, mientras mueve la cabeza. Esta creación de software y hardware cuesta unos U$S 30.000.

Pero no es poco realista pensar que esta detección de localización tan precisa podría ser posible también en aparatos de mano. Ya, de hecho, la resolución de las pantallas de los teléfonos ha saltado por encima de la resolución de los aparatos de cabeza de Thomas.

Sí, la realidad aumentada llegará al potencial de las masas, sin embargo, las aplicaciones necesitan ser más fáciles de construir. Un proyecto de Georgia Tech está trabajando en una plataforma técnica abierta para contenido móvil de RA. Otros están abocados en establecer plataformas propietarias; el fabricante de software Layar, por ejemplo, construye herramientas que ayudan a otras compañías a crear aplicaciones.

Si desarrollar aplicaciones es lo suficientemente fácil, el desafío para sus creadores no será técnico, sostiene Gene Becker, estratega de Layar. Será crear “una experiencia que las personas querrán tener en lugar de chequear Twitter”.  Como la navegación de GPS, que en retrospectiva parece equivalente a una proto-RA, las mejores tecnologías de realidad aumentada serán aquellas que hagan que lo milagroso parezca mundano.

Visualizar una aplicación que lo guía al estante correcto de un supermercado, lo ayuda a cambiar una goma pinchada o le recuerda quiénes son las otras personas en la habitación. Una vez que exista, probablemente no querrá vivir sin esta tecnología.



¿Te gustó la nota?

Comparte tus comentarios

Sé el primero en comentar