Cómo agregar texto junto a las imágenes de reconocimiento AR
¿Cómo implementar la tecnología AR en smartphones? ¿Qué teléfonos tienen capacidades AR? Hablando únicamente de la tecnología AR, es posible que algunas personas no estén familiarizadas con ella, pero la tecnología AR se ha integrado en nuestras vidas. Creo que los usuarios que usan Baidu Maps con frecuencia encontrarán que se ha agregado navegación AR en la vida real al mapa. Después de abrirlo, pueden señalar la ruta en la escena en tiempo real a través de la cámara trasera. se puede decir que es una herramienta esencial para construir una computadora. Por supuesto, también están los juegos populares más conocidos "Pokemon Go" y las actividades de caza del sobre rojo AR durante el Festival de Primavera. Se puede decir que la tecnología AR ha logrado grandes avances en el entretenimiento y las herramientas prácticas.
Si estos ejemplos no son suficientes para despertar su interés, entonces las gafas que pueden mostrar información externa en tiempo real en películas de ciencia ficción definitivamente llamarán su atención. La mayoría de estas funciones son aplicaciones de la tecnología AR. En pocas palabras, consiste en aplicar información virtual al mundo real a través de tecnología informática y superponer el entorno real y los objetos virtuales en la misma imagen o espacio en tiempo real al mismo tiempo. No existen gafas AR como las de la película, pero ha aparecido un prototipo, y es el proyecto Google Glass de Google.
Las lentes del proyecto Google Glass están equipadas con una micropantalla montada en la cabeza que puede proyectar datos en una pequeña pantalla encima del ojo derecho del usuario. El efecto de visualización es como una alta definición de 25 pulgadas. vídeo desde 2,4 metros de distancia. Muestra la distancia y la dirección en la pantalla según el sonido ambiental, y muestra información de mapa y navegación en los dos oculares respectivamente. Cuando el usuario mira fijamente un edificio o un punto de referencia, la información sobre el edificio o punto de referencia aparecerá instantáneamente en la lente. . Google Glass también puede ayudar a los usuarios a encontrar amigos a su alrededor. Aunque la primera generación de Google Glass no fue ampliamente promocionada por varias razones, nos permitió ver las amplias perspectivas de la RA.
La tecnología AR suena simple, pero sus secretos son mucho más que eso. Una estructura típica de un sistema AR consta de una unidad de generación de escenas virtuales, una pantalla de casco transmisiva, un dispositivo de seguimiento de la cabeza y un dispositivo interactivo. La unidad de generación de escenas virtuales es responsable del modelado, gestión, representación y gestión de otros periféricos de la escena virtual; la pantalla del casco transmisivo es responsable de mostrar señales después de que la realidad virtual y el dispositivo de seguimiento de la cabeza se utilizan para rastrear los cambios; en la línea de visión del usuario; el dispositivo interactivo se utiliza para realizar la entrada y salida de señales sensoriales y señales de operación de control ambiental.
La pantalla transmisiva montada en el casco recopila vídeos o imágenes de escenas reales, los transmite a la unidad de procesamiento en segundo plano para su análisis y reconstrucción, y combina los datos del dispositivo de seguimiento de la cabeza para analizar las posiciones relativas de lo virtual. escena y escena real para lograr alinear el sistema de coordenadas y realizar cálculos de fusión de la escena virtual; el dispositivo interactivo recopila señales de control externas para realizar operaciones interactivas que combinan escenas virtuales y reales. La información después de la fusión del sistema se mostrará en la pantalla del casco en tiempo real y se presentará en el campo de visión humano.
El teléfono móvil AR integra todo el sistema AR en el teléfono móvil. La cámara es responsable de recopilar imágenes y la unidad de procesamiento analiza y reconstruye las imágenes, realiza la alineación del sistema de coordenadas y realiza cálculos de fusión. en la escena virtual Al mismo tiempo, a través de la interacción entre personas y teléfonos móviles se realiza la interacción, y las imágenes procesadas se muestran en la pantalla del teléfono móvil, logrando así el efecto de realidad aumentada.
En la reciente conferencia WWDC 2017, Apple anunció que traería un nuevo componente de realidad aumentada, ARKit, a iOS 11. Este movimiento fue considerado el paso más sólido de Apple en el campo de AR. Poco después, también surgieron una tras otra noticias y rumores relacionados con ARKit. Se informa que la distancia se puede medir a través de la función AR del iPhone, y los datos son bastante precisos. Esto se ilustra al comparar AR y la regla. Se puede ver que la distancia medida por AR y la regla. La distancia medida por la regla es exactamente la misma. El usuario de YouTube Matthew Hallberg incluso usó Apple ARKit para hacer una demostración de la versión AR de "Minecraft". En la versión AR de "Minecraft", los jugadores pueden usar la tecnología AR para superponer su propio mundo al mundo real.
Antes del ARKit de Apple, el Proyecto Tango de Google tuvo un mayor desarrollo. Project Tango es un proyecto de realidad aumentada para teléfonos inteligentes lanzado por Google tras el fracaso del proyecto Google Glass. A través de una serie de cámaras, sensores y chips, puede realizar modelados 3D del entorno que rodea al usuario en tiempo real y presentar objetos virtuales. realidad a través del entorno de la pantalla del teléfono móvil. ASUS Zenfone AR, que se lanzó recientemente en Taiwán, es un modelo típico.
ZenFone AR es el segundo teléfono Tango después del Lenovo Phab 2 Pro y el primer teléfono inteligente compatible con VR y AR. Para implementar la tecnología Tango en Zenfone AR, ASUS diseñó un sistema de tres lentes específicamente para él, incluida una lente de seguimiento dinámico que puede rastrear al usuario, una lente con sensor de profundidad que puede medir el entorno circundante y una cámara que puede capturar el entorno del mundo real. Cámara principal de 23 megapíxeles. Puede registrar y mapear con precisión información espacial tridimensional, logrando la combinación perfecta de virtualidad y realidad.
Por supuesto, existen diferencias entre ARKit de Apple y Project Tango de Google.
El teléfono Tango de Google se basa en una gran cantidad de hardware para cumplir con los requisitos de la tecnología AR: seguimiento dinámico, percepción de profundidad y aprendizaje de área.
El teléfono Tango requiere una lente ojo de pez y un sensor de infrarrojos que, al igual que la lente de seguimiento dinámico del Zenfone AR, se usa para rastrear al usuario, mientras que la lente de detección de profundidad se usa para medir el entorno a su alrededor. . Después de la captura dinámica y la detección de profundidad, se requiere una mayor integración de datos. Una vez que el teléfono Tango detecta un punto en la escena que coincide con el punto de profundidad y el punto característico de una escena anterior, combinará las dos escenas y, finalmente, después de un período de tiempo. Durante el aprendizaje, todas las escenas nuevas serán recordadas por el teléfono móvil de Tango y formarán un conjunto completo de espacios. Este es el aprendizaje regional.
Por otro lado, ARKit de Apple es una implementación de una sola cámara que utiliza una tecnología llamada odometría visual-inercial para combinar datos del sensor de movimiento de dispositivos iOS como iPhone/iPad con la cámara del dispositivo. con las escenas visibles arriba. Al combinar datos de los sensores de movimiento de dispositivos iOS como iPhone/iPad con la escena visible en la cámara del dispositivo, ARKit puede identificar características en la imagen de la escena y rastrear cambios en la posición de la cámara de esas características a medida que el usuario mueve el dispositivo. . En lugar de crear un modelo 3D en el espacio, esta tecnología "fija" un objeto en un punto, cambiando así sus proporciones y perspectiva en la realidad.
Por lo tanto, las ventajas y desventajas de las dos soluciones también son obvias. Google Project Tango puede obtener información ambiental más completa, pero la desventaja es que requiere un soporte de hardware más complejo con una sola cámara ARKit de Apple; El sensor puede lograr esto, pero no se puede lograr la percepción de profundidad, por lo que no se puede utilizar en escenas y funciones complejas.
La mayoría de las funciones AR a las que estamos expuestos ahora son similares en principio al ARKit de Apple y no pueden lograr una percepción de profundidad. Tome la navegación Baidu Map AR mencionada por el autor al comienzo del artículo. Después de abrirlo en el interior, todavía hay una indicación de dirección (la posición no coincide con la posición de posicionamiento en este momento, el autor especula que). No se basa en la escena real para el cálculo de la navegación, sino en la navegación de datos y la superposición de escenas en tiempo real. Como no he estado expuesto a otras aplicaciones de AR, no haré comentarios aquí, pero creo que la forma en que la mayoría de la gente entra en contacto con AR ahora es mediante la simple superposición de imágenes.
Desde la introducción temprana de la tecnología Google Tango, se han desarrollado muchas aplicaciones y juegos basados en Tango.
Por ejemplo, puedes probarte ropa usando realidad aumentada. GAP lanzó una aplicación en la conferencia CES en Las Vegas que permite a los usuarios probarse ropa en una experiencia de realidad aumentada que superpone imágenes virtuales al mundo real, a la que los usuarios pueden mover su avatar. Observa la apariencia de la ropa desde diferentes ángulos.
Otra cosa práctica es la compra, sobre todo de muebles para el hogar. Los usuarios pueden seleccionar productos para el hogar virtual en el lugar, ver el efecto de ubicación 1:1 en el espacio real en sus teléfonos móviles y pueden mover y rotar los productos. Los productos se ajustarán automáticamente a la escena y, cuando haya varios productos, se colocarán. estarán vinculados entre sí manteniendo la posición relativa, el efecto de la experiencia real es muy real.
Por supuesto, la aplicación de la tecnología AR en teléfonos móviles no se limita a esto. El desarrollo de AR en el futuro obviamente logrará una mayor practicidad y entretenimiento con el desarrollo y mejora de la tecnología AR. También será mejor. Habrá mayores avances.
¿Cómo implementan los smartphones la tecnología AR? ¿Qué teléfonos tienen capacidades AR? Hablando únicamente de la tecnología AR, algunas personas pueden encontrarla desconocida, pero la tecnología AR se ha integrado en nuestras vidas. Creo que los usuarios que usan Baidu Maps con frecuencia encontrarán que se ha agregado navegación AR en la vida real al mapa. Después de abrirlo, pueden señalar la ruta en la escena en tiempo real a través de la cámara trasera. Para los entusiastas, se puede decir que es imprescindible para construir una herramienta informática. Por supuesto, también están los juegos populares más conocidos "Pokemon Go" y las actividades de caza del sobre rojo AR durante el Festival de Primavera. Se puede decir que la tecnología AR ha logrado grandes avances en el entretenimiento y las herramientas prácticas.
Si estos ejemplos no son suficientes para despertar su interés, entonces las gafas que pueden mostrar información externa en tiempo real en películas de ciencia ficción definitivamente llamarán su atención. La mayoría de estas funciones son aplicaciones de la tecnología AR. En pocas palabras, consiste en aplicar información virtual al mundo real a través de tecnología informática y superponer el entorno real y los objetos virtuales en la misma imagen o espacio en tiempo real al mismo tiempo. No existen gafas AR como las de la película, pero ha aparecido un prototipo, y es el proyecto Google Glass de Google.
Las lentes del proyecto Google Glass están equipadas con una micropantalla montada en la cabeza que puede proyectar datos en una pequeña pantalla encima del ojo derecho del usuario. El efecto de visualización es como una alta definición de 25 pulgadas. vídeo desde 2,4 metros de distancia. Muestra la distancia y la dirección en la pantalla según el sonido ambiental, y muestra información de mapa y navegación en los dos oculares respectivamente. Cuando el usuario mira fijamente un edificio o un punto de referencia, la información sobre el edificio o punto de referencia aparecerá instantáneamente en la lente. . Google Glass también puede ayudar a los usuarios a encontrar amigos a su alrededor. Aunque la primera generación de Google Glass no fue ampliamente promocionada por varias razones, nos permitió ver las amplias perspectivas de la RA.