Red de conocimiento informático - Material del sitio web - Cómo agregar texto junto al reconocimiento AR

Cómo agregar texto junto al reconocimiento AR

¿Cómo implementan los teléfonos inteligentes la tecnología AR? ¿Qué teléfonos móviles tienen funciones AR? Es posible que algunas personas no estén familiarizadas con la tecnología AR en sí, pero la tecnología AR se ha integrado en nuestras vidas. Creo que los usuarios que utilizan Baidu Maps con frecuencia han descubierto que se ha agregado al mapa navegación AR en la vida real. Después de la activación, la cámara trasera se puede utilizar para indicar la ruta en la escena en tiempo real. Para la mayoría de los adictos a la carretera, se puede decir que es una herramienta esencial para ahorrar niveles. Por supuesto, también está el popular juego Pokémon Go y las actividades sobre el sobre rojo durante el Festival de Primavera. Se puede decir que la tecnología AR ha logrado grandes avances en entretenimiento y herramientas prácticas.

Si estos ejemplos no son suficientes para despertar tu interés, entonces las gafas de películas de ciencia ficción que pueden mostrar información externa en tiempo real definitivamente llamarán tu atención, y la mayoría de estas funciones son aplicaciones de la tecnología AR. El nombre completo de AR es Augmented Reality, que significa realidad aumentada. En pocas palabras, consiste en aplicar información virtual al mundo real a través de tecnología informática y superponer el entorno real y los objetos virtuales en la misma imagen o espacio en tiempo real. No existen gafas AR como las de la película, pero ha surgido un prototipo de ellas, y es Google Project Glass.

La lente Google Project Glass está equipada con una micropantalla montada en la cabeza que puede proyectar datos en una pequeña pantalla encima del ojo derecho del usuario. El efecto de visualización es como una pantalla de alta definición 2,4 de 25 pulgadas. metros de distancia. La distancia y la dirección se pueden mostrar en la pantalla según los sonidos ambientales, y la información del mapa y de navegación se puede mostrar por separado en los dos oculares. Cuando un usuario mira un edificio o punto de referencia, la información sobre el edificio o punto de referencia aparece inmediatamente en la lente. Google Glass también ayudará a los usuarios a encontrar amigos a su alrededor. Aunque la primera generación de Google Glass no ha sido ampliamente promocionada por varias razones, nos muestra las amplias perspectivas de la RA.

La tecnología AR suena simple, pero su contenido técnico es mucho más de lo que vemos en la superficie. Una arquitectura típica de un sistema AR consta de una unidad de generación de escenas virtuales, una pantalla de transmisión en el casco, un dispositivo de seguimiento de la cabeza y un dispositivo interactivo. La unidad de generación de escenas virtuales es responsable del modelado, gestión y renderizado de escenas virtuales, y gestiona otros dispositivos periféricos. La pantalla de transmisión del casco es responsable de mostrar señales después de la integración de la realidad virtual y la realidad; el dispositivo de seguimiento de la cabeza rastrea los cambios en la línea de visión del usuario; el dispositivo interactivo se utiliza para realizar la entrada y salida de señales de detección y señales de operación de control ambiental;

La pantalla transmisiva montada en el casco recopila vídeos o imágenes de escenas reales y los transmite a la unidad de procesamiento en segundo plano para su análisis y reconstrucción. Combina los datos del dispositivo de seguimiento de la cabeza para analizar las posiciones relativas de lo virtual. escena y escena real, y realiza la coordinación del sistema de coordenadas y realiza cálculos de fusión de escenas virtuales, el dispositivo interactivo recopila señales de control externas para realizar operaciones interactivas entre escenas virtuales y escenas reales. La información una vez integrado el sistema se mostrará en la pantalla del casco en tiempo real y en el campo de visión de las personas.

El teléfono móvil AR integra todo el sistema AR en un teléfono móvil. La cámara es responsable de recopilar imágenes y la unidad de procesamiento realiza análisis y reconstrucción para lograr la alineación del sistema de coordenadas y el cálculo de la fusión de escenas virtuales. La interacción también se logra mediante la interacción entre personas y teléfonos móviles, y las imágenes procesadas se mostrarán en la pantalla del teléfono móvil, logrando así un efecto de realidad aumentada.

En la reciente conferencia WWDC 2017, Apple anunció que traería un nuevo componente de realidad aumentada, ARKit, a iOS 11, que se conoce como el paso más sólido de Apple en el campo de la RA. Poco después, surgieron muchas noticias relacionadas con ARKit. Se informa que actualmente la distancia se puede medir a través de la función AR del iPhone y los datos son bastante precisos. La comparación entre AR y los gobernantes en la realidad ilustra este punto. Se puede observar que la medida AR es completamente consistente con la medida de la regla. El usuario de YouTube Matthew Hallberg utilizó ARKit de Apple para crear una versión AR de la demostración de "My World". En la versión AR de "Minecraft", los jugadores pueden utilizar la tecnología AR para superponer su propio mundo al mundo real.

Antes del ARKit de Apple, el Proyecto Tango de Google ya se había desarrollado significativamente. Project Tango es un proyecto de realidad aumentada para teléfonos inteligentes tras el fracaso del proyecto Google Glass. A través de una serie de cámaras, sensores y chips, puede simular el entorno que rodea al usuario en tiempo real y, a través de la pantalla del teléfono móvil, puede presentar objetos virtuales en el entorno real.

Un modelo típico es el ASUS Zenfone AR, que se lanzó recientemente en la provincia de Taiwán.

ZenFone AR es el segundo teléfono Tango después del Lenovo Phab 2 Pro y el primer teléfono inteligente compatible con VR y AR. Para implementar la tecnología Tango en Zenfone AR, Asus diseñó especialmente un sistema de tres lentes, que incluye una lente de seguimiento dinámico que puede rastrear al usuario, una lente con sensor de profundidad que puede medir su entorno y, finalmente, una cámara principal de 23 megapíxeles que captura la Entorno real. Puede registrar y dibujar con precisión información espacial tridimensional, combinando perfectamente virtualidad y realidad.

Por supuesto, existen diferencias entre Apple ARKit y Google Project Tango.

El teléfono Tango de Google se basa en una pila de hardware para cumplir con los requisitos de la tecnología AR: seguimiento de movimiento, percepción de profundidad y aprendizaje de área. El teléfono Tango requiere una lente ojo de pez y un sensor de infrarrojos, que es equivalente a la lente de seguimiento dinámico que acaba de mencionar Zenfone AR para rastrear al usuario y la lente de detección de profundidad para medir el entorno que lo rodea. Después de la captura de movimiento y la percepción de profundidad, se requiere una mayor integración de los datos. Una vez que el teléfono Tango detecte que hay puntos en esta escena que coinciden con la profundidad y los puntos característicos de la escena anterior, las dos escenas se fusionarán. Finalmente, después de un período de aprendizaje, el teléfono Tango recordará todas las escenas nuevas para formar un conjunto completo de espacios. Este es el aprendizaje regional.

Apple ARKit se implementa a través de una única cámara. ARKit utiliza una tecnología llamada "odometría visual-inercial" para combinar datos de los sensores de movimiento de dispositivos iOS como iPhone/iPad con la escena visible para la cámara del dispositivo, de modo que ARKit pueda identificar características en la imagen de la escena y realizar un seguimiento de los cambios en estas. funciones de la cámara a medida que el usuario mueve el dispositivo. En lugar de crear un modelo 3D en el espacio, esta tecnología "fija" un objeto en un punto determinado, cambiando sus proporciones y perspectiva en la realidad.

Así que las ventajas y desventajas de las dos opciones también son obvias. Google Project Tango puede obtener información ambiental más completa, pero la desventaja es que requiere un soporte de hardware más complejo. Apple ARKit se puede implementar agregando un sensor de movimiento a una sola cámara, pero no puede lograr la percepción de profundidad, por lo que no se puede usar en Escenas y funciones complejas.

La mayoría de las funciones AR a las que estamos expuestos ahora se basan en principios similares al ARKit de Apple, sin percepción de profundidad. Tome la navegación Baidu Map AR mencionada por el autor al principio de este artículo. Después de abrirlo en el interior, todavía hay una indicación de dirección (la posición no coincide con la posición de posicionamiento en este momento, por lo que el autor especula que sí). no se basa en la navegación de cálculo de escenas reales, sino en la navegación de datos de mapas con escenas en tiempo real. Como no he estado expuesto a otras aplicaciones de AR, no quiero comentar aquí, pero creo que la mayoría de las personas entran en contacto con AR a través de una simple superposición de imágenes.

Desde que la tecnología Google Tango apareció relativamente pronto, se han desarrollado muchas aplicaciones y juegos basados ​​en Tango. Por ejemplo, AR se puede utilizar para probarse ropa. GAP lanzó una aplicación en la conferencia CES en Las Vegas que permite a los usuarios probarse ropa en una experiencia de realidad aumentada. La aplicación superpondrá imágenes virtuales sobre el mundo real y los usuarios pueden mover su avatar para ver el efecto de su vestimenta desde diferentes ángulos.

Otra práctica es la de ir de compras, sobre todo cuando se trata de decoración del hogar. Los usuarios pueden seleccionar productos para el hogar virtual en el lugar, ver un efecto de visualización 1:1 en el espacio real en sus teléfonos móviles y pueden mover y rotar los productos para que se ajusten automáticamente a la escena. Cuando hay varios productos, las posiciones relativas entre ellos se mantendrán y el efecto de la experiencia real es muy real.

Por supuesto, las aplicaciones de la tecnología AR de teléfonos móviles no se limitan a esto. El desarrollo de AR en el futuro será obviamente más práctico y entretenido, y con el desarrollo y mejora de la tecnología AR, habrá avances considerables en la experiencia del usuario.

¿Cómo implementan los smartphones la tecnología AR? ¿Qué teléfonos móviles tienen funciones AR? Es posible que algunas personas no estén familiarizadas con la tecnología AR en sí, pero la tecnología AR se ha integrado en nuestras vidas. Creo que los usuarios que usan Baidu Maps con frecuencia han descubierto que se ha agregado al mapa navegación AR en la vida real. Después de la activación, la cámara trasera se puede utilizar para indicar la ruta en la escena en tiempo real. Para la mayoría de los adictos a la carretera, se puede decir que es una herramienta esencial para ahorrar niveles.

Por supuesto, también está el popular juego Pokémon Go y las actividades sobre el sobre rojo durante el Festival de Primavera. Se puede decir que la tecnología AR ha logrado grandes avances en entretenimiento y herramientas prácticas.

Si estos ejemplos no son suficientes para despertar tu interés, entonces las gafas de películas de ciencia ficción que pueden mostrar información externa en tiempo real definitivamente llamarán tu atención, y la mayoría de estas funciones son aplicaciones de la tecnología AR. El nombre completo de AR es Augmented Reality, que significa realidad aumentada. En pocas palabras, consiste en aplicar información virtual al mundo real a través de tecnología informática y superponer el entorno real y los objetos virtuales en la misma imagen o espacio en tiempo real. No existen gafas AR como las de la película, pero ha surgido un prototipo de ellas, y es Google Project Glass.

La lente Google Project Glass está equipada con una micropantalla montada en la cabeza que puede proyectar datos en una pequeña pantalla encima del ojo derecho del usuario. El efecto de visualización es como una pantalla de alta definición 2,4 de 25 pulgadas. metros de distancia. La distancia y la dirección se pueden mostrar en la pantalla según los sonidos ambientales, y la información del mapa y de navegación se puede mostrar por separado en los dos oculares. Cuando un usuario mira un edificio o punto de referencia, la información sobre el edificio o punto de referencia aparece inmediatamente en la lente. Google Glass también ayudará a los usuarios a encontrar amigos a su alrededor. Aunque la primera generación de Google Glass aún no ha sido ampliamente promocionada por varias razones, nos muestra las amplias perspectivas de la RA.