Código fuente Unity del brazo robótico
En FBEC 2021 "¿Nuestro Metaverso? En la "Cumbre del Metaverso 2021", Dong Yang, director técnico de la plataforma Unity Greater China, pronunció un discurso sobre el tema "Implementación técnica del motor Unity y el metaverso". Desde una perspectiva técnica, Dong Yang compartió el desarrollo de la tecnología del motor e introdujo la dirección de desarrollo de la tecnología Unity desde cuatro perspectivas: aplicación multiplataforma, contenido 3D realista/estilizado, experiencia de red para varias personas y realidad virtual conectada. p>
La siguiente es la transcripción del discurso:
Gracias por escuchar mi discurso. Mi contenido principal de hoy es sobre la implementación técnica del motor Unity y el Metaverso.
Los dos invitados acaban de hablar. Hardware, yo hablé de software, es decir, creación de contenido.
Todo, ya sea Internet o el superuniverso, no aparecerá hasta que alcance un cierto nivel.
Creo que sucederá hoy. La razón por la que podemos discutir el metaverso aquí es que el umbral técnico para la representación en tiempo real de la creación de contenido 3D ha alcanzado un cierto nivel. >En esta imagen (ícono PPT):
1. La tendencia de 2D a 3D es muy obvia y ahora el contenido principal es contenido 3D. Por ejemplo, hace 10 años, comencé a usar contenido relacionado con el motor. productos en 2009. Por supuesto, ahora estoy usando Unity
2. La transición de fuera de línea a tiempo real también es muy obvia. Ahora, muchas aplicaciones que no son juegos han comenzado a usar 3D en tiempo real. 3. De la interacción personal a la interacción social. Los juegos en línea, ya sean antiguos o futuristas, son esencialmente juegos sociales
4.
Como trabajador de motores durante más de diez años, me gustaría hablar sobre el desarrollo de la tecnología de motores desde cuatro aspectos y compartirlo con ustedes desde una perspectiva técnica. hay cuatro puntos:
1. Aplicación multiplataforma
2. Contenido 3D realista y estilizado
3. p>4. Conexión virtual con la realidad.
Las aplicaciones multiplataforma se han utilizado ampliamente en todos los ámbitos de la vida. La experiencia más directa son los juegos, seguidas de las comunidades, el comercio electrónico y las experiencias diversas. La experiencia también puede ser la experiencia de la Industria 4.0 en la fábrica. El uso de métodos AR, VR y MR para diversas capacitaciones e incluso el ensamblaje de piezas en la línea de producción tiene aplicaciones.
Todo el mundo tiene aplicaciones. Impact" puede admitir más plataformas, por lo que el juego puede seguir funcionando. Este es un verdadero juego multiplataforma. Es posible que puedas crear un juego en diferentes plataformas, pero no puedes jugarlo en la misma plataforma sin una cuenta. Un mundo puede experimentar estas cosas, pero "Genshin Impact" lo ha hecho.
Si quieres desarrollar aplicaciones multiplataforma, Unity actualmente admite 28 plataformas, lo que significa que podemos usar Unity para crear experiencias que. todos pueden experimentar el contenido. Porque cada uno de nosotros utiliza dispositivos diferentes. Si está en la industria de TI o está cerca de equipos informáticos, utilizará muchos dispositivos. Debe necesitar una plataforma de creación de contenido, una que le permita ejecutar contenido en varias plataformas. Queremos que sea accesible para todos y es muy importante que podamos admitir todos los dispositivos.
En la actualidad, los juegos móviles de Unity representan la mayor proporción. Falcon in the Sky es un juego.
¿Por qué debería publicar este caso? Tiene la característica de que fue desarrollado por un desarrollador. Una persona completó todo el desarrollo utilizando el motor Unity, lo que convierte a este juego en el primer juego exitoso.
También se utiliza mucho en industrias ajenas a los juegos. Promovemos un producto llamado UnityForma. Puede importar un modelo 3D de su producto a la interfaz, seleccionar diferentes tomas para crear una película y finalmente exportarla a una aplicación interactiva que puede ejecutarse mediante PC o MAX.
En cuanto a años de experiencia en networking, tomamos MeetinVR como ejemplo: las reuniones en línea a través de networking entre varias personas son más interactivas que las videoconferencias normales.
La realidad virtual tiene dos contenidos principales:
1. Avatar digital, es decir, humano digital. En esta imagen, hay una imagen humana muy realista a la derecha, una imagen de dibujos animados en el medio y una pequeña gota de agua debajo. Aunque la imagen es solo una pequeña gota de agua, podemos sentir su autenticidad a través de las expresiones y los ojos impulsados por la IA. Entonces, ya sea virtual, real o de dibujos animados, lo más importante es hacer que las personas sientan que están interactuando con usted, lo que se puede lograr a través de contenido 3D interactivo en tiempo real.
En la película "Infidel", escaneamos la imagen de un actor, tomamos una fotografía de su expresión y luego la importamos a Unity para crear la imagen que todos ven (ícono PPT). Los detalles de esta figura incluyen más de 280.000 triángulos repartidos por todo el cuerpo. El vídeo que ves se reprodujo en mi computadora portátil, que tiene una tarjeta gráfica equivalente al rendimiento informático de una 2060 en una PC y puede ejecutarse sin problemas en tiempo real, incluso cambiando el ángulo de visión dinámicamente.
Esta imagen digital tiene características muy importantes, una es la representación de la piel y la otra es la representación del globo ocular. Para contenido técnico específico, puede buscar en nuestra cuenta oficial de WeChat. Unity tiene recursos de aprendizaje abiertos y gratuitos disponibles para descargar. Si desea obtener la versión de Unity, puede descargarla directamente desde el sitio web oficial.
(Imagen PPT) La imagen de la chica de al lado es muy sencilla. El cabello se renderizó usando un conjunto de complementos y ahora tenemos una solución completa de renderizado basada en cabello. Además de este tipo de realismo, también los hay bidimensionales relacionados, como Bilibili, que ahora cuenta con más de una docena de ídolos virtuales en operación y mantenimiento.
Este humano digital es la versión 1.0 del humano digital lanzada este año, que es un proyecto doméstico. Un colega se transformó en un ser humano digital mediante escaneo 4D. A excepción del cabello, la técnica utilizada en este artículo es la misma que en el Pagan anterior. El cabello se crea con nuestro propio sistema capilar en lugar del procesamiento tradicional con tarjetas. El cabello se puede representar uno por uno y luego moverse con mucha precisión, incluida la colisión física.
Esperamos reducir el umbral para que podamos crear humanos digitales con equipos simples.
2. Gemelo digital.
Tenemos muchos ejemplos. Por ejemplo, Haier nacional ha creado un gemelo digital en la línea de producción, con control unificado a la izquierda y un brazo robótico real a la derecha. Nuestra tecnología de gemelo digital también se utiliza en la plataforma de simulación de conducción autónoma de Shanghai International Automobile City.
Nuestra dirección de desarrollo tecnológico:
1. Este es principalmente un modelo de programación orientado a datos, en el que hay tres conjuntos de tecnologías, uno es JobSystem, el otro es ECS (Entity Component System) y el tercero es BurstCompiler.
2. La imagen es exquisita. Ahora hay 28 plataformas, por lo que se deben admitir muchas canalizaciones de renderizado porque diferentes plataformas tienen capacidades de renderizado completamente diferentes. Tenemos: primero, el canal de renderizado universal URP es compatible con todas las plataformas; segundo, el canal de renderizado de alta definición HDRP, y tercero, el trazado de rayos en tiempo real;
3. Simulación real. Actualmente existen UnitySimulation y MachineLearningAgents.
Si quieres saber más, puedes acudir a nuestros canales oficiales para obtener más información. Con esto termina el intercambio de hoy, ¡gracias!