El metaverso entra por los ojos. Mundos virtuales en los que podemos interactuar unos con otros sin importar las distancias. Reuniones online, eventos multitudinarios, juegos masivos, simulaciones abiertas al público… Pero detrás de todo ese despliegue de motores gráficos e imágenes 3D hay una enorme cantidad de datos. Datos para que el metaverso responda a nuestros gestos y expresiones. Datos para que el metaverso recree nuestra fisonomía y nuestro entorno. En definitiva. Datos para que el metaverso funcione.
Precisamente, algunas de las tecnologías que utiliza el metaverso, como la inteligencia artificial o el machine learning, se alimentan de datos. Datos que permiten ofrecer unos servicios, actividades, productos o experiencias de acuerdo a lo que busca el usuario y/o quiera ofrecer el responsable de un mundo virtual o de un espacio digital de una marca o producto. Gracias a los datos es posible entender qué tiene que hacer cada componente de lo que llamamos metaverso y cómo responder a nuestras interacciones.
Y como curiosidad, no todos esos datos los proporcionaremos los propios usuarios. Según un análisis de Gartner, en 2024, el 60% de los datos necesarios para trabajar con inteligencia artificial o proyectos analíticos, serán generados de forma sintética. Es decir, datos para el metaverso que no han sido generados en el mundo real. Se han creado mediante algoritmos, empleando modelos matemáticos.
Datos para el metaverso creados por algoritmos
Hay muchos actores involucrados en el gran proyecto que engloba el metaverso o metaversos. Uno de ellos es NVIDIA, gigante de la computación conocido por ser uno de los mayores fabricantes de GPUs, unidades de procesamiento gráfico. La parte de los ordenadores, smartphones o consolas de videojuegos encargada de recrear animaciones y gráficos. Y que en la actualidad consiguen generar imágenes que parecen sacadas del mundo real.
NVIDIA también trabaja en aportar su conocimiento al metaverso. Y en la parte que le toca, está centrada en ofrecer experiencias inmersivas lo más realistas posibles. Y para recrear el mundo real en universos digitales, NVIDIA apuesta por el uso de inteligencia artificial. La IA se encargaría de aportar datos para que el metaverso genere espacios, avatares y demás elementos con los que los usuarios humanos interaccionen entre sí y con servicios o actividades virtuales.
En este sentido, Rev Lebaredian, vicepresidente de Omniverse and Simulation Technology en NVIDIA, apuesta por el uso de lo que conoce como gráficos neuronales. Neural graphics en inglés. Según explican en NVIDIA, el uso de esta tecnología facilita y agiliza la creación de contenido gráfico 3D para los creadores y diseñadores. O dicho de otra manera. Si el diseño gráfico ha sido casi siempre un proceso artesanal pese al uso de ordenadores y herramientas que han automatizado algunas acciones, los neural graphics pretenden hacer de la generación de gráficos una tarea prácticamente automatizada. Pedirle algo a la herramienta de desarrollo y obtenerlo prácticamente al instante.
NVIDIA define esta nueva tecnología en su anuncio oficial. “Los gráficos neuronales son un nuevo campo que entrelaza la IA y los gráficos para crear una línea de gráficos acelerada que aprende de los datos. La integración de la IA mejora los resultados, ayuda a automatizar las decisiones de diseño y ofrece nuevas oportunidades, aún no imaginadas, a artistas y creadores. Los gráficos neuronales redefinirán la forma de crear, simular y experimentar los mundos virtuales”.
Millones de datos detrás de un metaverso realista
Los datos son esenciales para el metaverso. Más allá de la captura, almacenamiento y procesamiento de los datos que generarán los propios usuarios durante su “estancia” en el metaverso. Para hacer posible los mundos virtuales realistas, colocar ahí personas reales representadas por avatares digitales, y que todo funcione como un buen engranaje, será importante una buena infraestructura que lidie con esa generación, transporte y procesado de datos en tiempo real.
Algo que en principio va a ser menos traumático de lo que podríamos pensar. Gracias al uso de Cloud computing y Edge computing, procesos que antes requerían de máquinas muy potentes y exclusivas, se pueden ejecutar en dispositivos actuales de menor tamaño y características más modestas.
Precisamente, todo esto es posible gracias al trabajo de nombres como NVIDIA, Unity o Epic Games, responsable del motor gráfico Unreal Engine. Sus esfuerzos van encaminados a generar avatares que cuesta diferenciar de una imagen real y que pueden moverse y mostrar expresiones faciales sin que necesitemos nociones de programación o diseño gráfico 3D. Con ayuda de algoritmos, inteligencia artificial y, su ingrediente principal, los datos.