Transmita de forma anónima: cómo virtualizarse y convertirse en un VTuber

Hay inconvenientes en la transmisión de la propia vida como transmisor. No solo los trolls y los que odian, sino el gran esfuerzo que se necesita para mantener una personalidad de cara al público, especialmente si el comercio está involucrado y su agencia de influencia está en su caso por demasiadas noches. Es por eso que muchos streamers ahora actúan como un personaje virtual o VTubers.

Solía ​​ser complejo y costoso digitalizar humanos. Cuando informé sobre la virtualización del actor Robin Wright en El Congreso En 2014, se necesitaron más de 150 luces LED y varios LightStages EOS 1D Mark III de Canon en el Instituto de Tecnologías Creativas de la Universidad del Sur de California para capturar su forma. Hoy en día, los teléfonos, las cámaras web y las suites de software pueden ayudar a los streamers a jugar con animación, modelado 2D/3D, manipulación de rostros, sincronización de audio y captura de rendimiento por sí mismos.

Para saber cómo se hace, hablamos con dos creadores que potencian sus propios personajes basados ​​en avatares en línea: LavenderTowne.(Se abre en una nueva ventana) y syafire(Se abre en una nueva ventana)—que tienen enfoques ligeramente diferentes sobre cómo pasar de lo real a lo irreal.


Resumen

Conozca a nuestros expertos de VTuber

Syafire (pronunciado «zafiro») se convirtió en VTuber en 2020, luego de varios años de transmisión en plataformas como Twitch. Además de su propio canal de YouTube que hace tratos de marca, también es anfitriona de YouTube para HTC Vive, un entrenador de transmisión.(Se abre en una nueva ventana) ayudar a otros a construir carreras como personajes virtuales en el mundo digital e ilustrador independiente(Se abre en una nueva ventana).

Syafire comenzó «como streamer de arte, transmitiendo mi trabajo por encargo y tareas de arte mientras estudiaba un título universitario en diseño gráfico en Flashpoint Chicago», dice. «Luego me transferí a un colegio comunitario para especializarme en desarrollo de juegos, y finalmente me mudé a una escuela en línea con Academy of Art Industry para especializarme en desarrollo de juegos con un enfoque en arte conceptual».

En septiembre de 2020, Syafire se interesó en la escena emergente de influencers virtuales después de ver Code Miko.(Se abre en una nueva ventana) utiliza el motor irreal(Se abre en una nueva ventana) para crear una experiencia de avatar inmersiva realista. Fascinado con la tecnología, Syafire decidió aprender a trabajar con las herramientas disponibles.

Llevando a su audiencia (ella los llama sus «Gemas») con ella, en tiempo real, lanzó el video de arriba que detalla cómo convertirse en un VTuber. Este tutorial lanzó la carrera de Syafire como creadora de contenido de tiempo completo y ahora tiene más de 23,000 suscriptores solo en YouTube.

Haley Newsome, también conocida como «LavenderTowne», es una ilustradora, diseñadora de personajes, animadora y artista de cómics independiente con sede en Los Ángeles. “Había sido ‘LavenderTowne’ en YouTube(Se abre en una nueva ventana) durante muchos años antes, y siempre había evitado que mi cara apareciera demasiado en mis videos, así que creo que, naturalmente, yo era alguien que apreciaría la tecnología VTuber», dice.

«Al principio, estaba fascinado con los modelos de VTuber desde una perspectiva artística, ya que me encanta crear diseños de personajes caricaturescos, así que disfruté mucho de las sensibilidades de diseño exageradas y geniales de los prominentes VTubers». LavenderTowne decidió aprender cómo ingresar a la tierra de VTuber y produjo una serie de videos que comenzaron con el clip anterior.

Ambos creadores dicen que el anonimato físico en línea es liberador. «Convertirse en un influencer virtual le da al creador detrás de ellos la oportunidad de experimentar un personaje y un mundo como nunca antes», dice Syafire. «Además de alcanzar la fama sin que altere su vida personal de la misma manera que lo ha hecho con las celebridades modernas y pasadas».

LavenderTowne está de acuerdo. «Cuando se trata de transmisión, creo que el modelo VTuber es el camino a seguir para mí personalmente. Es mucho más atractivo visualmente que transmitir sin una cámara frontal, y es mucho más fácil relajarse y pasar el rato con mi comunidad sin tener que preocuparme por la iluminación, el maquillaje y el cabello.

«De una manera extraña, se siente mucho más natural que ‘usar’ mi cara real», dice ella.


Construye tu personaje

Si desea crear su propio avatar, el proceso comienza con la construcción de su personaje, sincronizándolo con la expresión humana (aparejo), incorporando el modelo en una plataforma de software de transmisión y luego en vivo. Eso es simplificarlo. Pero así es como ambos creadores atravesaron ese flujo de trabajo y lo que descubrieron en el camino.

cara de avatar vroid

Syafire creó su ser virtual usando VRoid Studio(Se abre en una nueva ventana)—Puedes ver su tutorial arriba. Si alguna vez pasó por el proceso de crear su propio avatar virtual para jugar un juego o ingresar al metaverso, estará familiarizado con este proceso.

Elija el color del cabello, la forma de los ojos, los contornos de la cara, las opciones de ropa, las dimensiones del cuerpo, etc., hasta que su avatar tenga el aspecto deseado. El programa le permite crear un modelo 3D único, que luego se puede usar en cualquier plataforma.

ropa de avatar vroid

Si quieres pasar horas experimentando con anchos de cuello, texturas, orejas de elfo y cepillos para secciones de cabello onduladas individualmente, todo está ahí. Si desea ponerse en marcha rápidamente, elija una plantilla, realice las modificaciones básicas y estará listo para comenzar.

Dado que LavenderTowne es una ilustradora profesional, quería crear su personaje desde cero, usando su propia obra de arte, en lugar de un modelo 3D. «Utilicé Live2D(Se abre en una nueva ventana) hacer esto», explica. «Muchos VTubers usan Live2D para crear un personaje animado que se mueve con ellos en tiempo real, sin un modelo 3D, y lo encontré realmente emocionante».

Su tutorial, como se ve arriba, muestra lo laborioso que puede ser construir un modelo 2D a partir de ilustraciones individuales, exportarlas como archivos PSD y luego manipular el modelo en Live2D Cubism. Pero al menos obtienes la satisfacción de diseñar un personaje virtual completo, desde el primer trazo de lápiz digital.


Apareja tu modelo

Una vez que su modelo 3D esté completo, debe asignar los movimientos del personaje a los suyos. En el tutorial de Syafire, exporta su avatar y luego importa el modelo a una herramienta de captura de movimiento. En el video ella usa 3tene(Se abre en una nueva ventana)pero también hay otras opciones disponibles.

Syafire ahora recomienda VSeeFace(Se abre en una nueva ventana) «porque es compatible con un software de terceros llamado Virtual Motion Capture(Se abre en una nueva ventana) donde puede obtener un seguimiento facial más avanzado si su modelo VRM está configurado con las formas de combinación adicionales necesarias en un programa de modelado 3D. Luego usa VSeeface para importar su modelo y, finalmente, el iFacialMocap(Se abre en una nueva ventana) aplicación para rastrear su seguimiento facial avanzado «.

software de seguimiento facial

(Crédito: Syafire)

Sin embargo, si desea probar 3tene, coloca el modelo en el espacio 3D, luego toma la salida de una cámara web para configurar el seguimiento de la cara y mapear los movimientos de los ojos para un reflejo asombroso. 3tene también sincroniza el audio con los movimientos de los labios y Ultraleap(Se abre en una nueva ventana) Se pueden implementar controladores manuales para que el modelo 3D mapee también los movimientos del cuerpo, si es particularmente expresivo con los gestos de las manos.

«Soy una persona que mueve mucho las manos», dice Syafire. «Uso muchas expresiones faciales y lenguaje corporal cuando hablo. Sin gastar miles de dólares en equipos de alta gama, obtener personajes expresivos y modelos que coincidan con eso es posible pero desafiante. Espero ver un mayor desarrollo en la tecnología de captura de movimiento para continuar haciendo que esta sea una experiencia lo más inmersiva posible tanto para el creador como para el consumidor”.

Esa es la configuración básica para adaptar lo virtual (modelo) a lo real (humano). También hay opciones adicionales para el movimiento dentro de 3tene, en caso de que esté de humor para un yo virtual que haga patadas de karate o cambios de expresión facial de avatar para una mayor profundidad de carácter.

Recomendado por Nuestros Editores

El paso final es cambiar la configuración del fondo del escenario a Color personalizado y luego a Transparente para permitir las posibilidades de marca detrás del avatar.

LavenderTowne tomó una ruta diferente al manipular su ser virtual. “Una vez que tuve el personaje construido, usé VTube Studio(Se abre en una nueva ventana) con la cámara de mi iPhone, y funcionó muy bien”, dice.

Para hacerlo de esta manera, necesitas un iPhone y ARKit de Apple(Se abre en una nueva ventana) plataforma de realidad aumentada. Una vez que las cámaras detectan un rostro, el software crea una superposición de malla con coordenadas para indicar dónde se encuentran los ojos, la boca, la nariz, etc.

Con el mapeo entre el rostro humano y la malla completo, el creador puede impulsar un personaje animado. Si desea ver cómo se ve el producto terminado, vea el video de arriba.


Futuros complejos, configuraciones complicadas

El proceso de creación de un humano digitalizado incluye muchas partes móviles complejas. Si bien es posible hacer un mínimo de modificaciones para animar un personaje virtual, la mayoría de la gente querrá profundizar más. Esto significará tener que aprender múltiples plataformas e incluso hacer algunas compras adicionales en el equipo.

Como la mayoría de los streamers profesionales, Syafire usa OBS Studio de código abierto para crear, editar y distribuir sus transmisiones en múltiples plataformas. Y aunque gran parte del trabajo pesado se puede hacer con la ayuda de software gratuito, las descripciones de sus videos brindan una lista de recomendaciones para una cámara web, un micrófono y más.

También sugiere usar un Stream Deck, en lugar de una computadora de escritorio, para controlar un avatar, lo que le permite asignar diferentes gestos a botones específicos y habilitar estados de ánimo preestablecidos, animaciones y más para profundizar la sensación de inmersión.

Sin embargo, espere invertir más tiempo y dinero cuanto más compleja sea su configuración. «Si quisieras llevar tu modelo al siguiente nivel como Code Miko o AI Angel(Se abre en una nueva ventana)eso es otro asunto, y tendrás que involucrarte con motores de juego como Unity(Se abre en una nueva ventana) y Unreal Engine, así como aplicaciones de terceros como Virtual Motion Capture”.

Pero se ha trabajado mucho para que estas tecnologías sean más accesibles. «Sospecho que los desafíos técnicos de crear estos modelos de VTuber fueron la razón principal por la que muchas personas tardaron un poco en unirse», dice LavenderTowne.

«Ahora que hay modelos 3D preconstruidos que las personas pueden personalizar, la tecnología PNGtuber para que todo lo que necesites sea un dibujo o dos, y hay más tutoriales disponibles en varios idiomas para aquellos interesados ​​en probarlo ellos mismos, hace una mucho sentido de que habría un boom de nuevos VTubers”.

«En general, es un flujo de trabajo y un proceso largos», agrega Syafire, «pero es una de las experiencias más gratificantes de ver a tu personaje cobrar vida y vincularse contigo».

¿Te gusta lo que estás leyendo?

Matricularse en consejos y trucos boletín de noticias para obtener consejos de expertos para aprovechar al máximo su tecnología.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.

Continua leyendo