Die Entstehung des VR Investors Day – Avatare

Für den Virtual Reality Investors Day von Montega und Donner & Reuschel am 08. Juni 2021 lassen wir 6 Präsentierende in einer virtuellen Umgebung vor Investoren pitchen. Die Planung sowie das Konzept wurde von Montega in enger Zusammenarbeit mit unserem Entwicklerteam vorgenommen, um das bestmögliche Ergebnis zu erzielen und den virtuellen Investorentag zu einem einzigartigen Erlebnis zu machen.

Die 6 Präsentierenden der Firmen freenet, home24, wallstreet:online, va-Q-tec, q.beyond und NeXR sowie der Host, Pierre Groening von Montega wurden hierzu in unserem Körperscanner gescannt. Der Instagraph Pro ist unser leistungsstarker Bodyscanner, der für die Entwicklung lebensechter Avatare für Games, VR und AR Applikationen entwickelt wurde und keine Körpermessdaten wie der 3D Instagraph Fusion III misst.

Der Scanner nimmt zeitlich mehr als 100 Fotos der gescannten Person auf welche anschließen mittels unserer KI zu einem Avatar zusammengesetzt werden.

Nachbearbeitung der Avatare

Nachdem die KI die Avatare zusammengesetzt hat, sehen sich unsere Character Artists die Avatare an und bearbeiten an einigen Stellen ggf. noch einmal nach oder nehmen Farbkorrekturen vor, um ein exaktes Resultat zu erzielen.

Durch unsere Arbeit an NeXR Fashion, erzielen wir sehr gute Resultate, wenn es darum geht Avataren die Kleidung digital zu wechseln. Aus diesem Grund bieten wir den gescannten Personen an, in bequemer Kleidung gescannt zu werden und können die Avatare nach der Fertigstellung umkleiden. So erhalten sie unterschiedlich geschnittene Anzüge in verschiedenen Farben oder auch Krawatten, Schuhe und Accessoires.

Vorbereitung der Avatare für das Event

Die Avatare müssen für den VR Investors Day nicht animiert werden, da die Präsentierenden ihre Avatare während des Events selbstständig mittels Motion Capture Technologie animieren.

Um die Avatare jedoch zum Leben zu erwecken benötigen sie ein Skelett, sodass die Software genau weiß an welcher Stelle des Avatars sich Gelenke und Knochen befinden. Dies nennt man Rigging.

Hierbei werden Punkte an den verschiedenen Gelenken gesetzt, wie zum Beispiel an den Ellenbogen, den Schulterblättern, den Knien, aber auch an den einzelnen Fingergelenken usw. Beim Motion Capture Anzug sitzen Reflektoren genau an den Stellen, an denen auch die Gelenke des Avatars markiert wurden, sodass die Software genau erkennt, wie sich die Person bewegt und überträgt diese Bewegungen auf den Avatar.

Für die Mimik arbeitet unser Motion Capture Studio mit der Software ARkit, welche für dieses Vorhaben die Resultate schnell und in sehr guter Qualität liefert. Die Software befindet sich auf einem iPhone, welches vor das Gesicht des Präsentierenden gespannt wird. Die Kamera erkennt das Gesicht und unterteilt es in Polygone. Diese Aufteilung ermöglicht es dem Avatar exakt den Gesichtsausdruck zu übertragen, den die Person zum jeweiligen Zeitpunkt hat. Die selbe Software kommt beim iPhone auch bei der Erstellung von Animojis (animierte Emojis) zum Einsatz. Jeder, der ein iPhone X oder neuer besitzt, kann dies selber einmal ausprobieren und damit Tiere oder auch seinen eigens konfigurierten Avatar mit Mimiken ausstatten.

Diese Animation von Mimik und Gestik wird in Echtzeit in die virtuelle Umgebung über die Unreal Engine auf die verschiedenen Kanäle, Oculus Quest 2 (VR) und Twitch (2D), gestreamt.

Weitere Infos zu diesem Event, sowie Möglichkeiten daran virtuell teilzunehmen finden sie hier.

Im kommenden Blogbeitrag erfahren Sie, wie unsere virtuellen Umgebungen entstehen und welche Möglichkeiten es gibt in der virtuellen Umgebung zu präsentieren und zu interagieren.