Hoe was het artikel?

1516480cookie-checkUnreal Engine 4-games met Ray-Tracing DXR verschijnen eind 2018
industry News
2018/03

Unreal Engine 4-games met Ray-Tracing DXR verschijnen eind 2018

Ninja Theory's Hellblade kan voor bepaalde gamers wel of niet de cup of tea zijn geweest, maar één ding was ondubbelzinnig en ontegensprekelijk opmerkelijk aan het project: de mogelijkheid om prestatieregistratie met graphics van bioscoopkwaliteit direct te vertalen naar de realtime in-engine runtime van de Unreal Engine 4's ontwerp- en animatiepijplijn.

Simpel gezegd: in plaats van een gigantische studio voor het vastleggen van prestaties in Hollywood-stijl, doorloop je alle procedures voor stem- en bewegingsregistratie in een aparte studio, leg je de gegevens vast en stuur je deze naar het animatieteam om ze op te schonen en te implementeren in de film. Na de game in een andere studio te hebben gespeeld, slaagde Ninja Theory erin om alle filmische prestaties intern vast te leggen en deze rechtstreeks in de Unreal Engine 4 op te nemen zonder dat opruiming, wijzigingen of aanpassingen door derden nodig waren.

Het belang van deze stap is dat het werk dat Ninja Theory deed aan het bouwen van een injector voor de Unreal Engine in samenwerking met 3Laterale en kubieke beweging stond hen toe om een ​​spel als te bouwen Hellblade met een veel kleiner budget maar met exact dezelfde soort filmische kwaliteit die gewoonlijk wordt aangetroffen in AAA-games met een budget van $ 100 miljoen dollar. Alles gedaan voor een fractie van de kosten en zonder verlies aan visuele betrouwbaarheid.

Welnu, Epic zou nalatig zijn geweest om een ​​kans voorbij te laten gaan om deze technologie voor de Unreal Engine 4 te benutten en uit te breiden. Tijdens de Game Developers Conference van dit jaar onthulde de studio nieuwe partnerschappen met Tencent, Vicon, 3Lateral en Cubic Motion om te helpen verbeteren de creatieve ontwerpstroom binnen de Unreal Engine 4 waarmee ontwikkelaars eenvoudig en gemakkelijk prestaties binnen de Unreal Engine 4 in realtime kunnen vastleggen met 60 frames per seconde. Dit werd gedemonstreerd met Sirene, een levensecht Aziatisch model met CG-kwaliteitsgetrouwheid die in realtime draait binnen de runtime van de Unreal Engine 4 met een ononderbroken 60 frames per seconde. Je kunt de demonstratie hieronder bekijken, met dank aan Engadget.

Zoals aangegeven in de video werkt de gezichtsmanipulatie samen met de procedurele animatiepijplijn om mensen die er niet uitzien als het 3D-model in staat te stellen te handelen en op te treden in plaats van het model dat oorspronkelijk was gescand voor gebruik in het project. Voorheen moesten de acteur en het 3D-gescande model dezelfde persoon zijn om bewegingsverschillen tussen het gemanipuleerde model en de echte acteur te voorkomen.

De nieuwe technologie betekent dat je technisch gezien één acteur kunt laten optreden voor meerdere levensechte personages zonder dat dimorfe ongerijmdheden in de uiteindelijke animatiepassage verschijnen. Je kunt een ononderbroken versie van de Sirene onderstaande demonstratie.

Zoals uitgelegd door Epic Games, is er, om de lange en moeizame reis uit de griezelige vallei voort te zetten, veel werk in het model zelf gestoken voor hoogwaardige weergave dankzij Cubic Motion en 3Lateral die met Epic samenwerken om de manier te verbeteren waarop de model wordt weergegeven in de Unreal Engine. Dit omvat verbeterde ondergrondse terugverstrooiing, zodat dunnere delen van de huid doorschijnend zijn onder specifieke lichtomstandigheden, evenals dubbele spiegelreflecties voor een zachtere weergave van lichtgradiënten van hard naar zacht licht over het gezicht van een personage, en schermruimtebestraling om te helpen bij het neutraliseren het dode-vissenoog-effect.

Epic maakt het voor ontwerpers en kunstenaars mogelijk om Vicon-animatiegegevens van de prestatieregistratie rechtstreeks naar de Unreal Engine-animatiepijplijn te streamen. Dus als je verschillende echte acteurs wilt mixen en matchen met 3D-acteurs, kun je dat doen zonder het heen en weer proces te hoeven doorlopen waarbij je de gegevens naar de animatieploeg brengt, ze opschoont en ze vervolgens toepast op de motorpijplijn. na het studiowerk te hebben gedaan. Je kunt de resultaten gewoon meteen zien in de Unreal Engine, precies daar tijdens het filmen.

De vooruitgang in deze technieken voor het vastleggen van prestaties werd gedemonstreerd met een optreden van ervaren Hollywood-acteur Andy Serkis die een optreden gaf van Macbeth.

Met behulp van de real-time compressie- en spiercontractie-high-fidelity-doelen van 3Lateral hebben animators de mogelijkheid om de prestaties van een acteur aan te passen met behulp van de real-time Unreal Engine 4-animatietoolset.

Het is mogelijk om de animatiedatasets op elk goed opgetuigd model te gebruiken, zelfs als het model zelf helemaal niet op de acteur lijkt. Dit sluit aan bij wat eerder werd vermeld over de adaptieve animatietools die Vicon en Tencent gebruikten voor het Aziatische model, zelfs als de echte actrice in niets leek op het 3D-gescande model. Epic gebruikte de verzamelde gegevens uit Andy Serkis' Macbeth-optreden en paste deze toe op een fictief buitenaards personage dat op de juiste manier was opgetuigd om uit de datasets te lezen. De resultaten zijn behoorlijk indrukwekkend.

Sommige updates voor de Unreal Engine 4 die veel van deze functies bevatten, zullen vanaf 20 april beschikbaar zijn.

Dit geldt ook voor Epic's diepe duik in ray-trace-weergave.

Nadat Hayssam Keilany erin slaagde real-time path-tracing-technieken te implementeren in shaders voor games als GTA IV Een half decennium geleden heeft Epic eindelijk hun spel opgevoerd en is het erin geslaagd levensechte realtime verlichting te realiseren door middel van ray-tracing voor multi-pass lichtbron en schaduwen.

Epic demonstreerde deze techniek met een korte film waarin Star Wars.

Real-time ray-tracing kan erg belastend zijn, en daarom werkte Epic samen met Nvidia en Microsoft om een ​​nieuwe API te ontwikkelen genaamd DXR, een DirectX ray-tracing-pijplijn die rechtstreeks met de GPU praat om complexe verlichtings- en shader-taken uit te voeren met behulp van hardware. -afhankelijke technologie genaamd RTX.

Volgens Epic Games zullen we later dit jaar een aantal games zien verschijnen die gebruik maken van de DXR-technologie van Microsoft en de nieuwe ray-tracing-pijplijnen van Epic Games.

Ander branchenieuws