Unreal Engine 4 Games Met Ray-Tracing DXR wordt uitgebracht in de Late 2018
Unreal Engine 4 DXR

Ninja Theory's Hellblade wel of niet het kopje thee was voor bepaalde gamers, maar een ding was ondubbelzinnig en ontegenzeggelijk opmerkelijk over het project: de mogelijkheid om de prestaties te vertalen met beelden van cinematische kwaliteit naar de real-time in-engine runtime van de Unreal Engine 4's ontwerp- en animatiepijplijn.

In simpele bewoordingen, in plaats van een gigantische opnamestudio in Hollywood-stijl door alle stem- en motion capture-procedures in een aparte studio te laten gaan, en vervolgens de gegevens vast te leggen en naar het animatieteam te sturen om het op te ruimen en in te voeren het spel in een andere studio, Ninja Theory erin geslaagd om alle van de filmische prestaties vast te leggen in eigen huis en direct op te nemen in de Unreal Engine 4 zonder enige opruiming, wijzigingen of wijzigingen van derden.

Het belang van deze stap is dat het werk dat Ninja Theory heeft gedaan met het bouwen van een injector voor de Unreal Engine in samenwerking met 3Lateral en Cubic Motion stond hen toe om een ​​spel zoals te bouwen Hellblade op een veel kleiner budget maar met exact dezelfde soort uitvoer van filmkwaliteit die meestal wordt aangetroffen in AAA-games met budgetten van $ 100 miljoen dollar. Alles gedaan voor een fractie van de kosten en geen verlies van visuele getrouwheid.

Nou, Epic zou nalatig zijn geweest om een ​​kans voorbij te gaan om deze technologie voor de Unreal Engine 4 te nemen en uit te breiden. Tijdens de Game Developers Conference van dit jaar onthulde de studio nieuwe partnerschappen met Tencent, Vicon, 3Lateral en Cubic Motion om de creatieve ontwerpstroom binnen de Unreal Engine 4 te helpen verbeteren, waarmee ontwikkelaars eenvoudig en gemakkelijk prestaties kunnen vastleggen binnen de Unreal Engine 4 in real -tijd bij 60-frames per seconde. Dit is aangetoond met Sirene, een levensecht Aziatisch model met getrouwheid van CG-kwaliteit dat in realtime wordt uitgevoerd binnen de runtime van de Unreal Engine 4 met een ononderbroken 60-frames per seconde. U kunt de demonstratie hieronder bekijken, met dank aan Engadget.

Zoals aangegeven in de video, werkt de gezichtstuigwerking samen met de procedurele animatiepijplijn om mensen die niet op het 3D-model lijken te laten handelen en presteren in plaats van het model dat oorspronkelijk werd gescand voor gebruik in het project. Voorheen moesten de actor en het gescande 3D-model dezelfde persoon zijn om bewegingsverschillen tussen het opgetuigde model en de echte acteur te voorkomen.

De nieuwe technologie betekent dat je technisch gezien één acteur zou kunnen laten optreden voor meerdere levensechte personages zonder dat dimorfe ongerijmdheden zouden verschijnen in de uiteindelijke animatiepas. U kunt een ononderbroken versie van de Sirene demonstratie hieronder.

Zoals uitgelegd door Epic Games, om de lange en moeizame reis uit de griezelige vallei voort te zetten, werd er veel werk in het model zelf gestopt voor een high-end weergave dankzij Cubic Motion en 3Lateral die met Epic werken om de manier te verbeteren waarop model wordt gerenderd in de Unreal Engine. Dit omvat verbeterde ondergrondse verstrooiing, zodat dunnere delen van de huid doorschijnend zijn onder specifieke lichtomstandigheden, evenals dubbele spiegelende reflecties voor een zachtere weergave van lichtgradiënten van harde tot zachte lichten over het gezicht van een personage, en schermbestraling om te helpen bij het verwijderen het dode vissenoogeffect.

Epic maakt het mogelijk voor ontwerpers en kunstenaars om Vicon-animatiegegevens van de performance-capture rechtstreeks naar de Unreal Engine-animatieleiding te streamen. Dus als je verschillende echte levensthesis met 3D-acteurs wilt mixen en matchen, kun je dat doen zonder het heen en weer proces van het opnemen van de gegevens naar het animatieteam, het opruimen en vervolgens toepassen op de motorpijplijn na het doen van het studiowerk. Je kunt de resultaten meteen zien in de Unreal Engine, precies daar tijdens het filmen.

De vorderingen in deze technieken voor het vastleggen van prestaties werden gedemonstreerd met een optreden van de veteraan Hollywood-acteur Andy Serkis die een optreden van Macbeth gaf.

Met 3Lateral's real-time compressie- en spiercontractie high-fidelity-doelen, hebben animators de mogelijkheid om de prestaties van een acteur aan te passen met behulp van de real-time Unreal Engine 4 animatietoolset.

Het is mogelijk om de sets met animatiegegevens te gebruiken op elk correct opgezet model, zelfs als het model zelf helemaal niet lijkt op de acteur. Dit sluit aan bij wat eerder werd genoemd over de adaptieve animatietools die Vicon en Tencent voor het Aziatische model gebruikten, zelfs als de echte actrice niets leek op het gescande model van 3D. Epic gebruikte de vastgelegde gegevens van de Macbeth-performance van Andy Serkis en paste het toe op een fictief buitenaards personage dat op de juiste manier was opgetuigd om uit de datasets te kunnen lezen. De resultaten zijn behoorlijk indrukwekkend.

Sommige updates voor de Unreal Engine 4 met veel van deze functies zijn vanaf april 20th beschikbaar.

Dit geldt ook voor Epic's diepe duik in ray-trace rendering.

Nadat Hayssam Keilany erin geslaagd was real-time padtraceertechnieken te implementeren in shaders voor spellen zoals GTA IV Een half decennium geleden heeft Epic eindelijk zijn spel opgevoerd en is erin geslaagd om levensechte real-time verlichting te bereiken door ray-tracing voor multi-pass sourcing en schaduwen.

Epic demonstreerde deze techniek met een korte film met Star Wars.

Real-time ray-tracing kan zeer belastend zijn, en zo heeft Epic samengewerkt met Nvidia en Microsoft om een ​​nieuwe API genaamd DXR te ontwikkelen, een DirectX ray-tracing pipeline die rechtstreeks met de GPU praat om complexe verlichting- en shader-taken uit te voeren met behulp van hardware -afhankelijke technologie genaamd RTX.

Volgens Epic Games zullen we later dit jaar een aantal games zien die gebruikmaken van de DXR-technologie van Microsoft en de nieuwe ray-tracing-pijplijnen van Epic Games.

Over ons

Billy is geritsel Jimmies al jaren met betrekking tot videogames, technologie en digitale trends binnen de elektronica entertainment ruimte. De GJP huilde en hun tranen werd zijn milkshake. Behoefte in contact te komen? Probeer de Contact Pagina.

Volg NIET deze link of u wordt verbannen van de site!