Teorija ninje Hellblade možda i nije bila šalica čaja za određene igrače, ali jedna je stvar bila nedvosmisleno i nedvojbeno vrijedna pažnje u vezi s projektom: mogućnost izravnog prevođenja snimanja performansi s grafikom kinematografske kvalitete u vrijeme rada Unreal Enginea u stvarnom vremenu. 4's cjevovod dizajna i animacije.
Jednostavno rečeno, umjesto da imate ogroman studio za snimanje izvedbe u holivudskom stilu, prođite kroz sve postupke snimanja glasa i pokreta u zasebnom studiju, a zatim snimite podatke i pošaljite ih timu za animaciju da ih očisti i implementira u igra u drugom studiju, Ninja Theory uspjela je obaviti snimanje svih kinematografskih performansi u kući i snimiti ih izravno u Unreal Engine 4 bez potrebe za čišćenjem, izmjenama ili modifikacijama treće strane.
Značaj ovog koraka je u tome što je posao koji je Ninja Theory obavio na izgradnji injektora za Unreal Engine u suradnji s 3Bočno i kubično gibanje omogućio im je da izgrade igru poput Hellblade s mnogo manjim proračunom ali s točno istom vrstom ispisa kinematografske kvalitete koji se obično nalazi u AAA igrama s budžetom od 100 milijuna dolara. Sve učinjeno za djelić cijene i bez gubitka vizualne vjernosti.
Pa, Epic bi bio nemaran da je propustio priliku da preuzme i proširi ovu tehnologiju za Unreal Engine 4. Tijekom ovogodišnje konferencije za razvojne programere igara, studio je predstavio nova partnerstva s Tencentom, Viconom, 3Lateralom i Cubic Motionom kako bi poboljšao tijek kreativnog dizajna unutar Unreal Engine 4 koji programerima omogućuje jednostavno i praktično snimanje performansi unutar Unreal Engine 4 u stvarnom vremenu pri 60 sličica u sekundi. To je demonstrirano s Sirena, realističan azijski model s vjernošću CG kvalitete koji radi u stvarnom vremenu unutar vremena izvođenja Unreal Engine 4 pri neprekinutih 60 sličica u sekundi. Demonstraciju možete pogledati u nastavku, zahvaljujući Engadget.
Kao što je istaknuto u videu, opremanje lica radi u skladu s cjevovodom proceduralne animacije kako bi omogućilo ljudima koji ne izgledaju kao 3D model da djeluju i nastupaju umjesto modela koji je izvorno skeniran za korištenje u projektu. Prethodno su glumac i 3D skenirani model morali biti ista osoba kako bi se izbjegle razlike u kretanju između namještenog modela i stvarnog glumca.
Nova tehnologija znači da biste tehnički mogli imati jednog glumca koji nastupa za više realističnih likova bez dimorfnih nepodudarnosti koje bi se pojavile u završnom prolazu animacije. Možete provjeriti neprekinutu verziju Sirena demonstracija u nastavku.
Kao što je objašnjeno od strane Epic Gamesa, kako bi se nastavilo dugo i mukotrpno putovanje iz jezovite doline, puno je rada uloženo u sam model za vrhunsko renderiranje zahvaljujući Cubic Motionu i 3Lateralu koji rade s Epicom kako bi poboljšali način na koji model se prikazuje u Unreal Engineu. To uključuje poboljšano podpovršinsko raspršenje unatrag tako da su tanji dijelovi kože prozirni pod određenim uvjetima osvjetljenja, kao i dvostruke zrcalne refleksije za mekše prikazivanje svjetlosnih gradijenata od jakih do mekih svjetala preko lica lika, i zračenje prostora na zaslonu za pomoć pri poništavanju efekt oka mrtve ribe.
Epic omogućuje dizajnerima i umjetnicima strujanje podataka Vicon animacije iz snimanja izvedbe izravno u cjevovod animacije Unreal Enginea. Dakle, ako želite kombinirati različite glumce iz stvarnog života s 3D glumcima, to možete učiniti bez potrebe da prolazite kroz proces odnošenja podataka ekipi za animaciju, čišćenja i primjene na cjevovod motora nakon studijskog rada. Rezultate možete vidjeti odmah u Unreal Engineu, tamo tijekom snimanja.
Napredak u ovim tehnikama snimanja izvedbe demonstriran je izvedbom holivudskog veterana Andyja Serkisa koji je izveo Macbetha.
Koristeći 3Lateral-ove ciljeve kompresije i mišićne kontrakcije u stvarnom vremenu visoke vjernosti, animatori imaju mogućnost modificirati izvedbu glumca pomoću skupa alata za animaciju Unreal Engine 4 u stvarnom vremenu.
Moguće je upotrijebiti skupove podataka o animaciji na bilo kojem ispravno postavljenom modelu, čak i ako sam model uopće ne sliči glumcu. Ovo je povezano s onim što je prije spomenuto o alatima za prilagodljivu animaciju koje su Vicon i Tencent koristili za azijski model, čak i kada glumica u stvarnom životu nije izgledala nimalo poput 3D skeniranog modela. Epic je upotrijebio snimljene podatke iz izvedbe Macbetha Andyja Serkisa i primijenio ih na izmišljeni vanzemaljski lik koji je bio pravilno opremljen za čitanje skupova podataka. Rezultati su prilično impresivni.
Neka ažuriranja za Unreal Engine 4 koja sadrže puno ovih značajki bit će dostupna od 20. travnja.
Ovo se također odnosi na Epicovo duboko poniranje u ray-trace renderiranje.
Nakon što je Hayssam Keilany uspio implementirati tehnike praćenja putanje u stvarnom vremenu u shadere za igre poput GTA IV prije pola desetljeća, Epic je konačno pojačao svoju igru i uspio postići realistično osvjetljenje u stvarnom vremenu putem praćenja zraka za višeprolazni izvor svjetla i sjene.
Epic je demonstrirao ovu tehniku kratkim filmom Star Wars.
Praćenje zraka u stvarnom vremenu može biti vrlo naporno, pa se Epic udružio s Nvidijom i Microsoftom kako bi razvio novi API nazvan DXR, koji je DirectX cjevovod za praćenje zraka koji komunicira izravno s GPU-om za izvođenje složenih zadataka osvjetljenja i shadera koristeći hardver -ovisna tehnologija nazvana RTX.
Prema Epic Gamesu, vidjet ćemo neke igre objavljene kasnije ove godine koje će koristiti Microsoftovu DXR tehnologiju i Epic Gamesove nove kanale praćenja zraka.