Kakav je bio članak?

1516480provjera kolačićaIgre Unreal Engine 4 s Ray-Tracing DXR bit će objavljene krajem 2018.
Novosti
2018/03

Igre Unreal Engine 4 s Ray-Tracing DXR bit će objavljene krajem 2018.

Teorija ninje Hellblade možda i nije bila šalica čaja za određene igrače, ali jedna je stvar bila nedvosmisleno i nedvojbeno vrijedna pažnje u vezi s projektom: mogućnost izravnog prevođenja snimanja performansi s grafikom kinematografske kvalitete u vrijeme rada Unreal Enginea u stvarnom vremenu. 4's cjevovod dizajna i animacije.

Jednostavno rečeno, umjesto da imate ogroman studio za snimanje izvedbe u holivudskom stilu, prođite kroz sve postupke snimanja glasa i pokreta u zasebnom studiju, a zatim snimite podatke i pošaljite ih timu za animaciju da ih očisti i implementira u igra u drugom studiju, Ninja Theory uspjela je obaviti snimanje svih kinematografskih performansi u kući i snimiti ih izravno u Unreal Engine 4 bez potrebe za čišćenjem, izmjenama ili modifikacijama treće strane.

Značaj ovog koraka je u tome što je posao koji je Ninja Theory obavio na izgradnji injektora za Unreal Engine u suradnji s 3Bočno i kubično gibanje omogućio im je da izgrade igru ​​poput Hellblade s mnogo manjim proračunom ali s točno istom vrstom ispisa kinematografske kvalitete koji se obično nalazi u AAA igrama s budžetom od 100 milijuna dolara. Sve učinjeno za djelić cijene i bez gubitka vizualne vjernosti.

Pa, Epic bi bio nemaran da je propustio priliku da preuzme i proširi ovu tehnologiju za Unreal Engine 4. Tijekom ovogodišnje konferencije za razvojne programere igara, studio je predstavio nova partnerstva s Tencentom, Viconom, 3Lateralom i Cubic Motionom kako bi poboljšao tijek kreativnog dizajna unutar Unreal Engine 4 koji programerima omogućuje jednostavno i praktično snimanje performansi unutar Unreal Engine 4 u stvarnom vremenu pri 60 sličica u sekundi. To je demonstrirano s Sirena, realističan azijski model s vjernošću CG kvalitete koji radi u stvarnom vremenu unutar vremena izvođenja Unreal Engine 4 pri neprekinutih 60 sličica u sekundi. Demonstraciju možete pogledati u nastavku, zahvaljujući Engadget.

Kao što je istaknuto u videu, opremanje lica radi u skladu s cjevovodom proceduralne animacije kako bi omogućilo ljudima koji ne izgledaju kao 3D model da djeluju i nastupaju umjesto modela koji je izvorno skeniran za korištenje u projektu. Prethodno su glumac i 3D skenirani model morali biti ista osoba kako bi se izbjegle razlike u kretanju između namještenog modela i stvarnog glumca.

Nova tehnologija znači da biste tehnički mogli imati jednog glumca koji nastupa za više realističnih likova bez dimorfnih nepodudarnosti koje bi se pojavile u završnom prolazu animacije. Možete provjeriti neprekinutu verziju Sirena demonstracija u nastavku.

Kao što je objašnjeno od strane Epic Gamesa, kako bi se nastavilo dugo i mukotrpno putovanje iz jezovite doline, puno je rada uloženo u sam model za vrhunsko renderiranje zahvaljujući Cubic Motionu i 3Lateralu koji rade s Epicom kako bi poboljšali način na koji model se prikazuje u Unreal Engineu. To uključuje poboljšano podpovršinsko raspršenje unatrag tako da su tanji dijelovi kože prozirni pod određenim uvjetima osvjetljenja, kao i dvostruke zrcalne refleksije za mekše prikazivanje svjetlosnih gradijenata od jakih do mekih svjetala preko lica lika, i zračenje prostora na zaslonu za pomoć pri poništavanju efekt oka mrtve ribe.

Epic omogućuje dizajnerima i umjetnicima strujanje podataka Vicon animacije iz snimanja izvedbe izravno u cjevovod animacije Unreal Enginea. Dakle, ako želite kombinirati različite glumce iz stvarnog života s 3D glumcima, to možete učiniti bez potrebe da prolazite kroz proces odnošenja podataka ekipi za animaciju, čišćenja i primjene na cjevovod motora nakon studijskog rada. Rezultate možete vidjeti odmah u Unreal Engineu, tamo tijekom snimanja.

Napredak u ovim tehnikama snimanja izvedbe demonstriran je izvedbom holivudskog veterana Andyja Serkisa koji je izveo Macbetha.

Koristeći 3Lateral-ove ciljeve kompresije i mišićne kontrakcije u stvarnom vremenu visoke vjernosti, animatori imaju mogućnost modificirati izvedbu glumca pomoću skupa alata za animaciju Unreal Engine 4 u stvarnom vremenu.

Moguće je upotrijebiti skupove podataka o animaciji na bilo kojem ispravno postavljenom modelu, čak i ako sam model uopće ne sliči glumcu. Ovo je povezano s onim što je prije spomenuto o alatima za prilagodljivu animaciju koje su Vicon i Tencent koristili za azijski model, čak i kada glumica u stvarnom životu nije izgledala nimalo poput 3D skeniranog modela. Epic je upotrijebio snimljene podatke iz izvedbe Macbetha Andyja Serkisa i primijenio ih na izmišljeni vanzemaljski lik koji je bio pravilno opremljen za čitanje skupova podataka. Rezultati su prilično impresivni.

Neka ažuriranja za Unreal Engine 4 koja sadrže puno ovih značajki bit će dostupna od 20. travnja.

Ovo se također odnosi na Epicovo duboko poniranje u ray-trace renderiranje.

Nakon što je Hayssam Keilany uspio implementirati tehnike praćenja putanje u stvarnom vremenu u shadere za igre poput GTA IV prije pola desetljeća, Epic je konačno pojačao svoju igru ​​i uspio postići realistično osvjetljenje u stvarnom vremenu putem praćenja zraka za višeprolazni izvor svjetla i sjene.

Epic je demonstrirao ovu tehniku ​​kratkim filmom Star Wars.

Praćenje zraka u stvarnom vremenu može biti vrlo naporno, pa se Epic udružio s Nvidijom i Microsoftom kako bi razvio novi API nazvan DXR, koji je DirectX cjevovod za praćenje zraka koji komunicira izravno s GPU-om za izvođenje složenih zadataka osvjetljenja i shadera koristeći hardver -ovisna tehnologija nazvana RTX.

Prema Epic Gamesu, vidjet ćemo neke igre objavljene kasnije ove godine koje će koristiti Microsoftovu DXR tehnologiju i Epic Gamesove nove kanale praćenja zraka.

Ostale vijesti iz industrije