Hirdetés

iOS app segít arckifejezéseket rögzíteni az Unreal Engine-nek

|

A játékmotor az Apple ARKit és az iPhone TrueDepth kamerájának segítségével teszi még élethűbbé a mozgásrögzítés technológiáját.

Hirdetés

A mozgásrögzítés, avagy motion capture jó ideje része a játékok, valamint animált filmek világának. Különféle technológiák, szoftverek és hardverek jelentek meg, amelyek arra szolgálnak, hogy valós karakterek mozgását digitális adattá alakítsák, hogy aztán ezek alapján lehessen animálni virtuális karaktereket. Jar-Jar Binkstől Gollamon át sokféle megvalósítást láttunk már, de eddig a mo-cap terén mindig volt egy komoly akadály.

Hirdetés

Ezt pedig az jelentette, hogy ugyan az emberek mozgását egyre szebben és részletesebben lehet rögzíteni, az arc változásaihoz kifejezetten komoly megoldásokat kellett bevetni. A mimika rögzítéséhez a színészek arcát tele kellett ragasztgatni érzékelőkkel, majd bonyolult eszközökkel és eljárásokkal követni ezek mozgását, ráadásul még ez is viszonylag "darabos" eredményt adott, hiszen az nehezen megoldható, hogy milliméterenként kerüljenek érzékelők a szájakra, orrokra, szemekre és egyéb helyekre.

Az Epic Games újonnan megjelent iOS appja viszont most "földközelbe" hozza a motion capture eme szegletét is. Az ígéretek szerint innentől nem kell semmiféle bonyolult felszerelés a mimika rögzítéséhez, csak egy iPhone X vagy ennél újabb Apple mobil, amely támogatja az ARKit kiterjesztett valóság platformot, valamint rendelkezik TrueDepth mélységérzékelős kamerával. Az új funkció használatához a Live Link Face appot kell letölteni az App Store-ból, és már kezdhetik is az Unreal Engine-t használók az arckifejezések felvételét.

Az Apple AR-technológiáját már mások is használták hasonló, bár persze nem ilyen széles körben alkalmazható feladatra. 2018-ban például megjelent a Walking Dead AR-játék, amelyben hasonlóképpen alkothattunk arckifejezéseket a játékbeli karakterek számára. Viszont azzal, hogy a funkciót most beemelték az Unreal Engine-be, játékok ezrei készülhetnek gyorsabban, hatékonyabban és persze ilyen téren olcsóbban is.

Az Epic szerint az app használata kifejezetten könnyű, és felkészítették arra, hogy steril környezettől egészen a szabadtérig jól érzékelje az arcok változásait, akár "kézből", akár pedig a mocap-színész arca elé rögzített módon. Az alkalmazás távirányítható, és akár több iPhone-t is lehet egyszerre vezérelni a még jobb hatás kedvéért. Ha fejlesztő vagy és érdekel a technológia pontos működése, a dokumentációt megtalálod az Unreal Engine aloldalán.

Hirdetés
Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Ne maradj le a legfontosabb hírekről! Engedélyezd az értesítéseket, cserébe elsőként tudod meg, ha bejelentik a Half-Life 3-at! (Nem spamelünk, becsszó!)