A magyarra kamuvideókként fordított deepfakes mélytanulással (deep learning) készült manipulált és félrevezető mozgóképek. Készítőik általában valakinek, főként hírességeknek a fejét rakják rá meglévő videóra, és az illetővel olyasmi esik meg, ami nagy valószínűséggel soha nem történt meg vele.
A technológia a napokban szintet lépett, immáron nem csak a fej, hanem az egész test másolható mozgóképekre. Teniszezünk, baseballozunk, hegyet mászunk, és ott sem vagyunk… A Heidelberg Egyetemen kidolgozott megoldás egyelőre nem tökéletes, de folyamatosan finomhangolják.
Képzeljük el: teniszezés közbeni kamuvideót akarunk magunkról. Az eddigi iterációk korlátozottak voltak, a készítők csak az eredeti anyagon látható játékos mozgását tudták használni. Az igazit láthattuk, annyi különbséggel, hogy a fejét a miénkre cserélték.
Az új algoritmus felszámolja az ellentétet. Képeink alapján, ruhástól, ütőstől, mindenestől megtanulja, hogyan nézünk ki, és a profi teniszezőre, de akár szimulált virtuális környezetbe is helyez minket. Utóbbiban karunk és lábunk úgy mozog, mint a marionettfiguráké.
A külső modellezéséhez a rendszernek nem kell minden szögből látnia az illetőt, mert a környezet megértésével kitalálja, hogyan mutatnánk különböző nézőpontokból.
A fejlesztők el vannak ragadtatva, mert technikájuk forradalmasíthatja a videojátékokat és a rajzfilmeket. Mások viszont, legalábbis potenciálisan a politikai manipuláció és egyéb kétes tevékenységek újabb eszközét látják benne.
„A képszintézis területén bármely fejlesztésben benne van a rosszindulatú alkalmazás lehetősége. A kamu és az igazi megkülönböztetése viszont könnyebb, mint ezeknek a képeknek az előállítása. A kamuvideókkal együtt fejlődnek az azokat detektáló technológiák” – magyarázza Björn Ommer, az egyik heidelbergi kutató.
Az új szimulációk még gyengécskék, például az árnyékok nem igazodnak a fényviszonyokhoz stb. Ommer szerint pontosan ezeket a hibákat észlelik a kamuvideókat detektáló algoritmusok, és megállapítják, hogy az anyag nem valódi.
Utóbbiak sikeréhez viszont az kell, hogy ugyanazzal a technikával tanuljanak, gyakoroljanak, mint a megtévesztő videókat generáló algoritmusok.
Kérdés, hogy meddig lesznek hibák.