A mesterséges intelligencia felismeri a tökéletes hamis videókat
A mesterséges intelligencia felismeri a tökéletes hamis videókat

Videó: A mesterséges intelligencia felismeri a tökéletes hamis videókat

Videó: A mesterséges intelligencia felismeri a tökéletes hamis videókat
Videó: Teen Titans GO! To The Movies Exclusive Clip | Time Cycles | @dckids - YouTube 2024, Április
Anonim
Angliában kezdődik a Litvinyenko megmérgezéséről szóló opera premierje
Angliában kezdődik a Litvinyenko megmérgezéséről szóló opera premierje

Egy évvel ezelőtt a stanfordi Manish Agrawala segített az ajak-szinkronizáló technológia kifejlesztésében, amely lehetővé tette a videószerkesztők számára, hogy szinte észrevétlenül megváltoztassák a beszélők szavait. Az eszköz könnyen beszúrhat olyan szavakat, amelyeket egy személy soha nem mondott, még a mondat közepén sem, vagy törölheti az általa mondott szavakat. Szabad szemmel minden valósághűnek tűnik, sőt sok számítógépes rendszer számára is.

Ez az eszköz sokkal könnyebbé tette a hibák kijavítását anélkül, hogy teljes jeleneteket újra felvenne, és TV-műsorokat vagy filmeket is adaptált a különböző közönségek számára különböző helyeken. De ez a technológia zavaró új lehetőségeket is teremtett a nehezen megtalálható hamis videók számára, egyértelmű szándékkal, hogy elferdítse az igazságot. Például egy friss republikánus videó durvább technikát használt Joe Bidennel készített interjúhoz.

Ezen a nyáron Agrawala és munkatársai a Stanfordban és az UC Berkeley-ben bemutatták az ajakszinkron technológia mesterséges intelligencián alapuló megközelítését. Az új program pontosan felismeri a hamisítványok több mint 80 százalékát, felismerve a legkisebb eltéréseket az emberek hangjai és a szájuk formája között.

Agrawala, a Stanford Médiainnovációs Intézet igazgatója és a Forest Baskett informatika professzora, aki szintén a Stanfordi Emberközpontú Mesterséges Intelligencia Intézethez tartozik, arra figyelmeztet, hogy a mély hamisítványokra nincs hosszú távú technikai megoldás.

Hogyan működnek a hamisítványok

A videó manipulációnak jogos okai vannak. Például aki kitalált tévéműsort, filmet vagy reklámfilmet forgat, időt és pénzt takaríthat meg, ha digitális eszközöket használ a hibák kijavítására vagy a forgatókönyvek testreszabására.

A probléma akkor merül fel, amikor ezeket az eszközöket szándékosan használják hamis információk terjesztésére. És sok technika láthatatlan az átlag néző számára.

Sok mély hamis videó arccserére támaszkodik, szó szerint ráhelyezve egy személy arcát egy másik személy videójára. De bár az arcváltó eszközök lenyűgözőek lehetnek, viszonylag nyersek, és általában olyan digitális vagy vizuális műtermékeket hagynak maguk után, amelyeket a számítógép képes észlelni.

Másrészt az ajakszinkronizációs technológiák kevésbé láthatók, ezért nehezebben észlelhetők. A kép sokkal kisebb részét manipulálják, majd olyan ajakmozgásokat szintetizálnak, amelyek pontosan illeszkednek ahhoz, hogy az ember szája valójában hogyan mozogna, ha bizonyos szavakat mondana. Agrawal szerint, ha elegendő mintát kapunk egy személy képéről és hangjáról, egy hamis producer bármit „mondhat”.

Hamisítás felderítése

Aggressala aggodalmát fejezte ki az ilyen technológia etikátlan alkalmazása miatt, és Ohad Freeddel, a Stanford doktoranduszával együtt dolgozott ki egy észlelési eszközt; Hani Farid, a Kaliforniai Egyetem Berkeley School of Information professzora; és Shruti Agarwal, a Berkeley doktorandusz hallgatója.

A kutatók először pusztán manuális technikával kísérleteztek, amelyben a megfigyelők videofelvételeket tanulmányoztak. Jól működött, de a gyakorlatban munkaigényes és időigényes volt.

A kutatók ezután teszteltek egy mesterséges intelligencián alapuló ideghálózatot, amely sokkal gyorsabb lenne ugyanezt az elemzést elvégezni, miután Barack Obama volt elnökkel videón edzettek. A neurális hálózat kimutatta Obama saját ajakszinkronjának több mint 90 százalékát, bár a többi hangszóró pontossága körülbelül 81 százalékra csökkent.

Igazi próbatétel az igazságról

A kutatók szerint megközelítésük csak a macska és egér játék része. A mélyhamisítási technikák javulásával még kevesebb kulcsot hagynak maguk után.

Agrawala szerint az igazi probléma nem annyira a mélyen hamis videók elleni küzdelem, mint a dezinformáció elleni küzdelem. Valójában megjegyzi, hogy a téves információk nagy része abból adódik, hogy eltorzítják az emberek által mondottak jelentését.

"A téves információk csökkentése érdekében javítanunk kell a médiaműveltséget és ki kell dolgoznunk az elszámoltathatósági rendszereket" - mondja. "Ez törvényeket jelenthet, amelyek megtiltják a téves információk szándékos előállítását és azok megsértésének következményeit, valamint mechanizmusokat az ebből eredő károk kiküszöbölésére."

Ajánlott: