Popolne lažne videoposnetke bo prepoznala umetna inteligenca
Popolne lažne videoposnetke bo prepoznala umetna inteligenca

Video: Popolne lažne videoposnetke bo prepoznala umetna inteligenca

Video: Popolne lažne videoposnetke bo prepoznala umetna inteligenca
Video: Teen Titans GO! To The Movies Exclusive Clip | Time Cycles | @dckids - YouTube 2024, Marec
Anonim
Premiera opere o zastrupitvi Litvinenka se začne v Angliji
Premiera opere o zastrupitvi Litvinenka se začne v Angliji

Pred letom dni je Stanfordova Manish Agrawala pomagala razviti tehnologijo za sinhronizacijo ustnic, ki je video urednikom omogočala skoraj neopazno spreminjanje besed govorcev. Orodje lahko zlahka vstavi besede, ki jih oseba ni govorila, niti sredi stavka, ali izbriše besede, ki jih je izrekel. S prostim očesom in celo mnogim računalniškim sistemom bo vse videti realno.

To orodje je veliko olajšalo odpravljanje napak brez ponovnega snemanja celotnih prizorov, prilagodilo pa je tudi TV-oddaje ali filme za različno občinstvo na različnih mestih. Toda ta tehnologija je ustvarila tudi moteče nove priložnosti za težko najti lažne videoposnetke z jasnim namenom popačiti resnico. Na primer, nedavni republikanski videoposnetek je za intervju z Joejem Bidenom uporabil bolj grobo tehniko.

To poletje so Agrawala in sodelavci na Stanfordu in UC Berkeley predstavili pristop k tehnologiji sinhronizacije ustnic, ki temelji na umetni inteligenci. Novi program natančno zazna več kot 80 odstotkov ponaredkov in prepozna najmanjša odstopanja med zvoki ljudi in obliko njihovih ust.

A Agrawala, direktor Stanfordskega inštituta za medijske inovacije in profesor računalništva na Forest Baskettu, ki je prav tako povezan z Stanfordskim inštitutom za umetno inteligenco, osredotočeno na človeka, opozarja, da za globoke ponaredke ni dolgoročne tehnične rešitve.

Kako ponaredki delujejo

Obstajajo upravičeni razlogi za video manipulacijo. Na primer, vsak, ki snema izmišljeno TV -oddajo, film ali reklamo, lahko prihrani čas in denar z uporabo digitalnih orodij za odpravljanje napak ali prilagajanje scenarijev.

Težava nastane, ko se ta orodja namerno uporabljajo za širjenje lažnih informacij. Mnoge tehnike so povprečnemu gledalcu nevidne.

Številni ponarejeni videoposnetki se opirajo na zamenjavo obrazov in dobesedno prekrivajo obraz ene osebe na videoposnetku druge osebe. Čeprav so orodja za spreminjanje obrazov lahko prepričljiva, so relativno groba in običajno pustijo digitalne ali vizualne artefakte, ki jih računalnik lahko zazna.

Po drugi strani so tehnologije sinhronizacije ustnic manj vidne in jih je zato težje zaznati. Upravljajo z veliko manjšim delom slike in nato sintetizirajo gibe ustnic, ki se natančno ujemajo s tem, kako bi se usta osebe dejansko premaknila, če bi govorila določene besede. Agrawal pravi, da lahko lažni producent, če ima dovolj vzorcev človekove podobe in glasu, "reče" karkoli.

Odkrivanje ponaredkov

Zaskrbljen zaradi neetične uporabe takšne tehnologije je Agrawala sodeloval z Ohadom Freedom, doktorskim študentom na Stanfordu, pri razvoju orodja za odkrivanje; Hani Farid, profesor na Kalifornijski univerzi, Berkeley School of Information; in Shruti Agarwal, doktorandka na Berkeleyju.

Sprva so raziskovalci eksperimentirali s čisto ročno tehniko, v kateri so opazovalci preučevali video posnetke. Delovalo je dobro, v praksi pa je bilo delovno intenzivno in dolgotrajno.

Raziskovalci so nato preizkusili nevronsko mrežo, ki temelji na umetni inteligenci, po kateri bi po analizi video posnetkov z nekdanjim predsednikom Barackom Obamo opravili isto analizo. Nevronsko omrežje je zaznalo več kot 90 odstotkov Obamove sinhronizacije ustnic, čeprav je natančnost drugih zvočnikov padla na približno 81 odstotkov.

Pravi preizkus resnice

Raziskovalci pravijo, da je njihov pristop le del igre mačke in miši. Ko se tehnike globokega ponarejanja izboljšajo, bodo pustile še manj ključev.

Na koncu pravi Agrawala, da resnična težava ni toliko v boju z globoko ponarejenimi videoposnetki, kot v boju proti dezinformacijam. Dejansko, ugotavlja, veliko napačnih informacij izhaja iz popačenja pomena tega, kar so ljudje dejansko povedali.

"Za zmanjšanje dezinformacij moramo izboljšati medijsko pismenost in razviti sisteme odgovornosti," pravi. "To lahko pomeni zakone, ki prepovedujejo namerno ustvarjanje napačnih informacij in posledice njihovega kršenja, pa tudi mehanizme za odpravo nastale škode."

Priporočena: