Programiranje

Kaj so deepfakes? AI, ki zavaja

Globoke ponaredke so mediji - pogosto video, včasih pa tudi zvočni -, ki so bili ustvarjeni, spremenjeni ali sintetizirani s pomočjo globokega učenja, da bi poskušali nekatere gledalce ali poslušalce prevarati, da verjamejo v lažni dogodek ali lažno sporočilo.

Izvirni primer deepfake (uporabnik reddit / u / deepfake) je v video posnetku obraz igralke zamenjal s telesom porno izvajalca - kar je bilo seveda povsem neetično, čeprav sprva ni bilo nezakonito. Drugi deepfakeji so spremenili to, kar so govorili znani ljudje, ali jezik, ki so ga govorili.

Deepfakes razširijo idejo o video (ali filmskem) komponiranju, ki se izvaja že desetletja. V videokomponiranje gre veliko video spretnosti, časa in opreme; video globoki ponaredki zahtevajo veliko manj spretnosti, časa (ob predpostavki, da imate grafične procesorje) in opreme, čeprav so skrbnim opazovalcem pogosto neprepričljivi.

Kako ustvariti deepfakes

Prvotno so se deepfakes zanašali na avtokoderje, vrsto nenadzorovane nevronske mreže, in mnogi še vedno. Nekateri ljudje so to tehniko izpopolnili z uporabo GAN-ov (generativnih kontradiktornih mrež). Za globoke ponaredke so bile uporabljene tudi druge metode strojnega učenja, včasih v kombinaciji z metodami ne-strojnega učenja z različnimi rezultati.

Samodejni kodirniki

V bistvu samodejni kodirniki za globoko ponarejene obraze na slikah izvajajo dvostopenjski postopek. Prvi korak je uporaba nevronske mreže za izločanje obraza iz izvorne slike in njegovo kodiranje v nabor funkcij in po možnosti masko, običajno z uporabo več dvoslojnih zvitkovnih slojev, nekaj gostih slojev in mehke plasti. Drugi korak je uporaba druge nevronske mreže za dekodiranje lastnosti, povečanje generiranega obraza, obračanje in spreminjanje obraza po potrebi ter uporabo nadgrajenega obraza na drugo sliko.

Usposabljanje avtokoderja za generiranje obraza z globokim lažjem zahteva veliko slik izvornih in ciljnih obrazov z več vidikov in v različnih svetlobnih pogojih. Brez grafičnega procesorja lahko usposabljanje traja tedne. Z grafičnimi procesorji gre veliko hitreje.

GAN

Generativna kontradiktorna omrežja lahko izboljšajo rezultate avtokoderjev, na primer tako, da dve nevronski mreži nasprotujeta druga drugi. Generativno omrežje poskuša ustvariti primere, ki imajo enake statistike kot izvirnik, medtem ko diskriminacijsko omrežje poskuša zaznati odstopanja od prvotne distribucije podatkov.

Izobraževanje GAN-ov je zamudna iterativna tehnika, ki močno poveča stroške v računskem času pri samodejnih kodirnikih. Trenutno so GAN-i bolj primerni za ustvarjanje realističnih posnetkov posameznih slik namišljenih ljudi (npr. StyleGAN) kot za ustvarjanje globokih videoposnetkov. To bi se lahko spremenilo, saj postaja strojna oprema za globoko učenje hitrejša.

Kako zaznati deepfake

V začetku leta 2020 je konzorcij AWS, Facebooka, Microsofta, Usmerjevalnega odbora za integriteto medijev AI in akademikov zgradil Deepfake Detection Challenge (DFDC), ki je na Kaggleu deloval štiri mesece.

Natečaj je vključeval dve dobro dokumentirani prototipni rešitvi: uvod in začetni komplet. Zmagovalna rešitev Selima Seferbekova ima tudi dokaj dober zapis.

Podrobnosti o rešitvah vas bodo prešinile, če se ne ukvarjate z globokimi nevronskimi mrežami in obdelavo slik. V bistvu je zmagovalna rešitev izvedla zaznavanje obrazov po kadrih in izvlekla indeksne maske SSIM (Strukturna podobnost). Programska oprema je odkrila obraze in 30-odstotno mejo, za kodiranje (klasifikacija) pa je uporabila sistem EfficientNet B7, predhodno usposobljen na ImageNet. Rešitev je zdaj odprtokodna.

Na žalost je tudi zmagovalna rešitev lahko zajela le približno dve tretjini globokih ponaredkov v testni bazi podatkov DFDC.

Aplikacije za globoko ustvarjanje in zaznavanje

Trenutno ena najboljših odprtokodnih aplikacij za ustvarjanje globokih videoposnetkov je Faceswap, ki temelji na prvotnem algoritmu deepfake. Pisatelj Ars Technice Tim Lee je dva tedna z uporabo Faceswap ustvaril globoko ponaredko, ki je zamenjala obraz podpoveljnika Data (Brent Spiner) izZvezdne steze: Naslednja generacija v videoposnetek Marka Zuckerberga, ki priča pred kongresom. Kot je značilno za deepfakes, rezultat ne prestane preizkusa njuhanja za tiste s pomembno grafično prefinjenostjo. Torej, stanje globokih ponaredkov še vedno ni zelo dobro, z redkimi izjemami, ki so bolj odvisne od spretnosti "umetnika" kot tehnologije.

To je nekoliko tolažilno, saj tudi zmagovalna rešitev za zaznavanje DFDC ni zelo dobra. Medtem je Microsoft objavil, vendar od izdaje tega dokumenta še ni izdal Microsoft Video Authenticator. Microsoft pravi, da lahko Video Authenticator analizira fotografijo ali videoposnetek, da zagotovi odstotno verjetnost ali oceno zaupanja, da se z mediji umetno manipulira.

Video Authenticator je bil testiran glede na nabor podatkov DFDC; Microsoft še ni poročal, kako boljši je kot Seferbekova zmagovalna rešitev Kaggle. Za sponzorja natečaja AI bi bilo značilno, da nadgradi in izboljša zmagovalne rešitve natečaja.

Facebook obljublja tudi detektor globokih ponaredkov, vendar namerava držati izvorno kodo zaprto. Ena težava pri odprtokodnih detektorjih globokega ponarejanja, kot je Seferbekov, je ta, da lahko razvijalci generacij globokih ponaredkov detektor uporabijo kot diskriminator v GAN, da zagotovijo, da bo ponaredek prešel ta detektor in sčasoma spodbudi oboroževalno tekmo med umetnimi umetnimi sredstvi in ​​generatorji globokih ponaredkov.

Na zvočnem delu lahko Descript Overdub in Adobe, vendar še neobjavljeni VoCo, besedilo v govor približata realističnemu. Overdub trenirate približno 10 minut, da ustvarite sintetično različico svojega glasu; Ko ste enkrat usposobljeni, lahko svoje glasovne predloge urejate kot besedilo.

Sorodna tehnologija je Google WaveNet. Glasovi, sintetizirani z WaveNetom, so bolj realistični od običajnih glasov pretvorbe besedila v govor, čeprav niso povsem na ravni naravnih glasov, glede na Googlovo lastno testiranje. Glasove WaveNet ste slišali, če ste pred kratkim uporabljali glasovni izhod iz Pomočnika Google, Iskanja Google ali Google Prevajalnika.

Globoke nalepke in pornografija brez privolitve

Kot sem že omenil, je prvotni deepfake v igralki zamenjal obraz igralke na telo porno izvajalke. Reddit je od takrat prepovedal podreddit / r / deepfake, ki je gostil to in druge pornografske deepfakeje, saj je bila večina vsebine pornografije brez privolitve, ki je zdaj vsaj v nekaterih jurisdikcijah nezakonita.

Še en pod-Reddit za ne-pornografski deepfakes še vedno obstaja na / r / SFWdeepfakes. Medtem ko prebivalci tega pod-Reddita trdijo, da dobro delajo, boste morali sami presoditi, ali ima, na primer, videz obraza Joeja Bidena, ki je slabo posnet v telo Roda Serlinga, kakšno vrednost - in ali kateri od globokih ponaredkov tam mine preizkus njuhanja za verodostojnost. Po mojem mnenju se nekateri približajo temu, da se prodajo kot resnične; večino lahko dobrodejno opišemo kot surove.

Prepoved / r / deepfake seveda ne odpravlja pornografije brez soglasja, ki ima lahko več motivacij, vključno z maščevalno pornografijo, ki je v ZDA zločin. Druga spletna mesta, ki so prepovedala globoke ponaredke brez privolitve, vključujejo Gfycat, Twitter, Discord, Google in Pornhub ter končno (po dolgem vlečenju nog) Facebook in Instagram.

V Kaliforniji imajo posamezniki, ki so usmerjeni proti spolno eksplicitni globoko ponarejeni vsebini, izdelani brez njihovega soglasja, tožbo proti njenemu ustvarjalcu. Tudi v Kaliforniji je prepovedana distribucija zlonamernih avdio ali vizualnih medijev, namenjenih kandidatu, ki kandidira za javno funkcijo, v 60 dneh po njihovi izvolitvi. Kitajska zahteva, da se globoke ponaredke kot take jasno označijo.

Globoke fake v politiki

Številne druge jurisdikcije pomanjkanje zakoni proti političnim globokim ponaredkom. To je lahko zaskrbljujoče, še posebej, če se visokokakovostni globoki ponaredki političnih osebnosti širijo. Bi bil globoki ponaredek Nancy Pelosi slabši od običajnega upočasnjenega videoposnetka, s katerim Pelosi manipulira, da bi se slišalo, kot da neješča svoje besede? Lahko bi bil, če bi bil dobro izdelan. Na primer, glejte ta videoposnetek CNN, ki se osredotoča na globoke ponaredke, pomembne za predsedniško kampanjo leta 2020.

Globoke ponaredeke kot izgovori

"Gre za globoko ponarejanje" je tudi možen izgovor za politike, ki so pricurljali resnični, neprijetni videoposnetki. To se je pred kratkim zgodilo (ali naj bi se zgodilo) v Maleziji, ko je minister za gospodarske zadeve homoseksualni trak zavrnil kot globoko ponarejeno, čeprav je drugi moški, prikazan v traku, prisegel, da je resničen.

Na drugi strani je razporeditev verjetnega amaterskega globokega ponarejanja obolelega predsednika Gabona Alija Bonga prispevala k nadaljnjemu vojaškemu udaru proti Bongu. Video o deepfakeu je vojski odkril, da je nekaj narobe, še bolj kot Bongova dolgotrajna odsotnost iz medijev.

Več primerov deepfake

Nedavni deepfake video posnetka All Star, klasika Smash Mouth iz leta 1999, je primer manipulacije z videoposnetkom (v tem primeru mešanjem iz priljubljenih filmov) za ponarejanje sinhronizacije ustnic. Ustvarjalec, uporabnik YouTuba ontyj, ugotavlja, da se je "odnesel na testiranje wav2lip in zdaj to obstaja ..." Zabavno je, čeprav ni prepričljivo. Kljub temu kaže, kako boljše je bilo lažno gibanje ustnic. Pred nekaj leti je bilo nenaravno gibanje ustnic običajno mrtva podelitev lažnega videa.

Lahko bi bilo še huje. Oglejte si ta posnet video posnetka predsednika Obame kot tarče in Jordana Peeleja kot voznika. Zdaj pa si predstavljajte, da ni vključeval nobenega konteksta, ki bi ga razkrival kot ponarejenega, in vključeval spodbuden poziv k dejanju.

Ste že prestrašeni?

Preberite več o strojnem učenju in globokem učenju:

  • Poglobljeno učenje v primerjavi s strojnim učenjem: Razumevanje razlik
  • Kaj je strojno učenje? Inteligenca, pridobljena iz podatkov
  • Kaj je globoko učenje? Algoritmi, ki posnemajo človeške možgane
  • Razloženi algoritmi strojnega učenja
  • Razloženo avtomatizirano strojno učenje ali AutoML
  • Razloženo nadzorovano učenje
  • Pojasnjeno polnadzorovano učenje
  • Razloženo nenadzorovano učenje
  • Razloženo učenje okrepitve
  • Kaj je računalniški vid? AI za slike in video
  • Kaj je prepoznavanje obrazov? AI za Big Brother
  • Kaj je obdelava naravnega jezika? AI za govor in besedilo
  • Kaggle: Kje se podatkovni znanstveniki učijo in tekmujejo
  • Kaj je CUDA? Vzporedna obdelava za grafične procesorje
$config[zx-auto] not found$config[zx-overlay] not found