Obsah:
Video: therunofsummer (November 2024)
Koncom roku 2017 základná doska informovala o technológii AI, ktorá dokáže vo videách vymieňať tváre. V tom čase táto technológia - neskôr nazývaná hlboké falzy - priniesla surové, zrnité výsledky a väčšinou sa používala na vytváranie falošných porno videí s celebritami a politikmi.
O dva roky neskôr táto technológia ohromne pokročila a je ťažké ju odhaliť voľným okom. Spolu s falošnými správami sa kované videá stali problémom národnej bezpečnosti, najmä keď sa blížia prezidentské voľby do roku 2020.
Odkedy sa objavili hlboké fajčenie, niekoľko organizácií a spoločností vyvinulo technológie na detekciu videí s narušenou AI. Ale existuje obava, že jedného dňa nebude možné detekovať technológiu hlbokých podvodov.
Vedci z University of Surrey vyvinuli riešenie, ktoré by mohlo problém vyriešiť: namiesto zisťovania toho, čo je nepravdivé, sa ukáže, čo je pravda. Technológia s názvom Archangel, ktorá sa má predstaviť na nadchádzajúcej konferencii o počítačovom videní a rozpoznávaní vzorov (CVPR), využíva AI a blockchain na vytvorenie a registráciu digitálneho odtlačku prsta chráneného pred autentickými videami. Odtlačok prsta sa môže použiť ako referenčný bod na overenie platnosti médií distribuovaných online alebo vysielaných v televízii.
Použitie AI na podpisovanie videí
Klasickým spôsobom, ako dokázať pravosť binárneho dokumentu, je použitie digitálneho podpisu. Vydavatelia spustia svoj dokument pomocou kryptografického algoritmu, ako sú SHA256, MD5 alebo Blowfish, ktorý vytvára „hash“, krátky reťazec bajtov, ktorý predstavuje obsah daného súboru a stáva sa jeho digitálnym podpisom. Spustenie toho istého súboru pomocou hashovacieho algoritmu môže kedykoľvek vytvoriť rovnaký hash, ak sa jeho obsah nezmenil.
Hash sú citlivé na zmeny v binárnej štruktúre zdrojového súboru. Keď upravíte jeden bajt v hashovanom súbore a znova ho spustíte pomocou algoritmu, vytvorí sa úplne iný výsledok.
Aj keď hash funguje dobre pre textové súbory a aplikácie, predstavuje výzvu pre videá, ktoré je možné uložiť v rôznych formátoch, podľa Johna Collomosseho, profesora počítačového videnia na University of Surrey a vedúceho projektu pre Archanjela.
„Chceli sme, aby bol podpis rovnaký bez ohľadu na kodek, s ktorým sa video komprimuje, “ hovorí Collomosse. „Ak vezmem svoje video a skonvertujem ho z, povedzme, z MPEG-2 na MPEG-4, potom bude mať tento súbor úplne inú dĺžku a bity sa úplne zmenia, čo spôsobí odlišné hashovanie. Čo sme potrebovali bol hashovací algoritmus zameraný na obsah. ““
Na vyriešenie tohto problému Collomosse a jeho kolegovia vyvinuli hlbokú neurónovú sieť, ktorá je citlivá na obsah videa. Hlboké neurónové siete sú typom konštrukcie AI, ktorá rozvíja svoje správanie analýzou obrovského množstva príkladov. Zaujímavé je, že neurónové siete sú tiež technológiou v centre hlbokých falzifikátov.
Pri vytváraní hlbokých záberov vývojár napája sieť obrázkami tváre subjektu. Neurónová sieť sa učí rysy tváre a pri dostatočnom zaškolení sa stáva schopná nájsť a zameniť tváre v iných videách s tvárou subjektu.
Neurónová sieť archanjela je trénovaná na videu, ktoré je odtlačené. „Sieť sa pozerá skôr na obsah videa než na jeho základné bity a bajty, “ hovorí Collomosse.
Po zaškolení, keď spustíte nové video v sieti, overí ho, keď obsahuje rovnaký obsah ako zdrojové video, bez ohľadu na jeho formát a odmietne ho, keď ide o iné video alebo ak sa s ním manipulovalo alebo upravovalo.
Podľa Collomosse táto technológia dokáže zistiť priestorové aj časové zasahovanie. Územné zásahy sú zmeny vykonané v jednotlivých rámcoch, napríklad úpravy výmeny tváre vykonané pri hlbokých falzifikátoch.
Hlboké falošné zvuky však nie sú jediným spôsobom, ako sa dá s videom manipulovať. Menej diskutované, ale rovnako nebezpečné sú úmyselné zmeny v postupnosti snímok a v rýchlosti a trvaní videa. Nedávne, veľmi rozšírené narušené video z domáceho hovorcu Nancy Pelosi nevyužívalo hlboké falošné zvuky, ale vzniklo opatrným používaním jednoduchých techník úpravy, vďaka ktorým sa zdala byť zmätená.
„Jednou z foriem manipulácie, ktorú môžeme zistiť, je odstránenie krátkych segmentov videa. Sú to dočasné tampéry. A dokážeme zistiť až tri sekundy manipulácie. Takže, ak je video niekoľko hodín dlhé a jednoducho odstránite tri sekundy tohto videa to môžeme zistiť, “hovorí Collomosse a dodal, že Archanjel tiež odhalí zmeny rýchlosti pôvodného videa, ako sa to stalo vo videu Pelosi.
Registrácia odtlačkov prstov na blockchain
Druhou súčasťou projektu Archangel je blockchain, databáza chránená pred neoprávnenou manipuláciou, kde je možné ukladať, ale nemeniť nové informácie - ideálne pre video archívy, ktoré po registrácii nevykonávajú zmeny vo videách.
Technológia Blockchain je základom digitálnych mien, ako sú bitcoín a éter. Je to digitálna kniha vedená niekoľkými nezávislými stranami. Väčšina strán sa musí dohodnúť na zmenách v blockchainu, čo znemožňuje jednostranne zasahovať ktorúkoľvek stranu do knihy.
Je technicky možné zaútočiť a zmeniť obsah blockchainu, ak s ním padne viac ako 50 percent jeho účastníkov. V praxi je to však mimoriadne ťažké, najmä ak je blockchain udržiavaný mnohými nezávislými stranami s rôznymi cieľmi a záujmami.
Archandel's blockchain sa trochu líši od verejných blockchainov. Po prvé, nevytvára kryptomenu a ukladá iba identifikátor, odtlačok prsta s obsahom a binárny hash overovacej neurónovej siete pre každé video v archíve (blockchainy nie sú vhodné na ukladanie veľkého množstva údajov, čo je dôvod, prečo samotné video a neurónová sieť sú uložené mimo reťazca).
Je to tiež povolený alebo „súkromný“ blockchain. To znamená, že na rozdiel od bitcoinových blockchainov, kde každý môže zaznamenávať nové transakcie, môžu len nové strany ukladať nové záznamy na blockchain Archanjela iba s povolením.
Archanjel je v súčasnosti skúšaný sieťou archívov národnej vlády z Veľkej Británie, Estónska, Nórska, Austrálie a USA: Aby bolo možné ukladať nové informácie, musí každá zúčastnená krajina doplnok doplniť. Zatiaľ čo iba národné archívy zúčastnených krajín majú právo pridávať záznamy, všetci ostatní majú prístup k informáciám o prístupe k čítaniu a môžu ich použiť na overenie platnosti iných videí proti archívu.
- Využitie AI a strojového učenia, Deepfakes, teraz ťažšie detekovateľné AI a strojové učenie, exploit, Deepfakes, teraz ťažšie detekovateľné
- Deepfake videá sú tu, a nie sme pripravení Deepfake videá sú tu, a nie sme pripravení
- Nové AI od spoločnosti Adobe detekuje tváre Photoshoppedu Nové AI od spoločnosti Adobe detekuje tváre Photoshoppedu
„Toto je aplikácia blockchainu pre verejné blaho, “ hovorí Collomosse. „Podľa môjho názoru je jediným dôvodom použitia blockchainu, keď máte nezávislé organizácie, ktoré si navzájom nevyhnutne nedôverujú, ale majú tento osobný záujem na tomto spoločnom cieli vzájomnej dôvery. A to, čo hľadáme, je urobiť zabezpečili národné archívy vlády na celom svete, aby sme pomocou tejto technológie mohli prepísať ich integritu. ““
Pretože vytváranie kovaných videí je čoraz ľahšie, rýchlejšie a dostupnejšie, každý bude potrebovať všetku pomoc, ktorú môže získať, aby zabezpečil integritu svojich archívov videa, najmä vlád.
„Myslím, že hlboké falzifikáty sú takmer ako preteky v zbrojení, “ hovorí Collomosse. „Pretože ľudia produkujú čoraz presvedčivejšie hlboké chvenia a jedného dňa ich môže byť nemožné ich odhaliť. Preto je najlepšie, čo môžete urobiť, skúsiť dokázať pôvod videa.“