Domov obchodné Ai a strojové učenie využívajú, prehlbujú sa, teraz je ťažké ich odhaliť

Ai a strojové učenie využívajú, prehlbujú sa, teraz je ťažké ich odhaliť

Obsah:

Video: I used "deep fakes" to fix the Lion King (Septembra 2024)

Video: I used "deep fakes" to fix the Lion King (Septembra 2024)
Anonim

Keď sa chystáme na ďalšiu sezónu predvolebných prezidentských volieb, budete si musieť dávať pozor na potenciálne nebezpečenstvá, ktoré falošné online videá prinášajú pomocou umelej inteligencie (AI) a strojového učenia (ML). Pomocou softvéru AI môžu ľudia vytvárať hlboké falošné videá (krátke pre „hlboké učenie a falošné“) videá, v ktorých sa algoritmy ML používajú na vykonanie výmeny tváre za účelom vytvorenia ilúzie, že niekto buď povedal niečo, čo nepovedal, alebo je niekým, nie. Videá Deepfake sa objavujú v rôznych oblastiach, od zábavy po politiku až po podnikový svet. Videá, ktoré môžu prehĺbiť falošné správy, môžu nielen ovplyvniť voľby nepravdivými správami, ale môžu priniesť osobné rozpaky alebo spôsobiť zavádzajúce správy o značke, ak napríklad ukážu, že generálny riaditeľ oznamuje uvedenie produktu na trh alebo akvizíciu, ku ktorej skutočne nedošlo.

Deepfakes sú súčasťou kategórie AI s názvom „Generative Adversarial Networks“ alebo „GAN“, v ktorej dve neurónové siete súťažia o vytvorenie fotografií alebo videí, ktoré sa javia skutočné. GAN sa skladajú z generátora, ktorý vytvára novú množinu údajov, ako je falošné video, a diskriminátora, ktorý na syntézu a porovnávanie údajov zo skutočného videa používa algoritmus ML. Generátor sa stále pokúša syntetizovať falošné video so starým, kým diskriminátor nedokáže povedať, že údaje sú nové.

Ako zdôraznil Steve Grobman, hlavný viceprezident spoločnosti McAfee a hlavný technologický riaditeľ (CTO), na konferencii RSA 2019 v marci v San Franciscu, falošné fotografie sa objavili už od vynálezu fotografie. Povedal, že zmena fotografií je jednoduchá úloha, ktorú môžete vykonať v aplikácii, ako je napríklad Adobe Photoshop. Teraz sa však tieto typy pokročilých funkcií úprav prenášajú aj do videa a robia to pomocou vysoko schopných a ľahko prístupných softvérových nástrojov.

Ako sa vytvárajú prehĺbenia

Aj keď je pochopenie konceptov umelej inteligencie užitočné, na zostavenie hlbokého videa nie je potrebné byť vedcom údajov. Podľa Grobmana ide iba o dodržiavanie niektorých pokynov online. Na konferencii RSA 2019 (pozri vyššie uvedené video) predstavil hlboko falošné video spolu s Dr. Celeste Fralickom, hlavným vedcom údajov a hlavným hlavným inžinierom spoločnosti McAfee. Hlboké video ilustrovalo hrozbu, ktorú táto technológia predstavuje. Grobman a Fralick ukázali, ako verejný činiteľ vo videu hovorí, že niečo nebezpečné môže uviesť verejnosť do omylu, keď si myslí, že správa je skutočná.

Na vytvorenie videa si Grobman a Fralick stiahli softvér deepfake. Potom urobili videozáznam Grobmana svedčiaceho pred Senátom USA v roku 2017 a položili Fralickovi ústa na Grobmana.

„Použil som voľne dostupné verejné komentáre tým, že som vytvoril a trénoval ML model, ktorý mi umožnil vyvinúť prehnané video s mojimi slovami vychádzajúcimi z úst, “ povedal Fralick divákom RSA na pódiu. Fralick ďalej uviedol, že prehnané videá by sa mohli použiť na sociálne vykorisťovanie a informačnú vojnu.

Grobman a Fralick použili na vytvorenie svojho hlbokého videa nástroj, ktorý vyvinul používateľ Reddit s názvom FakeApp, ktorý využíva algoritmy ML a fotografie na výmenu tvárí na videách. Počas prezentácie RSA Grobman vysvetlil ďalšie kroky. „Videá sme rozdelili na statické obrázky, vybrali sme tváre a vyčistili sme ich triedením a vyčistili ich na Instagrame.“

Skripty jazyka Python umožnili tímu spoločnosti McAfee budovať pohyby v ústach tak, aby Fralickova reč zodpovedala Grobmanovým ústam. Potom potrebovali napísať nejaké vlastné skripty. Výzvou pri vytváraní presvedčivého hlbokého falošného ochorenia je to, keď sa nezhodujú vlastnosti ako pohlavie, vek a tón pleti, uviedol Grobman.

On a Fralick potom použili konečný algoritmus umelej inteligencie na porovnanie obrázkov Grobmana svedčiaceho pred Senátom s Fralickovou rečou. Grobman dodal, že trénovanie týchto ML algoritmov trvalo 12 hodín.

Spoločnosť McAfee načrtla kroky, ktoré podnikla na vytvorenie hlbokého videa zobrazeného na konferencii RSA 2019. Na zmenu videa Grobmana rečou od Fralicka použil softvér deepfake s názvom FakeApp a školenie ML modelov. (Obrázkový kredit: McAfee).

Dôsledky Deepfakes

Videá, ktoré vytvoril hacker, majú potenciál spôsobiť veľa problémov - všetko od vládnych úradníkov šíriacich falošné dezinformácie až po rozpaky celebrít, že sa nachádzajú vo videách, v ktorých sa skutočne nezúčastňovali, a poškodzujú pozíciu konkurentov na akciovom trhu. Zákonodarcovia si boli vedomí týchto problémov a v septembri zaslali list Danielovi Coatsovi, americkému riaditeľovi národnej spravodajskej služby, v ktorom požiadali o prehodnotenie hrozby, ktorú predstavujú hlboké podvody. List varoval, že krajiny ako Rusko môžu na šírenie falošných informácií použiť na sociálnych médiách hlboké falošné správy. V decembri zákonodarcovia zaviedli zákon o zákaze škodlivého hlbokého falšovania z roku 2018 s cieľom zakázať podvody v súvislosti s „audiovizuálnymi záznamami“, ktoré sa týkajú hlbokých podvodov. Zostáva zistiť, či návrh zákona prebehne.

Ako už bolo spomenuté, celebrity môžu trpieť rozpakmi z videí, v ktorých boli ich tváre prekrývané s tvárami pornohviezd, ako tomu bolo v prípade Gal Gadota. Alebo si predstavte generálneho riaditeľa, ktorý údajne oznamuje správy o produktoch a potápa zásoby spoločnosti. Odborníci v oblasti bezpečnosti môžu použiť ML na detekciu týchto typov útokov, ale ak nebudú odhalení včas, môžu krajine alebo značke spôsobiť zbytočné poškodenie.

„Ak použijete funkciu deepfakes, ak viete, čo robíte a viete, na koho sa chcete zamerať, môžete skutočne prísť s presvedčivým videom, ktoré spôsobí značnú škodu značke, “ povedal Dr. Chase Cunningham, hlavný analytik spoločnosti Forrester Research, Dodal, že ak distribuujete tieto správy na LinkedIn alebo Twitteri alebo využijete robota, „môžete akcie spoločnosti rozložiť na základe falošného videa bez veľkého úsilia.“

Prostredníctvom hlbokých falošných videí by spotrebitelia mohli byť podvedení v presvedčenie, že produkt môže urobiť niečo, čo nemôže. Cunningham poznamenal, že ak generálny riaditeľ hlavného výrobcu automobilov vo falošnom videu uviedol, že spoločnosť by už ďalej nevyrábala vozidlá na plynový pohon a potom v tomto videu šíril túto správu na Twitteri alebo LinkedIn, potom by táto akcia mohla ľahko poškodiť značku.

„Je zaujímavé, že z môjho prieskumu ľudia robia rozhodnutia na základe titulkov a videí za 37 sekúnd, “ povedal Cunningham. „Takže si viete predstaviť, či môžete získať video, ktoré trvá dlhšie ako 37 sekúnd, môžete ľudí prinútiť, aby sa rozhodli na základe či už faktický alebo nie. A to je desivé. “

Keďže sociálne médiá sú zraniteľným miestom, kde môžu byť videonahrávky deepfake vírusové, weby sociálnych médií aktívne pracujú v boji proti hrozbe hlbokých podvodov. Facebook napríklad využíva technické tímy, ktoré dokážu spoznať manipulované fotografie, audio a video. Facebook (a ďalšie spoločnosti pôsobiace v oblasti sociálnych médií) okrem používania softvéru najíma ľudí, aby manuálne hľadali hlboké falošné zážitky.

„Rozšírili sme naše prebiehajúce úsilie v boji proti manipulovaným médiám tak, aby zahŕňalo boj proti hlbokým podvodom, “ uviedol vo vyhlásení zástupca Facebooku. „Vieme, že neustály vznik všetkých foriem manipulovaných médií predstavuje pre spoločnosť skutočné výzvy. Preto investujeme do nových technických riešení, učíme sa z akademického výskumu a spolupracujeme s ostatnými v tomto odvetví, aby sme porozumeli hlbokým podvodom a iným formám manipulovaných médií.."

Nie všetky preháňačky sú zlé

Ako sme videli s náučným videom spoločnosti McAfee a videom s komediálnym videom v televízii neskoro v noci, niektoré videozáznamy s videom nie sú nevyhnutne zlé. V skutočnosti, zatiaľ čo politika môže odhaliť skutočné nebezpečenstvo hlbokých falošných videí, zábavný priemysel často len ukazuje slabšiu stránku hlbokých falošných videí.

Napríklad v nedávnej epizóde The Late Show With Stephen Colbert sa objavilo vtipné prehnané video, v ktorom tvár herca Steve Buscemi prekrývala telo herečky Jennifer Lawrence. V inom prípade komik Jordan Peeler nahradil videozáznam bývalého prezidenta Baracka Obamu, ktorý hovoril svojím vlastným hlasom. Humorné hlboké falošné videá, ako sú tieto, sa objavili aj online, v ktorých tvár prezidenta Trumpa prekrýva tvár nemeckej kancelárky Angely Merkelovej.

Ak sa videá s hlbokým obrazom používajú na satirické alebo vtipné účely alebo jednoducho na zábavu, platformy sociálnych médií a dokonca aj filmové produkčné spoločnosti ich povoľujú alebo používajú. Napríklad Facebook umožňuje tento typ obsahu na svojej platforme a Lucasfilm použil tento druh digitálnej rekreácie na predstavenie mladej Carrie Fisherovej v tele herečky Ingvild Deily v „Rogue One: A Star Wars Story“.

Spoločnosť McAfee's Grobman poznamenala, že niektoré technológie, ktoré stoja za hlbokými falzifikátmi, sa dobre využívajú pri zdvojnásobení pohybov, aby sa herci udržali v bezpečí. "Kontext je všetko. Ak je to pre komediálne účely a je zrejmé, že to nie je skutočné, je to niečo, čo je legitímne využívanie technológie, " uviedol Grobman. „Kľúčom je uznať, že sa dá použiť na rôzne účely.“

(Obrázkový kredit: Statista)

Ako detekovať Deepfake videá

Spoločnosť McAfee nie je jedinou bezpečnostnou spoločnosťou, ktorá experimentuje s tým, ako zistiť falošné videá. Vo svojom dokumente doručenom na Black Hat 2018 s názvom „AI Gone Rogue: Vyhubenie hlbokých falzifikátov skôr, ako spôsobia hrozbu“, dvaja odborníci na bezpečnosť spoločnosti Symantec, vedúci bezpečnostnej reakcie Vijay Thaware a vývojár softvéru Niranjan Agnihotri, píšu, že vytvorili nástroj na odhalenie falošné videá založené na službe Google FaceNet. Google FaceNet je architektúra neurónovej siete, ktorú vyvinuli vedci spoločnosti Google na pomoc s overením a rozpoznaním tváre. Užívatelia trénujú model FaceNet na konkrétnom obrázku a potom môžu overiť svoju totožnosť počas nasledujúcich testov.

AI Foundation, nezisková organizácia, ktorá sa zameriava na interakciu človeka a AI, sa snaží zastaviť šírenie hlbokých falošných videí a ponúka softvér s názvom „Reality Defender“ na zisťovanie falošného obsahu. Môže skenovať obrázky a video, aby zistil, či boli zmenené pomocou AI. Ak áno, dostanú „Čestný vodoznak AI“.

  • Obchodný sprievodca strojovým učením Obchodný sprievodca strojovým učením
  • PornHub, Twitter Zakázať pornografiu „Deepfake“ AI-modifikovaná PornHub, Twitter
  • Najnovšie techniky Deepfake vás budú tancovať ako Bruno Mars Najnovšie technológie Deepfake vás budú tancovať ako Bruno Mars

Ďalšou stratégiou je mať na pamäti koncepciu Zero Trust, čo znamená „nikdy neveriť, vždy overovať“ - motto kybernetickej bezpečnosti, ktoré znamená, že odborníci v oblasti IT by mali potvrdiť, že všetci používatelia sú legitímni pred udelením prístupových práv. Pokiaľ ide o platnosť videoobsahu, bude potrebné zostať skeptický. Budete tiež chcieť softvér s funkciami digitálnej analýzy na rozpoznanie falošného obsahu.

Hľadáte Deepfakes

V budúcnosti budeme musieť byť opatrnejší pri videoobsahu a nezabúdať na nebezpečenstvá, ktoré môžu spoločnosti v prípade zneužitia predstavovať. Ako poznamenal Grobman, „v najbližšom období musia byť ľudia skeptickejší k tomu, čo vidia, a uznávajú, že video a audio je možné vymyslieť.“

Dávajte pozor na politické videá, ktoré sledujete, keď ideme do budúcej volebnej sezóny, a nedôverujte všetkým videám, ktoré obsahujú vedúcich spoločností. Pretože to, čo počujete, nemusí byť to, čo sa skutočne povedalo, a zavádzajúce prehnané videá majú potenciál skutočne poškodiť našu spoločnosť.

Ai a strojové učenie využívajú, prehlbujú sa, teraz je ťažké ich odhaliť