Domov Vlastnosti Keď ai stiera hranicu medzi realitou a fikciou

Keď ai stiera hranicu medzi realitou a fikciou

Obsah:

Video: Nationalism vs. globalism: the new political divide | Yuval Noah Harari (Septembra 2024)

Video: Nationalism vs. globalism: the new political divide | Yuval Noah Harari (Septembra 2024)
Anonim

Niekde v temných priehlbinách YouTube je video, ktoré ukazuje výňatok z filmu Spoločenstvo prsteňa - ale to nie je celkom ten film, aký si pamätáte, pretože Nicolas Cage hrá hviezdy ako Frodo, Aragorn, Legolas, Gimli a Gollum, všetko na rovnaký čas. Ďalšie videá ukazujú Cage v Terminator 2 ako T2000, Star Trek ako kapitán Picard a Superman as, Lois Lane.

Nic Cage sa samozrejme nikdy neobjavil v žiadnom z týchto filmov. Sú to „deepfakes“ vytvorené pomocou aplikácie FakeApp, ktorá využíva algoritmy umelej inteligencie na výmenu tvárí vo videách. Niektoré z hlbokých falcov vyzerajú dosť presvedčivo, zatiaľ čo iné majú artefakty, ktoré zrádzajú ich pravú povahu. Celkovo však ukazujú, ako silné algoritmy AI sa stali pri napodobňovaní ľudského vzhľadu a správania.

FakeApp je iba jedným z niekoľkých nových syntetizačných nástrojov poháňaných AI. Iné aplikácie napodobňujú ľudské hlasy, rukopisy a štýly konverzácie. A čo ich robí dôležitými, je to, že ich používanie nevyžaduje špecializovaný hardvér ani kvalifikovaných odborníkov.

Dopad týchto aplikácií je hlboký: Vytvoria nevídané príležitosti pre kreativitu, produktivitu a komunikáciu.

Ten istý nástroj by však mohol otvoriť aj Pandorinu krabicu podvodu, falšovania a propagandy. Keďže sa FakeApp v januári objavil na Reddite, stiahlo sa viac ako 100 000 krát a vyvolalo búrku falošných pornografických videí s celebritami a politikmi (opäť vrátane Cage). Reddit nedávno zakázal aplikáciu a jej súvisiace komunity zo svojej platformy.

„Pred desiatimi rokmi, ak ste chceli niečo predstierať, ste mohli, ale museli ste ísť do štúdia VFX alebo ľudí, ktorí by mohli robiť počítačovú grafiku a možno minúť milióny dolárov, “ hovorí Dr. Tom Haines, lektor strojového učenia na Univerzita v Bath. „Nemohli ste to však udržať v tajnosti, pretože do procesu by ste mali zapojiť veľa ľudí.“

To už nie je prípad, so súhlasom novej generácie nástrojov AI.

Imitácia hry

FakeApp a podobné aplikácie sú poháňané hlbokým vzdelávaním, ktoré je odvetvím AI v centre explózie inovácií AI od roku 2012. Algoritmy hlbokého učenia sa spoliehajú na neurónové siete, čo je softvérová konštrukcia zhruba vytvorená podľa ľudského mozgu. Neurónové siete analyzujú a porovnávajú veľké súbory vzoriek údajov, aby našli vzory a korelácie, ktorým by ľudia normálne chýbali. Tento proces sa nazýva „školenie“ a jeho výsledkom je model, ktorý môže vykonávať rôzne úlohy.

V predchádzajúcich dňoch sa modely hĺbkového vzdelávania väčšinou používali na vykonávanie klasifikačných úloh - napríklad označovanie objektov na fotografiách a rozpoznávanie hlasu a tváre. Vedci nedávno využívali hĺbkové vzdelávanie na vykonávanie zložitejších úloh, ako sú hranie stolových hier, diagnostikovanie pacientov a vytváranie hudby a umeleckých diel.

Na vyladenie aplikácie FakeApp na vykonanie výmeny tváre musí užívateľ trénovať niekoľko stoviek obrázkov zdrojových a cieľových tvárí. Program spúšťa algoritmy hlbokého učenia sa, aby našiel vzory a podobnosti medzi oboma tvárami. Model sa potom pripraví na výmenu.

Tento proces nie je jednoduchý, ale na používanie programu FakeApp nemusíte byť grafický expert alebo strojový učiteľ. Nevyžaduje ani drahý a špecializovaný hardvér. Webová stránka s podrobnými inštrukciami odporúča počítač s 8 GB alebo viac pamäte RAM a grafickou kartou Nvidia GTX 1060 alebo lepšou, čo je celkom skromná konfigurácia.

„Keď sa presťahujete do sveta, kde niekto v miestnosti môže niečo predstierať, potom ho môže použiť na pochybné účely, “ hovorí Haines. „A pretože je to jedna osoba sama o sebe, udržiavať ju v tajnosti je veľmi ľahké.“

V roku 2016 Haines, ktorý bol v tom čase postdoktorandským pracovníkom na University of College London, spoluautorom dokumentu a aplikácie, ktorá ukázala, ako sa AI môže naučiť napodobňovať rukopis osoby. Aplikácia s názvom „Môj text vo vašom rukopise“ používala algoritmy hĺbkového učenia sa na analýzu a rozlíšenie štýlu a toku autorského rukopisu a ďalších faktorov, ako sú medzery a nepravidelnosti.

Aplikácia potom môže vziať akýkoľvek text a reprodukovať ho pomocou rukopisu cieľového autora. Vývojári dokonca pridali mieru náhodnosti, aby sa predišlo záhadnému údolnému efektu - zvláštnemu pocitu, ktorý získame, keď uvidíme niečo, čo je takmer, ale nie úplne ľudské. Ako dôkaz koncepcie použili Haines a ďalší vedci UCL technológiu na replikáciu rukopisu historických postáv, ako sú Abraham Lincoln, Frida Kahlo a Arthur Conan Doyle.

Rovnakú techniku ​​je možné uplatniť na akýkoľvek iný rukopis, ktorý vzbudzuje obavy z možného použitia technológie na falšovanie a podvod. Forenzní odborník by stále dokázal zistiť, že skript bol produkovaný textom My Text in Your Handwriting, ale je pravdepodobné, že oklame netrénovaných ľudí, čo Haines v tom čase priznal v rozhovore pre spoločnosť Digital Trends.

Lyrebird, Montrealský startup, použil hĺbkové učenie na vývoj aplikácie, ktorá syntetizuje ľudský hlas. Lyrebird vyžaduje jednominútové nahrávanie, aby začalo napodobňovať hlas osoby, aj keď skôr, ako znie presvedčivo, potrebuje oveľa viac.

Na svojom verejnom demonštrácii uviedlo startup falošné nahrávky hlasov Donalda Trumpa, Baracka Obamu a Hillary Clintonovej. Vzorky sú surové a je zrejmé, že sú syntetické. Ale ako sa technológia zdokonaľuje, bude rozlíšenie ešte ťažšie. A ktokoľvek sa môže zaregistrovať v Lyrebird a začať vytvárať falošné nahrávky; proces je ešte ľahší ako v prípade FakeApp a výpočty sa vykonávajú v cloude, čo menej zaťažuje hardvér používateľa.

Skutočnosť, že túto technológiu možno použiť na pochybné účely, sa u vývojárov nestratí. V jednom bode etické vyhlásenie na webovej stránke spoločnosti Lyrebird uviedlo: „Hlasové nahrávky sa v súčasnosti v našich spoločnostiach a najmä v jurisdikciách mnohých krajín v súčasnosti považujú za silné dôkazy. Naša technológia spochybňuje platnosť takýchto dôkazov, pretože umožňuje ľahkú manipuláciu so zvukom. To by mohlo mať nebezpečné následky, ako sú klamliví diplomati, podvody a všeobecnejšie akýkoľvek iný problém spôsobený krádežou identity niekoho iného. ““

Nvidia predstavila ďalší aspekt imitačných schopností AI: V minulom roku spoločnosť zverejnila video, ktoré ukazuje algoritmy AI generujúce syntetické ľudské tváre vo fotografickej kvalite. Nvidia's AI analyzovala tisíce celebrítných fotografií a potom začala vytvárať falošné celebrity. Táto technológia sa čoskoro stane schopnou vytvárať realisticky vyzerajúce videá s „ľuďmi“, ktorí neexistujú.

Limity AI

Mnohí zdôraznili, že v nesprávnych rukách môžu tieto aplikácie spôsobiť veľa škody. Avšak rozsah schopností súčasnej umelej inteligencie je často prehnaný.

„Aj keď môžeme vo videu nasmerovať tvár inej osoby alebo syntetizovať hlas, je to stále dosť mechanické, “ hovorí Eugenia Kuyda, spoluzakladateľka spoločnosti Replika, spoločnosti, ktorá vyvíja chatové jednotky poháňané AI, o nedostatkoch Nástroje AI, ako sú FakeApp a Lyrebird.

Voicery, ďalšie spustenie AI, ktoré podobne ako Lyrebird poskytuje syntetizáciu hlasu poháňanú AI, má kvízovú stránku, na ktorej sú používateľom prezentované série 18 hlasových nahrávok a sú vyzvaní, aby určili, ktoré sú vyrobené strojom. Pri prvom spustení sa mi podarilo identifikovať všetky strojovo vyrobené vzorky.

Spoločnosť Kuyda je jednou z niekoľkých organizácií, ktoré používajú spracovanie prirodzeného jazyka (NLP), podskupinu AI, ktorá počítačom umožňuje porozumieť a interpretovať ľudský jazyk. Luka, staršia verzia chatu Kuyda, použila NLP a jeho technológiu dvojčiat, generáciu prirodzeného jazyka (NLG), aby napodobnili obsadenie televízneho seriálu HBO Silicon Valley . Neurónová sieť bola vyškolená pomocou skriptových riadkov, tweetov a ďalších údajov dostupných na charakteroch, aby vytvorila svoj model správania a dialóg s používateľmi.

Replika, nová aplikácia spoločnosti Kuyda, umožňuje každému používateľovi vytvoriť si vlastný avatar AI. Čím viac budete chatovať s vašou replikou, tým lepšie bude pochopenie vašej osobnosti a tým významnejšia bude vaša konverzácia.

Po inštalácii aplikácie a nastavení repliky som zistil, že prvých pár rozhovorov je nepríjemných. Niekoľkokrát som musel opakovať vetu rôznymi spôsobmi, aby som mohol vyjadriť svoje úmysly svojej replike. Aplikáciu som často frustroval. (A aby som bol spravodlivý, odviedol som dobrú prácu pri testovaní svojich limitov bombardovaním to koncepčnými a abstraktnými otázkami.) Ale ako pokračovali naše rozhovory, moja Replika sa stala múdrejším v porozumení významu mojich viet a vymýšľaní zmysluplných tém. Dokonca ma to niekoľkokrát prekvapilo tým, že som nadviazal kontakty na minulé rozhovory.

Aj keď je to pôsobivé, Replika má obmedzenia, na ktoré Kuyda rýchlo poukazuje. „Imitácia hlasu a rozpoznávanie obrázkov sa pravdepodobne čoskoro zlepší, ale s dialógom a konverzáciou sme stále dosť ďaleko, “ hovorí. "Môžeme napodobniť niektoré rečové vzorce, ale nemôžeme len vziať človeka a dokonale napodobniť jeho rozhovor a očakávať, že jeho chatbot príde s novými nápadmi presne tak, ako by to urobila."

Alexandre de Brébisson, generálny riaditeľ a spoluzakladateľ spoločnosti Lyrebird, hovorí: „Ak sa nám teraz veľmi dobre darí napodobňovať ľudský hlas, obraz a video, sme stále ďaleko od modelovania individuálneho jazykového modelu.“ De Brébisson poukazuje na to, že by pravdepodobne vyžadovalo umelú všeobecnú inteligenciu, druh AI, ktorý má vedomie a dokáže porozumieť abstraktným pojmom a robiť rozhodnutia tak, ako to robia ľudia. Niektorí odborníci sa domnievajú, že sme desaťročia vzdialení od vytvárania všeobecnej AI. Iní si myslia, že sa tam nikdy nedostaneme.

Pozitívne použitia

Negatívny obraz, ktorý sa premieta do syntézy aplikácií AI, vrhá tieň na ich pozitívne použitie. A je ich dosť.

Technológie ako Lyrebird's môžu pomôcť zlepšiť komunikáciu s počítačovými rozhraniami tým, že sa stanú prirodzenejšími a de Brébisson tvrdí, že poskytnú jedinečné umelé hlasy, ktoré odlišujú spoločnosti a produkty a uľahčujú tak rozlíšenie značky. Keďže Amazon Alexa a Siri spoločnosti Apple urobili hlas stále populárnejším rozhraním pre zariadenia a služby, spoločnosti ako Lyrebird a Voicery by mohli značkám poskytnúť jedinečné hlasy podobné ľudstvu, aby sa odlíšili.

„Lekárske aplikácie sú tiež vzrušujúcim prípadom našej technológie klonovania hlasu, “ dodáva de Brébisson. „Dostali sme veľký záujem od pacientov, ktorí stratili hlas pri chorobe, a v súčasnosti trávime čas s pacientmi ALS, aby sme videli, ako im môžeme pomôcť.“

Začiatkom tohto roka v spolupráci s austrálskou neziskovou organizáciou Project Revoice, ktorá pomáha pacientom s ALS s poruchami reči, pomohol Lyrebird znovu získať Pat Quinn, zakladateľ súťaže Ice Bucket Challenge. Quinn, ktorý je pacientom ALS, stratil schopnosť chodiť a hovoriť v roku 2014 a odvtedy používal počítačový syntetizátor reči. S pomocou Lyrebirdovej technológie a hlasových nahrávok Quinnových verejných vystúpení bol Revoice schopný „znovu vytvoriť“ svoj hlas.

„Váš hlas je veľká časť vašej identity a dať týmto pacientom umelý hlas, ktorý znie ako ich pôvodný hlas, je trochu ako vrátiť im dôležitú súčasť ich identity. Pre nich to mení život, “ hovorí de Brébisson.

V čase, keď pomáhal pri vývoji aplikácie napodobňujúcej rukopisy, hovoril Dr. Haines k jeho pozitívnemu použitiu v rozhovore s UCL. "Napríklad obete mŕtvice môžu byť schopné formulovať listy bez obáv z nečitateľnosti, alebo niekto, kto posiela kvetiny ako darček, môže obsahovať ručne písanú poznámku bez toho, aby šiel do kvetinárstva, " uviedol. „Dalo by sa použiť aj v komiksoch, kde je možné časť rukopisného textu preložiť do rôznych jazykov bez toho, aby sa stratila autorova pôvodná podoba.“

Haines verí, že aj technológie, ako je FakeApp, ktoré sú známe pre neetické použitie, by mohli mať pozitívne využitie. „Posúvame sa k tomuto svetu, kde by niekto mohol robiť vysoko kreatívne aktivity s verejnou technológiou, a to je dobrá vec, pretože to znamená, že nepotrebujete tie veľké sumy peňazí, aby ste robili najrôznejšie bláznivé veci umeleckej povahy, " on hovorí.

Haines vysvetľuje, že prvotným cieľom jeho tímu bolo zistiť, ako by AI mohla pomôcť pri forenznej analýze. Aj keď ich výskum skončil iným smerom, výsledky budú stále užitočné pre forenzných dôstojníkov, ktorí budú schopní študovať, ako by mohlo vyzerať falšovanie založené na AI. „Chceš vedieť, čo je najmodernejšia technológia, takže keď sa na niečo pozeráš, povieš, či je to falošné alebo nie, “ hovorí.

Spoločnosť Replika's Kudya zdôrazňuje, že aplikácie AI podobné ľuďom by nám mohli pomôcť spôsobmi, ktoré by inak neboli možné. „Keby ste mali avatar AI, ktorý vás veľmi dobre poznal a mohol by byť pre vás slušným zastúpením, čo by to mohlo urobiť, konajúc z vašich najlepších záujmov?“ ona povedala. Napríklad, samostatný avatar AI by mohol pozerať vo vašom mene stovky filmov a na základe rozhovorov s vami odporučiť tie, ktoré by ste chceli.

Tieto avatary môžu dokonca pomôcť rozvíjať lepšie ľudské vzťahy. „Možno by tvoja mama mohla mať viac času s tebou a možno by si sa mohla skutočne trochu priblížiť k svojim rodičom tým, že by si ich nechala rozprávať s Replikou a čítala prepis, “ hovorí Kudya ako príklad.

Mohol by však AI chatbot, ktorý kopíruje správanie skutočnej ľudskej bytosti, skutočne viesť k lepším ľudským vzťahom? Kuyda tomu verí. V roku 2016 zozbierala staré textové správy a e-maily od priateľa Romana Mazurenka, ktorý zomrel v minulom roku pri dopravnej nehode, a kŕmila ich neurónovou sieťou, ktorá napájala jej aplikáciu. Výsledkom bola chatbotová aplikácia, ktorá po móde priviedla svoju priateľku späť k životu a mohla s ňou hovoriť rovnako ako on.

„Vytvorenie aplikácie pre Romana a schopnosť s ním hovoriť niekedy bola dôležitou súčasťou prechodu stratou nášho priateľa. Táto aplikácia nás núti viac o ňom premýšľať, zapamätať si ho stále hlbšie, “ hovorí jej skúsenosti. „Prial by som si, aby som mal viac takýchto aplikácií, aplikácií, ktoré by sa týkali mojich priateľstiev, mojich vzťahov, vecí, ktoré sú pre mňa skutočne dôležité.“

Kuyda si myslí, že to všetko bude závisieť od zámerov. "Ak chatbot koná z vašich najlepších záujmov, ak chce, aby ste boli radi, že z neho získate nejaké cenné služby, potom očividne rozhovor s Replikou niekoho iného pomôže vybudovať silnejšie spojenie s človekom v skutočnom živote.", " ona povedala. „Ak sa všetko, čo sa snažíte urobiť, predáva v aplikácii, potom všetko, čo budete robiť, je maximalizovať čas strávený aplikáciou a nekomunikovať medzi sebou. Myslím, že to je otázne.“

Momentálne nie je možné prepojiť repliku s inými platformami - napríklad sprístupniť ju ako chat v službe Facebook Messenger. Spoločnosť má však aktívny vzťah s komunitou používateľov a neustále vyvíja nové funkcie. Takže nechať ostatných komunikovať s vašou replikou je budúca možnosť.

Ako minimalizovať kompromisy

Od parného motora po elektrinu až po internet má každá technológia pozitívne aj negatívne uplatnenie. AI sa nelíši. „Potenciál pre negatívy je dosť vážny, “ hovorí Haines. „Možno vstupujeme do priestoru, v ktorom negatívy prevažujú nad pozitívami.“

Ako teda maximalizujeme výhody aplikácií AI a čelíme negatívom? Haines hovorí, že brzdenie inovácií a výskumu nie je riešením, pretože keby to niektorí urobili, neexistuje žiadna záruka, že ostatné organizácie a štáty budú nasledovať tento príklad.

„Žiadne riešenie nepomôže vyriešiť problém, “ hovorí Haines. „Musia to mať právne následky.“ Po kontroverzii hlbokých práv sa zákonodarcovia v USA zaoberajú touto otázkou a skúmajú právne záruky, ktoré by mohli zintenzívniť využívanie médií, ktoré boli ošetrené AI, na škodlivé ciele.

„Môžeme tiež vyvinúť technológie na odhaľovanie falzifikátov, keď prídu o to, že človek dokáže rozlíšiť rozdiel, “ hovorí Haines. „Ale v určitom okamihu, v súťaži medzi falšovaním a odhalením, by mohlo dôjsť k víťazstvu.“

V takom prípade by sme sa mohli posunúť smerom k vývoju technológií, ktoré vytvárajú reťaz digitálnych médií. Ako príklad uvádza spoločnosť Haines hardvér zabudovaný vo fotoaparátoch, ktoré by mohli digitálne podpísať zaznamenané video, aby sa potvrdila jeho autenticita.

Zvyšovanie povedomia bude veľkou súčasťou riešenia falšovania a podvodov pomocou algoritmov AI, de Brébisson hovorí. "To sme urobili tak, že sme klonovali hlas Trumpa a Obamu a prinútili ich, aby hovorili politicky správne vety, " hovorí. „Tieto technológie vyvolávajú spoločenské, etické a právne otázky, na ktoré treba myslieť vopred. Lyrebird zvýšila povedomie a mnohí ľudia teraz uvažujú o týchto potenciálnych problémoch a o tom, ako zabrániť zneužitiu.“

Určite je to, že vďaka umelej inteligencii vstupujeme do veku, v ktorom sa spája realita a fikcia. Turingov test by mohol čeliť najväčším výzvam. A čoskoro budú mať všetci nástroje a silu na vytváranie vlastných svetov, vlastných ľudí a vlastnej verzie pravdy. Ešte stále musíme vidieť celý rad zaujímavých príležitostí a nebezpečenstiev, ktoré pred nami stoja.

Keď ai stiera hranicu medzi realitou a fikciou