Domov názory Ako falošné správy openai vyvolali skutočné falošné správy

Ako falošné správy openai vyvolali skutočné falošné správy

Obsah:

Video: Ilya Sutskever: OpenAI Meta-Learning and Self-Play | MIT Artificial General Intelligence (AGI) (Septembra 2024)

Video: Ilya Sutskever: OpenAI Meta-Learning and Self-Play | MIT Artificial General Intelligence (AGI) (Septembra 2024)
Anonim

Neziskové výskumné laboratórium OpenII vyvolalo minulý mesiac vlnu paniky apokalypsy AI, keď predstavilo najmodernejšiu AI generujúcu text s názvom GPT-2. Ale keď oslavoval úspechy GPT-2, OpenAI vyhlásil, že neuverejní svoj model AI pre verejnosť, obávajúc sa, že v nesprávnych rukách by sa GPT-2 mohol použiť na škodlivé účely, ako je napríklad vytváranie zavádzajúcich správ, vydávanie sa za iných za online a automatizáciu výroby falošného obsahu na sociálnych sieťach.

Oznámenie OpenAI pravdepodobne vyvolalo záplavu senzačných spravodajských príbehov, ale hoci je možné zaútočiť na všetky pokročilé technológie, AI ešte musí zvládnuť generovanie textu. Dokonca aj potom trvá viac ako len generovanie textu vytváraním textovej krízy. V tomto svetle boli varovania organizácie OpenAI prefúknuté.

AI a ľudský jazyk

Počítače sa historicky snažili zvládnuť ľudský jazyk. V písanom texte je toľko zložitosti a nuancií, že ich konverzia na klasické softvérové ​​pravidlá je prakticky nemožná. Nedávny pokrok v oblasti hlbokého učenia a neurónových sietí však pripravil pôdu pre iný prístup k tvorbe softvéru, ktorý dokáže zvládnuť úlohy súvisiace s jazykom.

Hlboké vzdelávanie prinieslo veľké vylepšenia v oblastiach ako strojový preklad, zhrnutie textu, odpovedanie na otázky a tvorba prirodzeného jazyka. Umožňuje softvérovým inžinierom vytvárať algoritmy, ktoré rozvíjajú svoje vlastné správanie analyzovaním mnohých príkladov. Pokiaľ ide o úlohy súvisiace s jazykom, inžinieri dodávajú digitalizovaný obsah neurónovým sieťam, ako sú správy, články na Wikipédii a príspevky v sociálnych médiách. Neurónové siete starostlivo porovnávajú údaje a berú na vedomie, ako určité slová nasledujú v opakujúcich sa sekvenciách. Tieto vzorce potom premenia na zložité matematické rovnice, ktoré im pomáhajú riešiť úlohy súvisiace s jazykom, ako je napríklad predpovedanie chýbajúcich slov v textovej sekvencii. Všeobecne platí, že čím kvalitnejšie údaje o školení poskytnete modelu hlbokého učenia, tým lepšie sa stanú pri vykonávaní svojej úlohy.

Podľa OpenAI bol GPT-2 vyškolený na 8 miliónoch webových stránok a miliardách slov, čo je oveľa viac ako iné podobné modely. Používa tiež pokročilé modely AI na lepšie použitie textových vzorov. Vzorový výstup z GPT-2 ukazuje, že model dokáže udržať koherenciu v dlhších sekvenciách textu ako jeho predchodcovia.

Ale zatiaľ čo GPT-2 je krokom vpred v oblasti generovania prirodzeného jazyka, nie je to technologický prielom smerom k vytvoreniu umelej inteligencie, ktorý môže pochopiť význam a kontext písaného textu. GPT-2 stále používa algoritmy na vytváranie sekvencií slov, ktoré sú štatisticky podobné miliardám textových úryvkov, ktoré predtým videli - nemá absolútne žiadne pochopenie toho, čo generuje.

V hĺbkovej analýze ukazovateľ TiNetan Ray spoločnosti ZDNet poukazuje na niekoľko prípadov, keď výstupné vzorky GPT-2 zrádzajú svoju umelou povahu so známymi artefaktmi, ako je duplikácia pojmov a nedostatok logiky a konzistentnosti faktov. „Keď GPT-2 prejde na písanie, ktoré si vyžaduje ďalší rozvoj nápadov a logiky, trhliny sa otvoria pomerne široko, “ poznamenáva Ray.

Štatistické učenie môže počítačom pomôcť vytvárať text, ktorý je gramaticky správny, ale na udržanie logickej a faktickej konzistentnosti je potrebné hlbšie pochopenie konceptu. Bohužiaľ, stále je to výzva, ktorú súčasné zmesi AI neprekonali. Preto GPT-2 dokáže generovať pekné odseky textu, ale pravdepodobne by bolo ťažké generovať autentický článok s dlhou formou alebo vydávať niekoho presvedčivým spôsobom a počas dlhšieho časového obdobia.

Prečo je falošné spravodajstvo AI falošné

Ďalší problém s odôvodnením OpenAI: Predpokladá sa, že AI môže spôsobiť krízu falošných správ.

V roku 2016 skupina macedónskych tínedžerov rozšírila falošné správy o amerických prezidentských voľbách miliónom ľudí. Je iróniou, že ani nemali dostatočné znalosti angličtiny; našli svoje príbehy na webe a spájali rôznorodý obsah. Boli úspešní, pretože vytvorili webové stránky, ktoré vyzerali dostatočne autenticky, aby presvedčili návštevníkov, aby im dôverovali ako spoľahlivé spravodajské zdroje. Zbytočné titulky, zanedbávaní používatelia sociálnych médií a algoritmy trendov urobili všetko ostatné.

Potom v roku 2017 nebezpeční herci spustili diplomatickú krízu v oblasti Perzského zálivu hacknutím štátnych správ z Kataru a vládnych sociálnych médií a zverejňovaním falošných poznámok v mene šejka Tamima bin Hamada Al Thaniho, katarského emíra.

Ako ukazujú tieto príbehy, úspech falošných spravodajských kampaní závisí od vytvorenia (a zradenia) dôvery, nie od vytvárania veľkého množstva koherentného anglického textu.

Upozornenia OpenAI týkajúce sa automatizácie výroby falošného obsahu na zverejňovanie na sociálnych médiách sú však opodstatnené, pretože rozsah a objem zohrávajú v sociálnych sieťach dôležitejšiu úlohu ako v tradičných médiách. Predpokladá sa, že umelá inteligencia, ako je GPT-2, bude schopná zaplaviť sociálne médiá miliónmi jedinečných príspevkov na konkrétnu tému, ktoré ovplyvnia algoritmy trendov a verejné diskusie.

Upozornenia však stále nie sú realitou. V posledných rokoch spoločnosti v oblasti sociálnych médií neustále vyvíjajú schopnosti zisťovať a blokovať automatické správanie. Zlý aktér vyzbrojený AI vytvárajúcim text by teda musel prekonať celý rad problémov okrem vytvorenia jedinečného obsahu.

Napríklad na to, aby mohli zverejňovať svoj obsah generovaný AI, by potrebovali tisíce falošných účtov sociálnych médií. Ešte tvrdšie, aby sa ubezpečil, že neexistuje spôsob, ako spojiť falošné účty, by pre každý účet potrebovali jedinečné zariadenie a adresu IP.

Zhoršuje sa to: Účty by sa museli vytvárať v rôznych časoch, možno v priebehu jedného roka alebo dlhšie, aby sa znížila podobnosť. Minulý rok prieskum New York Times ukázal, že samotné dátumy vytvorenia účtu môžu pomôcť odhaliť účty topánok. Potom, aby sa účty ďalej skrývali pred automatizovanou povahou pred ostatnými používateľmi a policajnými algoritmami, účty by sa museli zapájať do správania podobného človeku, ako je interakcia s ostatnými používateľmi a nastavenie jedinečného tónu v ich príspevkoch.

Žiadnu z týchto výziev nie je možné prekonať, ale ukazujú, že obsah je iba časťou úsilia potrebného na uskutočnenie falošných správ v sociálnych médiách. A opäť, dôvera hrá dôležitú úlohu. Niekoľko dôveryhodných vplyvných sociálnych médií, ktorí zverejňujú niekoľko falošných správ, bude mať väčší vplyv ako množstvo neznámych účtov, ktoré vytvárajú veľké množstvo obsahu.

Na obranu varovaní OpenAI

Prehnané varovania OpenAI vyvolali cyklus mediálneho humbuku a paniky, ktorý, ironicky, hraničil so samotnými falošnými správami, čo vyvolalo kritiku od renomovaných odborníkov na AI.

Pozvali medialistov, aby získali rýchly prístup k výsledkom, s tlačovým embargom, aby sa všetko zverejnilo v ten istý deň. Žiadny vedecký pracovník, o ktorom viem, sa nemal stretnúť s veľkým modelom, ale novinári. Áno, úmyselne to vyhodili do vzduchu.

- Matt Gardner (@ nlpmattg) 19. februára 2019

Každý nový človek môže byť potenciálne použitý na generovanie falošných správ, šírenie konšpiračných teórií a ovplyvňovanie ľudí.

Mali by sme prestať s bábätkami?

- Yann LeCun (@ylecun) 19. februára 2019

Chceli sme vás všetkých len povzbudiť, naša laboratórium zistilo úžasný prielom v porozumení jazyka. ale tiež sa obávame, že to môže spadnúť do nesprávnych rúk. takže sme sa rozhodli ich zrušiť a namiesto toho uverejniť iba bežné položky * ACL. Veľká úcta k tímu za skvelú prácu.

- (((? () (? () 'Yoav)))) (@yoavgo) 15. februára 2019

Zachary Lipton, vedecký pracovník AI a redaktor časopisu Približne korektný, poukázal na históriu OpenAI „pomocou svojho blogu a nadmerným zameraním na nezrelú prácu katapultov na verejnosti a často na hranie aspektov bezpečnosti ľudí, ktoré zatiaľ nemajú intelektuálnu inteligenciu. nohy postaviť sa. “

Aj keď si OpenAI zaslúži všetku kritiku a teplo, ktoré dostala v dôsledku svojich zavádzajúcich poznámok, je tiež správne sa obávať možného škodlivého použitia jej technológie, aj keď spoločnosť použila nezodpovedný spôsob informovania verejnosti o nej.

  • Rok etického zúčtovania odvetvia AI Rok etického zúčtovania odvetvia AI
  • Nespravodlivá výhoda: Neočakávajte, že AI bude hrať ako človek Nespravodlivá výhoda: Neočakávajte, že AI bude hrať ako človek
  • Tento AI predpovedá online trolling skôr, ako sa stane

V uplynulých rokoch sme videli, ako môžu byť technológie AI zverejňované bez premýšľania a reflexie zbraňami, ktoré môžu byť zneužité pre škodlivé úmysly. Jedným z príkladov bola aplikácia FakeApp, AI aplikácia, ktorá dokáže zamieňať tváre vo videách. Čoskoro po prepustení filmu FakeApp sa používal na vytváranie falošných pornografických videí, v ktorých vystupovali celebrity a politici, čo vyvoláva obavy z hrozby falšovania s AI.

Rozhodnutie OpenAI ukazuje, že musíme pozastaviť a premýšľať o možných dôsledkoch technológie uvoľňovania z verejných zdrojov. Potrebujeme aktívnejšie diskusie o rizikách technológií AI.

„Jedna organizácia, ktorá pozastaví jeden konkrétny projekt, sa z dlhodobého hľadiska nič nezmení. Ale OpenAI získava veľa pozornosti za všetko, čo robia… a myslím si, že by mali byť tlieskaní za to, že sa tejto téme venujú pozornosť, “ David Bau, výskumný pracovník v MIT's Computer Science and Artificial Intelligence Laboratory (CSAIL), povedal Slate.

Ako falošné správy openai vyvolali skutočné falošné správy