Domov Vlastnosti Ako sa spoločnosť Google snaží skladať detoxikáciu internetu

Ako sa spoločnosť Google snaží skladať detoxikáciu internetu

Obsah:

Video: SIMA - SPOLU (prod. Gajlo & SkinnyTom) |OFFICIAL VIDEO| (November 2024)

Video: SIMA - SPOLU (prod. Gajlo & SkinnyTom) |OFFICIAL VIDEO| (November 2024)
Anonim

Internet sa môže cítiť ako toxické miesto. Trollové zostupujú v sekciách komentárov a vláknach sociálnych médií, aby vrhli nenávistné prejavy a obťažovanie a potenciálne osvietiace diskusie premieňali na útoky ad hominem a hromadné hromadenie. Vyjadrenie názoru online často nevypadá, že by za výsledný vitriol stálo.

Masívne sociálne platformy - vrátane Facebooku, Twitteru a YouTube - pripúšťajú, že nemôžu adekvátne sledovať tieto problémy. Sú v pretekoch v zbrojení s robotmi, trollami a každým ďalším nežiadúcim, ktorý prechádza cez filtre obsahu. Ľudia nie sú fyzicky schopní čítať každý jednotlivý komentár na webe; tí, ktorí sa to často snažia ľutovať.

Technickí obri experimentovali s rôznymi kombináciami moderovania človeka, algoritmov umelej inteligencie a filtrov, aby sa každý deň prepadli potopou obsahu, ktorý tečie cez ich kanály. Jigsaw sa snaží nájsť strednú bránu. Dcérska a technologická inkubátorka Abeceda, predtým známa ako Google Ideas, začína dokazovať, že strojové učenie (ML) vytvorené v nástrojoch pre ľudských moderátorov môže zmeniť spôsob, akým pristupujeme k problému toxicity na internete.

Perspektíva je API vyvinuté spoločnosťou Jigsaw a tímom spoločnosti Google pre technológiu proti zneužitiu. Používa ML na zistenie zneužívania a obťažovania online a hodnotí komentáre na základe vnímaného dopadu, ktorý môžu mať na konverzáciu v snahe uľahčiť život ľudským moderátorom.

Perspektíva medzi krikmi

Technológia open source bola prvýkrát ohlásená v roku 2017, aj keď jej vývoj sa začal o niekoľko rokov skôr. Niektoré z prvých stránok, ktoré experimentovali s Perspektívou, boli spravodajské publikácie ako The New York Times a weby ako Wikipedia. Ale nedávno spoločnosť Perspective našla domov na stránkach ako Reddit a platforma pre komentáre Disqus (ktorá sa používa na serveri PCMag.com.)

CJ Adams, produktový manažér spoločnosti Perspective, uviedol, že projekt chce preskúmať, ako sú hlasy ľudí umlčané online. Jigsaw chcel preskúmať, ako cielené zneužívanie alebo celková atmosféra obťažovania môžu viesť k chladivému efektu a odrádzať ľudí k tomu, aby mali pocit, že nestojí za čas ani energiu pridať svoj hlas do diskusie. Ako často ste videli pípanie, príspevok alebo komentár a rozhodli ste sa neodpovedať, pretože bojovať proti trolom a dostať sa na Mad online jednoducho nestojí za zhoršenie?

„Je veľmi ľahké zničiť online rozhovor, “ povedal Adams. „Je ľahké skočiť dovnútra, ale jedna osoba, ktorá je skutočne mizerná alebo toxická, by mohla vytlačiť ďalšie hlasy. Možno si 100 ľudí prečíta článok alebo začne diskusiu a často skončíte s tým, že najhlasnejšie hlasy v miestnosti zostanú jediné, na internete, ktorý je optimalizovaný pre obľúbené a zdieľané položky. Takže všetky tieto hlasy umlčujete. Potom, čo definuje debatu, je ten najhlasnejší hlas v miestnosti - krikový zápas. ““

    Jigsaw a Google

    Bol to ťažký rok pre sesterskú spoločnosť Jigsaw, spoločnosť Google, ktorá sa potýkala s problémami s bezpečnosťou údajov, so spätnou väzbou zamestnancov v súvislosti s účasťou na projektoch pre Pentagon a Čínu a odhalením manipulácie so sexuálnym obťažovaním. Nehovoriac o spornom kongresovom vypočutí, počas ktorého generálni riaditelia Sundar Pichai grilovali zákonodarcovia.

    V albánskom altruistickom inkubátore boli veci trochu menej dramatické. Tím strávil čas skúmaním viac technických foriem cenzúry, ako je napríklad otrava DNS pomocou aplikácie Intra a útoky DDoS s Project Shield. S perspektívou je cieľ abstraktnejší. Namiesto použitia strojového učenia na určenie toho, čo je alebo nie je proti danému súboru pravidiel, je perspektíva Výzva veľmi subjektívna: klasifikácia emočného vplyvu jazyka.

    Aby ste to dosiahli, potrebujete spracovanie prirodzeného jazyka (NLP), ktoré rozdeľuje vetu na okamžité vzory. Tím Perspektívy čelí problémom, ako je potvrdenie zaujatosti, skupinové myslenie a obťažujúce správanie v prostredí, kde technológia zvýšila ich dosah a sťažila ich riešenie.

    AI je „zle a niekedy nemý“

    Zlepšenie online konverzácií pomocou strojového učenia nie je jednoduchá úloha. Je to stále vznikajúce pole výskumu. Algoritmy môžu byť neobjektívne, systémy strojového učenia si vyžadujú nekonečné zdokonalenie a najťažšie a najdôležitejšie problémy sú stále do značnej miery nepreskúmané.

    Výskumná skupina AI pre konverzáciu, ktorá vytvorila perspektívu, sa začala stretnutím s novinami, vydavateľmi a inými webovými stránkami, ktoré sú hostiteľmi konverzácií. Niektoré z prvých stránok, ktoré experimentovali s touto technológiou, boli New York Times , Wikipedia, The Guardian a The Economist .

    V roku 2017 tím otvoril úvodnú ukážku Perspektívy prostredníctvom verejnej webovej stránky ako súčasť testu alfa, ktorý umožnil ľuďom zadať milióny odporných a urážlivých komentárov. Bolo to niečo ako neslávny neúspešný experiment spoločnosti Microsoft s Taybotom, s výnimkou toho, že Jigsaw namiesto toho, aby podvádzal robota, aby odpovedal s rasistickými tweety, použil ako zdroj údajov výcvikové údaje pre kŕmenie svojich modelov, čo pomáha identifikovať a kategorizovať rôzne typy zneužívania online.

    Počiatočný verejný test nebol plynulý. Program „Trolls Across America“ od spoločnosti Wired, ktorý na základe hodnotenia perspektívy v rámci krajiny rozložil toxicitu, ukázal, ako algoritmus neúmyselne diskriminoval skupiny podľa rasy, rodovej identity alebo sexuálnej orientácie.

    Adams bol úprimný v súvislosti s tým, že počiatočné testovanie Perspektívy odhalilo veľké slepé body a algoritmickú zaujatosť. Rovnako ako Amazonov šrotovaný náborový nástroj, ktorý školil desaťročia chybných údajov o pracovných miestach a vyvíjal prirodzenú zaujatosť voči ženským žiadateľom, aj modely s ranou perspektívou mali do očí bijúce chyby kvôli údajom, na ktorých boli vyškolené.

    „V príklade často zacielených skupín, ak ste sa pozerali na distribúciu v komentároch v súbore údajov o školeniach, zaniklo malé množstvo komentárov, ktoré obsahovali slovo„ gay “alebo„ feministka “a použili ho pozitívne. spôsobom, “vysvetlil Adams. „Zneužívajúce komentáre používajú tieto slová ako urážky. Preto ML, pozerajúc sa na vzorce, by povedala:„ Hej, prítomnosť tohto slova je celkom dobrým prediktorom toho, či je tento sentiment toxický. “

    Alfa algoritmus môže napríklad nesprávne označiť vyhlásenia ako „Som hrdý homosexuál“ alebo „Som feministka a transsexuál“ s vysokým skóre toxicity. Ale verejne transparentný tréningový proces - aj keď bolesť - bol pre Jigsawa neoceniteľným ponaučením o dôsledkoch neúmyselného zaujatia, uviedol Adams.

    Pri tréningu modelov strojového učenia na niečo také zúfalého a osobného, ​​ako je zneužívanie a obťažovanie online, zdôrazňuje existencia algoritmického skreslenia tiež skutočnosť, že samotná inteligencia nie je riešením. Sociálne spoločnosti, ako sú Facebook a YouTube, ponúkli funkcie moderovania obsahu AI svojich platforiem iba preto, aby upustili od škandálu a korekcie kurzu najatím tisícov ľudských moderátorov.

    Jigsawov kríž je kombináciou oboch. Perspektíva nerozhoduje o algoritmoch AI vo vákuu; API je integrované do rozhraní správy komunít a rozhrania na moderovanie obsahu, ktoré slúži ako pomocný nástroj pre moderátorov ľudských zdrojov. Perspektívni inžinieri opisujú moderovanie nenávistných prejavov s ML a bez ML pomocou analógie sena sena. AI pomáha automatizáciou procesu triedenia, zosvetľuje obrovské stohy sena a zároveň dáva ľuďom konečné slovo nad tým, či sa komentár považuje za urážlivý alebo obťažujúci.

    „Je to nová schopnosť ML, “ povedal Adams. „Ľudia hovoria o tom, aké inteligentné je AI, ale často nehovoria o všetkých spôsoboch, ako je to zle a niekedy nemé. Od samého začiatku sme vedeli, že to urobí veľa chýb, a tak sme povedali:„ Toto tento nástroj je užitočný pri moderovaní človeka, ale nie je pripravený na automatické rozhodovanie. ““ Nájdenie tejto toxickej reči však môže trvať problém „ihly v kupce sena“ a dostať ju na hrsť sena. “

    Čo je skóre toxicity?

    Najrozdeľujúcejším aspektom v perspektívnom modelovaní je uvedenie čísel do premennej tak subjektívnej ako „toxicita“. Prvá vec, na ktorú poukázal Adams, je, že skóre Perspektívy sú znakom pravdepodobnosti, nie závažnosti. Vyššie čísla predstavujú vyššiu pravdepodobnosť, že vzory v texte sa podobajú vzorom v komentároch, ktoré ľudia označili ako toxické.

    Pokiaľ ide o to, čo „toxický“ v skutočnosti znamená, tím perspektívy ho definuje všeobecne ako „hrubý, neúctivý alebo neprimeraný komentár, ktorý pravdepodobne spôsobí, že opustíte diskusiu.“ Ale ako sa to môže prejaviť, môže byť jemné. V roku 2018 spoločnosť Jigsaw v spolupráci s Rhodes Artificial Intelligence Lab (RAIL) vyvinula modely ML, ktoré dokážu vyzdvihnúť nejasnejšie formy hroziacej alebo nenávistnej reči, ako napríklad odmietavý, blahosklonný alebo sarkastický komentár, ktorý nie je otvorene nepriateľský.

    Až do tohto bodu bola väčšina modelov Perspektívy trénovaná tak, že ľudí požiadala, aby hodnotili internetové komentáre v škále od „veľmi toxických“ po „veľmi zdravé“. Vývojári môžu potom kalibrovať model tak, aby nahlásil komentáre nad určitým prahom, od 0, 0 do 1, 0. Skóre nad 0, 9 znamená vysokú pravdepodobnosť toxicity a skóre 0, 5 alebo nižšie znamená oveľa nižší stupeň algoritmickej istoty. Perspektíva tiež používa tzv. Normalizáciu skóre, ktorá vývojárom poskytuje konzistentnú základnú líniu, od ktorej sa interpretujú skóre. Adams vysvetlil, že v závislosti od fóra alebo webových stránok môžu vývojári kombinovať modely. Ak teda komunite nebude záležať na vulgárnosti, tento atribút sa dá zvážiť.

    Adams mi ukázal demo moderačné rozhranie integrované s Perspective API. Na paneli správca vedľa možností triedenia komentárov podľa horných, najnovších atď. Je malá ikona vlajky, ktorá sa dá usporiadať podľa toxicity. K dispozícii je tiež zabudovaný mechanizmus spätnej väzby, ktorý má moderátor ľudstva povedať Perspektíve, že nesprávne ohodnotil komentár a časom vylepšil model.

    Prešiel cez demo rozhranie na moderovanie komentárov na diskusnej stránke Wikipedia Talk, hodnotených rôznymi modelmi perspektívy, a na histogramovom grafe, ktorý rozpisuje, ktoré komentáre pravdepodobne budú útokom na autora stránky alebo útokom na iného komentátora.

    „Chceme vybudovať moderné nástroje na podporu strojov, ktoré by ľudí nahlásili na kontrolu, ale nechceme, aby nejaká centrálna definícia alebo niekto povedal, čo je dobré a čo zlé, “ povedal Adams. „Takže ak triedim podľa toxicity, vidíte, že na vrchol prichádzajú komentáre. Ale ak vám záleží viac na útokoch alebo hrozbách identity ako na metrikách, ako je napríklad nadávanie, možno by ste nepoužili všeobecný model toxicity. ingrediencie, ktoré môžete kombinovať. Ponúkame ich a vývojári ich vážia. ““

    Experiment RAIL využíva zrnitejší prístup. Študenti v Oxforde budujú dátový súbor desiatok tisícov komentárov z kanadských novín Globe a Mail 's komentármi a stránkami Wikipedia Talk. Žiadajú ľudských „anotátorov“, aby odpovedali na otázky týkajúce sa každého komentára súvisiaceho s piatimi vedľajšími atribútmi „nezdravého obsahu“: nepriateľské alebo urážlivé (trolly), odmietavé, blahosklonné alebo sponzorujúce, sarkastické a nespravodlivé zovšeobecnenia.

    Zameranie sa na tieto jemnejšie atribúty odhalilo nové zložité problémy s nezamýšľaným sklonom k ​​špecifickým skupinám a falošne pozitívne sarkastické poznámky. Je to súčasť rastúcich bolestí umelej inteligencie, ktorá čoraz viac rozširuje modely, ktoré jej pomáhajú porozumieť implicitným nepriamym významom ľudskej reči. Tím stále prechádza a komentuje tisíce komentárov a začiatkom tohto roku plánuje vydať konečný súbor údajov.

    „Chceme sa usilovať o to, aby komunita mohla získať súbor poznámok, a potom im môžeme vytvoriť prispôsobenú kombináciu perspektívnych modelov, “ povedal Adams.

    Reddit's Curious Testbed

    Reddit je mikrokozmos všetkého, čo je na internete dobré a strašné. K dispozícii je subreddit komunita pre každú tému a výklenok, bizarný záujem, na ktorý môžete myslieť. Jigsaw nepracuje s Redditom na podnikovej úrovni, ale jedno z najzaujímavejších miest, na ktorých sa testuje moderovanie AI Perspective, je na subreddite zvanom r / changemyview.

    Prekvapivo existujú rohy internetu, kde stále prebieha skutočná debata a diskusia. Zmena môjho pohľadu alebo CMV nie je ako väčšina ostatných čiastkových účtov. Cieľom je zverejniť názor, ktorý akceptujete, môže byť chybný alebo sa môže zmeniť, a potom si vypočuť a ​​porozumieť iným uhlom pohľadu, aby zistil, či môžu zmeniť váš názor na problém. Vlákna sa pohybujú od bežných tém, ako je správne poradie pozerania filmov Star Wars, až po vážne diskusie o otázkach vrátane rasizmu, politiky, kontroly zbraní a náboženstva.

    Change My View je zaujímavým testovacím miestom pre Perspektívu, pretože subreddit má svoj vlastný podrobný súbor pravidiel pre začatie a moderovanie rozhovorov, ktoré podnecujú argumenty a horúcu debatu podľa návrhu. Kal Turnbull, ktorý v Reddite prechádza u / Snorrrlax, je zakladateľom a jedným z moderátorov r / changemyview. Turnbull pre PCMag povedal, že perspektívne API je zvlášť dobre v súlade s pravidlom 2, ktoré v zásade zakazuje hrubý alebo nepriateľský prejav.

    „Znie to ako jednoduché pravidlo, ale je tu veľa nuansy, “ povedal Turnbull so sídlom v Škótsku. „Je ťažké automatizovať toto pravidlo bez toho, aby ste šikovne hovorili jazykom. Reddit vám poskytuje túto funkciu s názvom AutoModerator, kde môžete nastaviť filtre a kľúčové slová na označovanie. Ale je ich toľko falošných poplachov a môže byť dosť ťažké ich chytiť, pretože niekto môže povedať zlé slovo bez urážky a môže tiež uraziť niekoho bez použitia zlých slov. “

    Jigsaw oslovil Turnbull v marci 2018. Spolupráca sa začala pravidlom 2, ale čoskoro tím vytvoril perspektívne modely pre ďalšie pravidlá. Nejde o úplnú integráciu API perspektívy s otvoreným zdrojom, ale o botu Reddit, ktorá umožňuje moderátorom označiť komentáre zaznamenané nad daný prah toxicity.

    Za posledných šesť rokov robia Turnbull a ďalšie módy to všetko manuálne z frontu správ AutoModerator (označené kľúčové slová) a správ používateľov. Jigsaw používa roky poznámok od porušovateľov pravidiel, ktoré sledovali prostredníctvom rozšírenia prehľadávača, a na základe týchto údajov zostavil modely Perspective v kombinácii s niektorými existujúcimi modelmi toxicity Perspective. Počas celého roka 2018 režimy CMV poskytovali spätnú väzbu k otázkam, ako sú nadmerné falošné poplachy, a Jigsaw vylepšil prahové hodnoty pre bodovanie, zatiaľ čo naďalej modeloval viac pravidiel CMV.

    Komplexné rozsudky v online diskusii

    (Perspektíva robot integrovaná do rozhrania moderátora Reddit.)

    Perspektíva nie je živá pre všetky moderovania pravidla podstredníka. Niektoré z komplikovanejších alebo abstraktnejších pravidiel stále presahujú rámec toho, čomu tento druh ML rozumie.

    Napríklad pravidlo 4 upravuje systém Delta bodov v subkategórii, zatiaľ čo pravidlo B bráni používateľom hrať diablovho obhajcu alebo používať príspevok na „soapboaxing“. Takéto moderné moderovanie si vyžaduje kontextové údaje a obyčajné ľudské porozumenie, aby sa zistilo, či niekto argumentuje skutočným dôvodom alebo jednoducho trollingom.

    V dohľadnej budúcnosti budeme aj naďalej potrebovať ľudské módy. Tieto zložitejšie scenáre úsudku sú také, kde moderátori CMV začínajú vidieť trhliny v modelovaní AI, a inteligentnejšia automatizácia by mohla určiť, či je toto všetko škálovateľné.

    „Myslím si, že dôvod, prečo je to také zložité, je ten, že je to kombinácia nášho úsudku o ich pôvodnom príspevku a ich vzájomného pôsobenia počas celej konverzácie. Model teda nespôsobuje iba jeden komentár, “ povedal Turnbull. „Ak sa argument vracia tam a späť a na konci je komentár, ktorý hovorí„ ďakujem “alebo potvrdenie, pustíme ho, aj keď bolo pravidlo porušené skôr v závite. Alebo vtip, ktorý v kontexte môže sa zdať hrubý - je to pekná malá ľudská vec, a to je niečo, čo robot zatiaľ nedostane. ““

    Change My View je v súčasnosti jediným subredditom, ktorý momentálne využíva moderné modely Perspective ML na moderovanie, hoci Adams uviedol, že tím prijal žiadosti o prístup od niekoľkých ďalších. Špecifický súbor pravidiel CMV z neho robil ideálny skúšobný prípad, ale perspektívne modely sú poddajné; jednotlivé subredity môžu prispôsobiť algoritmus bodovania tak, aby vyhovoval ich pokynom pre komunitu.

    Ďalším krokom pre Turnbull je vypnutie CMV z Redditu, pretože komunita to vyrastá. Posledných šesť mesiacov novovytvorený moderátorský moderátor spolupracuje s Jigsawom na vyhradenom webe s hlbšou funkčnosťou, ako poskytuje mod rozhranie a roboty Reddit.

    Projekt je stále len v testovaní alfa, ale Turnbull hovoril o funkciách, ako sú napríklad proaktívne upozornenia, keď používateľ píše komentár, ktorý by mohol porušiť pravidlo, vstavané prehľady, ktoré poskytnú moderátorom viac kontextu, a historické údaje, aby sa mohli rozhodovať. Turnbull zdôraznil, že neexistujú žiadne plány na zastavenie alebo migráciu subredditu, ale je nadšený novým experimentom.

  • Všetky komentáre sú vhodné na tlač

    V závislosti od dňa v týždni sa webová stránka The New York Times dostane od 12 000 do viac ako 18 000 komentárov. Do polovice roku 2017 moderovali sekcie komentárov príspevky riadiaci pracovníci na plný úväzok, ktorí čítali každú jednotlivú poznámku a rozhodli sa, či ju schváli alebo zamietne.

    Bassey Etim, ktorý bol až do tohto mesiaca komunitným redaktorom časopisu Times , strávil desať rokov v komunitnom pulte a bol jeho redaktorom od roku 2014. Na vrchole pracovného dňa môže mať tím niekoľko ľudí, ktorí moderujú komentáre k názorovým správam, zatiaľ čo iní riešené spravodajské príbehy. Tabuľka sa rozdelila a sledovala rôzne zodpovednosti, ale tím približne tuctu ľudí bol neustále preradený alebo sa pohyboval v závislosti od aktuálnych aktuálnych správ. Z komentárov tiež kŕmili tidbity reportérom pre prípadné krmivo pre príbeh.

    Nakoniec sa ukázalo, že to bolo viac ako 12 ľudí, s ktorými sa dokázalo vyrovnať. Sekcie komentárov k príbehom by sa museli uzavrieť po dosiahnutí maximálneho počtu komentárov, ktoré by tím mohol moderovať.

    Skupina pre vývoj publika v novinách už experimentovala so strojovým učením o základných, zrejmých schváleniach komentárov, ale Etim povedal, že to nebolo zvlášť inteligentné alebo prispôsobiteľné. The Times prvýkrát oznámila svoje partnerstvo s Jigsaw v septembri 2016. Odvtedy sa jeho sekcie komentárov rozšírili z objavovania sa na menej ako 10 percentách všetkých príbehov na približne 30 percent dnes a na lezenie.

    Z pohľadu Jigsawa inkubátor videl príležitosť nakŕmiť perspektívne anonymizované údaje z miliónov komentárov za deň, moderovaných profesionálmi, ktorí by mohli pomôcť proces vylepšiť. Výmenou za anonymizované údaje o školeniach ML spolupracovali Jigsaw a Times na vytvorení platformy s názvom Moderátor, ktorá bola uvedená do prevádzky v júni 2017.

  • Vnútri moderátora, rozhranie komentárov NYT

    (Obrázok s láskavým dovolením spoločnosti The New York Times )

    Moderátor kombinuje modely Perspective s viac ako 16 miliónmi anonymizovaných, moderovaných komentárov Times siahajúcich do roku 2007.

    Tím komunity v rozhraní Moderátor skutočne vidí informačný panel s interaktívnym histogramovým grafom, ktorý vizualizuje rozpis komentárov nad určitý prah. Môžu napríklad posúvať posúvač dopredu a dozadu, aby automaticky schválili všetky komentáre iba so súhrnným skóre 0 až 20 percent, čo je založené na kombinácii potenciálu komentára pre obscénnosť, toxicitu a pravdepodobnosť, že budú zamietnuté. Nižšie sú uvedené tlačidlá na rýchle moderovanie, pomocou ktorých môžete komentár schváliť alebo odmietnuť, odložiť ho alebo označiť komentár, aby ste mohli pokračovať v zlepšovaní modelovania Perspektívy.

    „Pre každú časť webovej stránky sme analyzovali prichádzajúce komentáre a spôsob, akým by ich spoločnosť Perspektíva označovala. Použili sme verejné modely Perspektívy aj naše vlastné modely jedinečné pre časopis New York Times , “ uviedol Etim. „Analyzoval by som komentáre z každej sekcie a pokúsil som sa nájsť medzný bod, v ktorom by sme si mohli pohodlne povedať:„ OK, všetko nad túto pravdepodobnosť pomocou týchto špecifických značiek toxicity, ako napríklad obscénnosť, schválime. “

    Strojové učenie schvaľuje pomerne malé percento pripomienok (asi 25 percent alebo viac, povedal Etim), pretože Times pracuje na zverejňovaní komentárov k ďalším príbehom a nakoniec dokonca na prispôsobení toho, ako modely filtrujú a schvaľujú komentáre pre rôzne časti webu. Modely schvaľujú iba komentáre; odmietnutie stále riešia výlučne ľudskí moderátori.

    Tieto manuálne obmedzenia komentárov sú preč. Komentáre sa zvyčajne približujú príbehu buď 24 hodín po uverejnení online, alebo deň po jeho uverejnení v tlači, uviedol Etim.

    „Nenahrádzame vás strojmi“

    Ďalšou fázou je zabudovanie ďalších funkcií do systému, ktoré pomôžu moderátorom uprednostniť, ktoré komentáre sa majú najprv pozrieť. Automatizácia toho, čo bolo vždy manuálnym procesom, umožnila moderátorom čoraz častejšie proaktívne spolupracovať s reportérmi pri odpovedaní na pripomienky. Vytvoril sa cyklus spätnej väzby, kde komentáre vedú k následným správam a ďalším príbehom - môžu ušetriť a prerozdeliť zdroje a vytvoriť tak viac žurnalistiky.

    "Moderátor a perspektíva urobili z Timesov oveľa citlivejšie na obavy čitateľov, pretože na to máme prostriedky, či už je to písaním príbehov sami, alebo spoluprácou s reportérmi, aby sme vymysleli príbehy, " uviedol Etim. „Super vec na tomto projekte je, že sme nikoho nevyradili. Nenahrádzame vás strojmi. Používame jednoducho ľudí, ktorých máme, efektívnejšie a robíme naozaj ťažké rozhodnutia.“

    Tento dokument je otvorený spolupráci s inými publikáciami, ktoré pomôžu zvyšku odvetvia implementovať tento druh technológie. Môže pomôcť miestnym spravodajským strediskám s obmedzenými zdrojmi na udržiavanie sekcií s komentármi bez veľkého vyhradeného personálu a na použitie potenciálnych komentárov, ako je tomu v prípade Times , pri hľadaní potenciálnych potenciálnych zákazníkov a podnecovaní žurnalistiky.

    Etim prirovnal moderovanie pomocou AI k tomu, aby poľnohospodárovi poskytol mechanický pluh verzus rýľ. S pluhom môžete robiť prácu oveľa lepšie.

    „Ak sa perspektíva môže vyvíjať správnym spôsobom, dúfajme, že môže vytvoriť aspoň súbor usmernení, ktoré sú opakovateľné pre malé predajne, “ uviedol. „Je to dlhá hra, ale už sme založili veľa nadácií, aby sa stali súčasťou zážitku čitateľov. Potom môžu mať tieto miestne noviny opäť pripomienky a vytvoriť trochu prednej hlavy proti hlavným sociálnym hráčom.“

    Kričal do priepasti

    V tomto okamihu väčšina z nás videla ľudí, ktorí zaútočili alebo obťažovali sociálne médiá za vyjadrenie názoru. Nikto nechce, aby sa im to stalo, s výnimkou trollov, ktorí v tejto veci prosperujú. Dozvedeli sme sa, že kričanie na cudzinca, ktorý nikdy nebude počúvať racionálny argument, nie je cenným využitím nášho času.

    Perspektíva sa snaží zdôrazniť túto dynamiku, ale CJ Adams povedal, že širším cieľom je publikovať údaje, výskum a nové otvorené UX modely s otvoreným zdrojom, aby sa vytvorili nové štruktúry konverzácie - skľučujúca úloha. Ak sa z internetu stane zdravé miesto, ktoré stojí za to, aby si ľudia zaslúžili čas, znamená to, že tieto systémy sa prispôsobia aj za ďalšie sekcie a subreddity. Nástroje AI musia byť v konečnom dôsledku schopné zvládnuť gargantuanské sociálne aplikácie a siete, ktoré dominujú našim každodenným digitálnym interakciám.

    Okrem toho, čo interne robia Facebook, Twitter a ďalšie sociálne giganty, je najpriamejším spôsobom, ako to dosiahnuť, posunúť technológiu od moderátorov k samotným používateľom. Adams poukázal na projekt Coral, aby získal predstavu o tom, ako by to mohlo vyzerať.

    Projekt Coral bol pôvodne založený ako spolupráca medzi Mozilla Foundation, New York Times a Washington Post. Spoločnosť Coral buduje nástroje s otvoreným zdrojom, napríklad platformu Talk, ktorá povzbudzuje online diskusiu a dáva spravodajským webom alternatívu k vypnutiu sekcií komentárov. Talk v súčasnosti poháňa platformy pre takmer 50 online vydavateľov vrátane pošty , časopisu New York, denníka The Wall Street Journal a časopisu The Intercept.

    Začiatkom tohto mesiaca Vox Media získala projekt Coral od Mozilla Foundation; plánuje ho „hlboko integrovať“ do platformy Chorus, správy obsahu a rozprávania príbehov.

    Perspektíva má doplnok pre projekt Coral, ktorý používa rovnaké základné technológie - bodové hodnotenie toxicity a limity na základe ML - na poskytnutie aktívnych návrhov používateľom pri písaní, uviedol Adams. Keď teda používateľ píše komentár obsahujúci frázy označené ako zneužitie alebo obťažovanie, môže sa používateľovi zobraziť upozornenie: „Pred uverejnením tohto upozornenia nezabudnite na naše pokyny pre komunitu“ alebo „Jazyk v tomto komentári môže porušovať naše pokyny pre komunitu. Náš moderačný tím ho čoskoro prehodnotí. ““

    „Táto malá nuda môže pomôcť ľuďom len premyslieť si to, ale nikomu neblokuje, “ povedal Adams. „Nezastavuje to diskusiu.“

    Je to mechanizmus, ktorý sa integrovali platformy videohier a streamingu, aby zabránili zneužívaniu a obťažovaniu. Používatelia Twitteru by z tohto systému mohli jednoznačne profitovať.

    Hovorí to k myšlienke, ktorú vedecký pracovník MIT Andrew Lippmann vyniesol v budúcom vydaní PCMag: Hovoril o zabudovaných mechanizmoch, ktoré umožnia ľuďom zastaviť sa a rozmýšľať pred tým, ako zdieľajú niečo online, aby pomohli zabrániť šíreniu dezinformácií. Tento koncept sa vzťahuje aj na online diskusiu. Vytvorili sme komunikačné systémy bez trenia, ktoré dokážu exponenciálne zosilniť dosah výroku, ale niekedy môže byť trochu trenia dobrá vec, povedal Lippmann.

    Perspektíva sa netýka použitia AI ako plošného riešenia. Je to spôsob, ako formovať modely ML do nástrojov pre ľudí, ktoré im pomôžu pri kurátori ich vlastných skúseností. Jedným z kontrapunktov je to, že ak ľuďom uľahčíte vyladenie online hluku, ktorý sa im nepáči, internet sa stane ešte viac ozvennou komorou, ako už je.

    Na otázku, či by to nástroje ako Perspektíva v konečnom dôsledku mohli zhoršiť, Adams uviedol, že je presvedčený, že existujú online komory s echo, pretože neexistujú mechanizmy na usporiadanie diskusie, v ktorej by ľudia mohli zmysluplne nesúhlasiť.

    „Cesta najmenšieho odporu je:„ Títo ľudia bojujú. Nechajme ich, aby sa navzájom dohodli vo svojich vlastných rohoch. Nechajte ľudí silo, “povedal. „Necháte ľudí, aby kričali všetkých ostatných z miestnosti, alebo ukončíte diskusiu. Chceme, aby spoločnosť Perspective vytvorila tretiu možnosť.“

    Adams zostavil vzorový scenár. Ak sa spýtate miestnosti s 1 000 ľuďmi, „Koľko z vás dnes čítalo niečo, o čo ste sa skutočne zaujímali?“ väčšina používateľov internetu bude odkazovať na článok, tweet, príspevok alebo niečo, čo čítajú online. Ale ak sa ich potom spýtate, „Koľko z vás si myslelo, že stojí za váš čas na komentár alebo diskusiu?“ všetky ruky v miestnosti pôjdu dolu.

    „Pre mnohých z nás to jednoducho nestojí za námahu. Štruktúra diskusie, ktorú práve teraz máme, znamená iba zodpovednosť. Ak máte aktuálne rozumné myšlienky alebo niečo, o čo sa chcete podeliť, pre väčšinu ľudí to tak nie je.“ Nechcem sa zúčastniť, “povedal Adams. „To znamená, že z toho 1 000 ľudí, ktorí by mohli byť v miestnosti, je v diskusii zastúpená iba hrsť; povedzme, 10 ľudí. Som hlboko presvedčený, že dokážeme vybudovať štruktúru, ktorá umožní ostatným 990 vrátiť sa do diskusie. a robí to tak, aby si našli čas. “

Ako sa spoločnosť Google snaží skladať detoxikáciu internetu