Domov Vlastnosti 10 Trápny algoritmus zlyhá

10 Trápny algoritmus zlyhá

Obsah:

Video: Složitost O, Asymptotická složitost (November 2024)

Video: Složitost O, Asymptotická složitost (November 2024)
Anonim

Technológia nie je len pre geekov, je to pre každého a je to veľa ľudí. Iba s hrstkou spoločností, ktoré ovládajú väčšinu hardvéru a softvéru - od spoločností Apple a Amazon, cez Facebook, Microsoft a Google - môžu tak veľa urobiť, aby ovládali vašu peňaženku a bulvy. Čo robiť zlá, obrovská spoločnosť? Spoliehajte sa na algoritmy, ktoré vám umožnia vykonať niektoré dôležité rozhodnutia.

Oxford Living Slovníky definuje algoritmus ako „proces alebo súbor pravidiel, ktoré sa majú dodržiavať pri výpočtoch alebo pri iných operáciách na riešenie problémov, najmä v počítači“. Dokonalým príkladom je informačný kanál na Facebooku. Nikto nevie, ako to funguje, že niektoré z vašich príspevkov sa zobrazujú v informačných kanáloch niektorých ľudí alebo nie, ale Facebook to robí. Alebo čo Amazon, ktorý vám zobrazuje súvisiace knihy? Súvisiace vyhľadávania na stránkach Google? To všetko sú prísne strážené tajomstvá, ktoré pre spoločnosť robia veľa práce a môžu mať veľký vplyv na váš život.

Algoritmy však nie sú dokonalé. Zlyhajú a niektoré zlyhajú veľkolepo. Pridajte záblesk sociálnych médií a malá závada sa môže zmeniť na nočnú moru PR naozaj rýchlo. Je zriedka škodlivé; toto je to, čo New York Times nazýva „Frankenstein Moments“, keď sa tvor, ktorého niekto vytvoril, zmení na monštrum. Stáva sa to a niektoré z najzávažnejších nedávnych príkladov sme zostavili nižšie. Dajte nám vedieť svoje obľúbené v komentároch nižšie.

    1 sporných reklám Instagramu

    Ako uvádza The Guardian , Facebook rád spúšťa reklamy na svoju službu Instagram s príspevkami od svojich vlastných používateľov. Algoritmus však vybral nesprávnu „fotografiu“, aby sa presadil priateľom Olivie Solon, ktorá je reportérkou The Guardian a vybrala si jednoročnú snímku obrazovky, ktorú vzala z hroziaceho e-mailu.

    2 Zacielené rasistické reklamy

    Minulý týždeň ProPublica informovala, že Facebook povolil inzerentom zacieliť na urážlivé kategórie ľudí, ako napríklad „Židia nenávisti“. Táto stránka zaplatila 30 dolárov za reklamu (uvedenú vyššie), ktorá bola zacielená na publikum, ktoré by pozitívne reagovalo na veci ako „prečo Židia ničia svet“ a „Hitler neurobil nič zlé“. Bola schválená do 15 minút.

    Bridlica našla podobne útočné kategórie a stala sa ďalšou z dlhých radov vecí, za ktoré sa Facebook musel nielen ospravedlniť, ale sľúbiť, že sa s určitým ľudským dohľadom opraví. Viete, napríklad, keď umiestnili volebné reklamy na Rusko vo výške 100 000 dolárov.

    V príspevku na Facebooku COO Sheryl Sandbergová uviedla, že bola „znechutená a sklamaná z týchto slov“ a oznámila zmeny svojich reklamných nástrojov.

    BuzzFeed skontroloval, ako si Google poradí s podobnými vecami, a zistil, že bolo ľahké nastaviť aj cielené reklamy, ktoré budú vidieť rasisti a fanatici. Denné zviera to skontrolovalo na Twitteri a našlo milióny reklám pomocou výrazov ako „nacisti“, „spätná väzba“ a slovo „N“.

    3 roky v recenzii na Facebooku

    Ak ste na Facebooku, bezpochyby ste videli jeho videá z konca roka, ktoré boli vygenerované algoritmom, s vrcholmi za posledných 12 mesiacov. Alebo pre niektorých slabé svetlá. V roku 2014 jeden otec videl fotografiu svojej neskorej dcéry, zatiaľ čo druhý videl snímky svojho domu v plameňoch. Ďalšími príkladmi sú ľudia, ktorí vidia svojich domácich miláčikov, urny plné popola rodičov a zosnulých priateľov. Do roku 2015 Facebook sľúbil, že odfiltruje smutné spomienky.

  • 4 Tesla Autopilot Crash

    Väčšina algoritmických snafusov nie je ani zďaleka smrteľná, ale svet vozidiel s vlastným riadením prinesie úplne novú úroveň nebezpečenstva. To sa už stalo aspoň raz. Majiteľ Tesly na diaľnici Florida použil poloautonómny režim (Autopilot) a narazil do prívesu, ktorý ho prerušil. Tesla rýchlo vydal aktualizácie, ale bola to skutočne chyba režimu Autopilot? Národná správa pre bezpečnosť cestnej premávky hovorí, že možno nie, pretože systém vyžaduje, aby vodič zostal upozornený na problémy, ako môžete vidieť na videu vyššie. Tesla teraz bráni tomu, aby sa program Autopilot zapojil, aj keď vodič najskôr neodpovedá na vizuálne pokyny.

  • 5 Tay Rasist Microsoft AI

    Pred pár rokmi mali chatovací roboti brať svet búrkou, nahrádzať zástupcov zákazníckeho servisu a robiť z online sveta chatové miesto na získanie informácií. Spoločnosť Microsoft reagovala v marci 2016 vyslaním AI s názvom Tay, s ktorým môžu ľudia, najmä vo veku 18 až 24 rokov, komunikovať na Twitteri. Tay by zase zverejňovala verejné správy pre masy. Ale za menej ako 24 hodín, keď sa Tay učil od zlomyseľných mas, sa stal rasistom s plným dychom. Microsoft okamžite stiahol Tay; V decembri 2016 sa vrátila ako nová AI s názvom Zo so silnými kontrolami a vyvážením, ktoré ju ochránili pred zneužívaním.

    6 Blahoželáme k vášmu (neexistujúcemu) dieťaťu!

    Úplné zverejnenie: Keď píšem, moja žena je skutočne tehotná. Obaja sme dostali tento e-mail od Amazonu, v ktorom sa hovorí, že niekto pre nás niečo kúpil z nášho registra detí. Zatiaľ sme to nezverejnili, ale nebolo to také šokujúce. Medzitým získalo tú istú poznámku aj niekoľko miliónov ďalších zákazníkov Amazonu, vrátane niektorých bez registra… alebo dieťaťa na ceste. Mohlo to byť súčasťou systému phishingu, ale nebolo. Amazon zachytil chybu a odoslal e-mail s následným ospravedlnením. Do tej doby sa mnohí sťažovali, že to bolo nevhodné alebo necitlivé. Bol to menej algoritmus ako bludný e-mailový server, ale ukazuje sa, že je vždy ľahké uraziť.

    7 Amazon „odporúča“ bombové materiály

    Všetci na to skočili potom, čo to oznámili britské Channel 4 News, od Fox News po New York Times . Údajne sa zistilo, že Amazonova funkcia „často kupovaného dokopy“ by ľuďom ukázala, čo potrebujú na stavbu bomby, keby začali s jednou zo zložiek, ktorú by stránka nemenovala (bol to dusičnan draselný).

    Algoritmus Amazonu skutočne ukázal, že kupujúci ukážu ingrediencie na výrobu čierneho prášku v malom množstve, čo je v Spojenom kráľovstve úplne legálne a používa sa na všetky druhy vecí - napríklad na ohňostroje - ako sa rýchlo ukázalo v neuveriteľne dobre premyslenej- z blogového príspevku na Idle Words. Namiesto toho sa všetky správy týkajú toho, ako sa na ňu Amazon pozerá, pretože to je to, čo musia povedať, že robia vo svete obávajúcom sa terorizmu a logiky.

    8 Google Maps Gets Racist

    V roku 2015 sa spoločnosť Google musela ospravedlniť, keď služba Mapy Google hľadala výraz „n ***** king“ a „n *** a house“, čo viedlo k Bielemu domu, ktorý v tom čase okupoval Barack Obama. Bol to výsledok „Googlebomb“, v ktorom výraz používaný znova a znova vyhľadáva vyhľadávací nástroj a je označený ako „populárny“, takže výsledky idú na začiatok vyhľadávania. Takto slovo „Santorum“ získalo novú definíciu.

    9 značiek Google pre ľudí ako gorily

    Fotky Google je úžasná aplikácia / služba, ktorá ukladá všetky vaše fotografie a ešte oveľa viac. Jednou z týchto vecí je automatické označovanie ľudí a vecí na fotografiách. Používa rozpoznávanie tváre pre ľudí, aby ich zúžil na správnu osobu. Mám dokonca priečinok všetkých svojich psov a nikoho z nich som neoznačil. Fungovalo to veľmi dobre, keď sa v roku 2015 Google musel ospravedlniť počítačovému programátorovi Jackymu Alcinému, keď on a jeho priateľ - obaja čierni - boli službou identifikovaní ako gorily. „Sme zdesení a skutočne nás mrzí, že sa to stalo, “ povedal Google spoločnosti PCMag.

    10 Robot Security Hits Child, Kills Self

    Knightscope vyrába autonómne bezpečnostné roboty zvané K5 pre hliadkujúce školy, nákupné strediská a štvrte. 5-noha vysoké Dalek-esque kužele na kolesách - čo je podľa ich mienky, sú stále v beta testovaní - majú tendenciu robiť správy nie pre ničivý zločin, ale pre chyby.

    Napríklad v júli 2016 sa K5 v obchodnom centre Stanford v Palo Alto rozbehla na pätnásťmesačnú úroveň a Knightscope sa musel formálne ospravedlniť. To isté miesto - možno ten istý droid - malo na parkovisku hnusnú opilosť, ale aspoň to nebola chyba K5. Porota je stále na jednotke K5 v Georgetown Waterfront, kancelárskom / nákupnom komplexe vo Washingtone, DC, ktorá údajne zakopla o niekoľko schodov do vodnej fontány už po jednom týždni v práci. Nevyzerá dobre pre Skynetovu armádu.

10 Trápny algoritmus zlyhá