Obsah:
Video: Illustrator on the iPad - 7 Most Useful Features at Release ✏️ (November 2024)
Spoločnosť Google nedávno opakovala službu Duplex, aby hosťom reštaurácií a zamestnancom salónu výslovne oznámila, že hovoria s Asistentom Google a zaznamenávajú sa.
Vylepšením duplexu sa spoločnosť Google opiera o časť tejto kritiky. Prečo je však také dôležité, aby spoločnosti boli transparentné, pokiaľ ide o totožnosť ich agentov AI?
Môžu asistenti AI slúžiť zlým účelom?
„Stále rastie očakávanie, že keď posielate správy firmám, mohli by ste komunikovať s chatom poháňaným AI. Ale keď skutočne budete počuť hovorenie ľudí, vo všeobecnosti očakávate, že to bude skutočná osoba, “ hovorí Joshua March, generálny riaditeľ spoločnosti Coversocial.
March hovorí, že sme na začiatku ľudí, ktorí majú pravidelne zmysluplné interakcie s AI, a pokroky v tejto oblasti vyvolali obavy, že hackeri môžu zneužívať agentov AI na škodlivé účely.
„V najlepšom prípade by mohli roboti zo umelej inteligencie so škodlivými úmyslami uraziť ľudí, “ hovorí Marcio Avillez, vedúci oddelenia SVP spoločnosti Cujo AI. Ale Marcio dodáva, že môžeme čeliť hroznejším hrozbám. Napríklad umělá inteligencia sa môže naučiť špecifické jazykové vzorce, čím uľahčuje prispôsobenie technológie tak, aby manipulovala s ľuďmi, vydávala sa za obete a útoky proti phishingu (phishing) a podobné aktivity.
Mnoho odborníkov súhlasí s tým, že hrozba je skutočná. V stĺpci pre CIO Steven Brykman stanovil rôzne spôsoby, ako je možné využiť technológiu, ako je Duplex: „Aspoň s ľuďmi, ktorí volajú ľudí, stále existuje obmedzujúci faktor - človek môže uskutočňovať iba toľko hovorov za hodinu, za deň. Ľudia musia byť platení, prestávky a tak ďalej. Ale AI chatbot by mohol doslova uskutočniť neobmedzený počet hovorov s neobmedzeným počtom ľudí neobmedzeným spôsobom!"
V tejto fáze počujeme väčšinu špekulácií; stále nevieme rozsah a závažnosť hrozieb, ktoré môžu vzniknúť s príchodom hlasových asistentov. Mnohé z potenciálnych útokov, ktoré sa týkajú hlasových asistentov, sa však dajú znehodnotiť, ak spoločnosť poskytujúca technológiu výslovne komunikuje s používateľmi, keď komunikujú s agentom AI.
Obavy o ochranu súkromia
Ďalším problémom spojeným s používaním technológií, ako je Duplex, je potenciálne riziko pre súkromie. Systémy poháňané AI potrebujú užívateľské dáta, aby mohli trénovať a vylepšovať svoje algoritmy, a Duplex nie je výnimkou. Ako to bude ukladať, zabezpečovať a používať tieto údaje, je veľmi dôležité.
Objavujú sa nové nariadenia, ktoré od spoločností požadujú výslovný súhlas používateľov, keď chcú zhromažďovať svoje informácie, ale väčšinou boli navrhnuté tak, aby pokrývali technológie, v ktorých používatelia úmyselne iniciujú interakcie. To má zmysel pre asistentov AI, ako sú Siri a Alexa, ktoré sú aktivované používateľom. Nie je však jasné, ako by sa nové pravidlá vzťahovali na pomocníkov AI, ktorí oslovia používateľov bez toho, aby boli spustení.
Brykman vo svojom článku zdôrazňuje potrebu zavedenia regulačných záruk, ako sú zákony, ktoré požadujú od spoločností, aby vyhlásili prítomnosť agenta AI, alebo zákon, ktorý keď sa pýtate chatbota, či je to chatbot, musí povedať: „Áno, Som chatbot. “ Takéto opatrenia by poskytli ľudskému partnerovi šancu rozpojiť sa alebo aspoň rozhodnúť, či chcú komunikovať so systémom AI, ktorý zaznamenáva ich hlas.
Aj s takýmito zákonmi obavy z ochrany súkromia nezmiznú. „Najväčšie riziko, ktoré predpokladám v súčasnej inkarnácii technológie, je to, že spoločnosti Google poskytne ešte viac údajov o našich súkromných životoch, ktoré doteraz neexistovali. Až do tohto bodu vedeli iba o našej online komunikácii; teraz získajú skutočný prehľad o naše rozhovory v reálnom svete, “hovorí Vian Chinner, zakladateľ a CEO spoločnosti Xineoh.
Nedávne škandály v oblasti súkromia, ktoré sa týkajú veľkých technologických spoločností, v ktorých použili užívateľské údaje sporným spôsobom pre svoje vlastné zisky, vytvorili nedôveru v to, že by im mali dať viac okien do našich životov. „Ľudia vo všeobecnosti cítia, že veľké spoločnosti v Silicon Valley ich vnímajú ako zásoby namiesto zákazníkov a majú veľkú nedôveru voči takmer všetkému, čo robia, bez ohľadu na to, ako prelomový a život meniaci sa nakoniec skončí, “ hovorí Chinner.
Funkčné poruchy
Napriek tomu, že má duplex prirodzený hlas a tón a používa zvuky podobné človeku, ako sú „mmhm“ a „ummm“, nelíši sa od iných súčasných technológií AI a trpí rovnakými obmedzeniami.
Či už sa ako rozhranie používa hlas alebo text, agenti AI dokážu vyriešiť konkrétne problémy. Preto ich nazývame „úzkou AI“ (na rozdiel od „všeobecnej AI“ - typ umelej inteligencie, ktorá sa môže zapojiť do všeobecného riešenia problémov, ako to robí ľudská myseľ). Aj keď úzka umelá inteligencia môže byť výnimočne dobrá pri plnení úloh, na ktoré je naprogramovaná, môže dôjsť k jej zlyhaniu, keď sa dostane scenár, ktorý sa odchyľuje od problémovej domény.
„Ak si spotrebiteľ myslí, že hovoria s človekom, pravdepodobne sa spýta na niečo, čo je mimo bežného scenára AI, a potom, keď mu robot nerozumie, dostane frustrujúcu odpoveď, “ hovorí marec Conversocial.
Naopak, keď človek vie, že hovorí s AI, ktorý bol vyškolený na rezervovanie stolov v reštaurácii, pokúsi sa vyhnúť používaniu jazyka, ktorý zamieňa AI a spôsobí, že sa bude správať neočakávaným spôsobom, najmä ak prináša im zákazníkom.
„Zamestnanci, ktorí prijímajú hovory z duplexu, by mali dostať priamy úvod, že to nie je skutočná osoba. Pomohlo by to, aby komunikácia medzi zamestnancami a AI bola konzervatívnejšia a jasnejšia, “ hovorí Avillez.
Z tohto dôvodu, kým (a ak) nevyvinieme umelú inteligenciu, ktorá môže fungovať na rovnakej úrovni ako ľudská inteligencia, je v záujme samotných spoločností, aby boli transparentné, pokiaľ ide o ich používanie umelej inteligencie.
Na konci dňa je časť strachu z hlasových asistentov, ako je Duplex, spôsobená skutočnosťou, že sú noví, a my si stále zvykáme stretávať sa s nimi v nových prostrediach a prípadoch použitia. „Aspoň niektorí ľudia sa zdajú byť veľmi nepohodlní s myšlienkou hovoriť s robotom bez toho, aby o tom vedeli, takže zatiaľ by to malo byť pravdepodobne poskytnuté protistranám v rozhovore, “ hovorí Chinner.
- AI je (tiež) sila pre dobré AI je (tiež) sila pre dobré
- Keď AI stiera čiaru medzi realitou a fikciou Keď AI stiera čiaru medzi realitou a fikciou
- Umelá inteligencia má problém so zaujatosťou a je to naša chyba Umelá inteligencia má problém so zaujatosťou a je to naša chyba
Ale z dlhodobého hľadiska si zvykneme na interakciu s agentmi AI, ktorí sú chytrejší a schopnejší plniť úlohy, ktoré sa predtým považovali za výlučnú doménu ľudských operátorov.
„Budúcej generácii bude jedno, či hovoria s AI alebo s človekom, keď kontaktujú firmu. Chcú len jednoducho a rýchlo získať odpoveď a vyrastú s Alexom. Čakajú na vydržať hovoriť s človekom bude oveľa frustrujúcejšie, než iba interakcia s robotom, “hovorí Conversocial's March.