Domov názory Ai je (tiež) sila pre dobro Ben Dickson

Ai je (tiež) sila pre dobro Ben Dickson

Obsah:

Video: Clio - Ai-je perdu le nord ? (Clip Officiel) (Septembra 2024)

Video: Clio - Ai-je perdu le nord ? (Clip Officiel) (Septembra 2024)
Anonim

V roku 2017 Amyotrofická laterálna skleróza (ALS), devastujúca neurologická porucha, okradla Pat Quinna, zakladateľa slávnej súťaže Ice Bucket Challenge, o jeho schopnosť hovoriť.

V roku 2018 mu umelá inteligencia pomohla získať ju späť.

Vďaka pokroku v strojovom vzdelávaní a hlbokom učení sa algoritmy umelej inteligencie stali veľmi dobrými v napodobňovaní ľudí. Ale zatiaľ čo mnoho významných udalostí v oblasti vesmíru bolo negatívnych, imitačná sila AI bola Quinnovou silou pozitívnej zmeny.

„Väčšina ľudí žijúcich s ALS (známa tiež ako motorická neurónová choroba) je paralyzovaná a neschopná komunikovať s ničím iným než umelými„ počítačovými “hlasmi, “ hovorí Oskar Westerdal, spoluzakladateľ projektu Revoice, iniciatívy, ktorej cieľom je pomôcť pacientom ALS, ako je Quinn., Aby sa Quinnov hlas znovu vytvoril, projekt Revoice spolupracoval s Lyrebirdom, jednou z mála spoločností, ktoré používajú AI na klonovanie hlasu osoby - skupiny, ktorá tiež zahŕňa Google WaveNet a Voicery, spustenie podporované Y kombinátorom, ktoré používa AI na vytváranie syntetizovaných hlasových nahrávok.,

Ako hlboké vzdelávanie vytvára ľudské hlasy

Za týmito aplikáciami sú algoritmy hlbokého učenia, populárna vetva umelej inteligencie, ktorá nahliada do veľkých súborov údajov za účelom pochopenia a vzorcov, ktoré nemožno zachytiť tradičným softvérom založeným na pravidlách. Keď trénujete hlboký učiaci sa syntetizátor hlasu s dostatočným počtom zvukových záznamov, vytvorí sa digitálny model, ktorý predstavuje hlas osoby a môže generovať nové vzorky hlasu.

Pred príchodom technológie syntézy hlasu s AI museli pacienti s ALS používať všeobecné digitálne hlasy, ktoré neboli ich vlastné. Iné technológie by mohli spojiť vopred zaznamenané vety s hlasom pacienta, ale výsledky boli príliš umelé a vyžadovali desiatky hodín hlasových nahrávok, aby boli čo najmenej využiteľné.

Na druhej strane aplikácie založené na hlbokom učení si vyžadujú oveľa menej údajov a poskytujú lepšie výsledky. „To, čo Lyrebird dokáže dosiahnuť za pár hodín zvuku, je pozoruhodné - ľuďom dáva kompletný digitálny klon hlasu, takže môžu hovoriť, čo chcú, “ hovorí Westerdal.

Opätovné vytvorenie hlasu osoby bez hlasu

Jednou z limitov aplikácií zameraných na hlboké vzdelávanie je ich závislosť od vysoko kvalitných vzoriek údajov pri trénovaní ich neurónových sietí. Problém s pacientmi s ALS je v tom, že akonáhle prídu o hlasy, nie je možné zaznamenávať vzorky hlasu. Našťastie mal Quinn hodiny zaznamenaných kľúčových prejavov a rozhovorov.

„Najväčšou výzvou bola kvalita. Táto technológia je úplne závislá od konzistentných a kvalitných nahrávok, ktoré sa riadia aj presným scenárom. Museli sme preto pracovať so zvukovým štúdiom, aby sme manuálne„ obnovili “a prepisovali všetky riadky dialógu, ktoré sme našli Pat, “hovorí Westerdal.

„Boli sme trochu vystrašení, že nebudeme schopní poskytnúť vynikajúcu kvalitu na vytvorenie Patovho hlasu, “ hovorí Jose Sotelo, spoluzakladateľ spoločnosti Lyrebird. „Pretože sme nemohli získať čisté nahrávky, konečná kvalita umelého hlasu nie je dokonalá. Myslíme si, že s čistými nahrávkami dokážeme urobiť oveľa lepšiu prácu.“

Výsledky znejú trochu neprirodzene a synteticky. Ale pre Quinna, ktorý na komunikáciu používal všeobecný hlas, bol tento rozdiel dramatický. „Po vypočutí môjho hlasu touto novou technológiou som bol vyhodený preč. Pre pacientov, ktorí vedia, že môžu mať svoj vlastný hlas po tom, ako ho ALS odstráni, zmení to spôsob, akým ľudia žijú s ALS, “ hovorí.

Quinn odporúča, aby pacienti s ALS zaznamenali svoje hlasy skôr, ako bude neskoro. „Po opätovnom vypočutí vlastného hlasu potrebujem pacientov s ALS, aby vedeli, že nahrávanie ich hlasu je nesmierne dôležité, “ hovorí.

Vyvažovanie negatívnych použití syntetizátorov AI

Začiatkom tohto roka spustila aplikácia FakeApp, aplikácia na výmenu tvárí poháňaná AI, nápor falošných pornografických videí s celebritami a politikmi. Existujú obavy, že aplikácie ako FakeApp a Lyrebird uvedú nový vek falošných správ, podvodov a falšovania.

Etická stránka na webovej stránke spoločnosti Lyrebird už uznala, že táto technológia by „mohla mať„ potenciálne nebezpečné následky, ako sú klamliví diplomati, podvody a všeobecnejšie akýkoľvek iný problém spôsobený krádežou identity niekoho iného “.

Aby sme to dosiahli, web spoločnosti obsahuje niekoľko syntetických nahrávok vytvorených hlasmi Donalda Trumpa a Baracka Obamu.

@realDonaldTrump https://t.co/N6DRPdEGPT pic.twitter.com/G30DvmQNdk

- Lyrebird AI (@LyrebirdAi) 4. septembra 2017

Príbeh Quinna by mohol pomôcť objasniť pozitívne aspekty odvetvia, ktoré si vybralo pre potenciálne strašidelné a neetické použitie jeho aplikácií. „Je dôležité, aby si ľudia uvedomili jasnú stránku tejto technológie, “ pripomína Lyrebird's Sotelo.

Okrem lekárskeho použitia môžu aplikácie syntetizátora AI slúžiť aj iným produktívnym cieľom. Voicery poskytuje značkám prispôsobené digitalizované hlasy založené na algoritmoch AI. Google tiež experimentuje s WaveNet, aby používateľom zariadení so systémom Google Assistant poskytoval prirodzenejší zážitok. Medzi ďalšie oblasti, v ktorých je táto technológia užitočná, patrí automatizácia zvukových kníh alebo uľahčenie hlasového dabingu vo filmoch.

Etické a právne prekážky nepochybne vzniknú a diskusie budú pokračovať. Ale pre Quinna je AI sila dobra. „Nechcem znieť ako počítač, “ hovorí. "Chcem znieť ako ja."

Ai je (tiež) sila pre dobro Ben Dickson