AntiFake: alat koji ljudski glas štiti od 'deepfakea'

AntiFake koristi kontradiktorne tehnike kako bi spriječio sintezu lažnog govora, otežavajući AI alatima čitanje potrebnih karakteristika iz glasovnih snimaka

Mladen Smrekar srijeda, 29. studenog 2023. u 10:17
AntiFake otežava korištenje objavljenih glasovnih podataka za sintetiziranje tuđih glasova i lažno predstavljanje 📷 freepik
AntiFake otežava korištenje objavljenih glasovnih podataka za sintetiziranje tuđih glasova i lažno predstavljanje freepik

Ubrzani napredak generativne umjetne inteligencije potaknuo je razvoj realistične sinteze govora. Iako ova tehnologija ima potencijal poboljšati živote putem personaliziranih glasovnih pomoćnika i komunikacijskih alata, ona je dovela i do pojave deepfakeova u kojima se sintetizirani govor može zloupotrijebiti za prevaru ljudi i strojeva.

Proaktivan stav

Kao odgovor na ovu prijetnju istraživači Laboratorija za računalnu sigurnost i privatnost na Washingtonovom sveučilištu u St. Louisu razvili su alat nazvan AntiFake, novi obrambeni mehanizam osmišljen kako bi spriječio neovlaštenu sintezu govora prije nego što se ona dogodi. AntiFake je upravo predstavljen na konferenciji o računalnoj i komunikacijskoj sigurnosti ACM CCS 2023 koja se ovaj tjedan održava u Kopenhagenu.

AntiFake koristi tehniku ​​suparničkog strojnog učenja kako bi spriječio neovlaštenu sintezu govora 📷 Ning Zhang, McKelvey School of Engineering, Washington University in St. Louis
AntiFake koristi tehniku ​​suparničkog strojnog učenja kako bi spriječio neovlaštenu sintezu govora Ning Zhang, McKelvey School of Engineering, Washington University in St. Louis

Za razliku od tradicionalnih metoda detekcije deepfakea koje se koriste za procjenu i otkrivanje sintetičkog zvuka kao alata za ublažavanje napada, AntiFake zauzima proaktivan stav. On koristi kontradiktorne tehnike kako bi spriječio sintezu lažnog govora, otežavajući AI alatima čitanje potrebnih karakteristika iz glasovnih snimaka. Kod je besplatno dostupan korisnicima.

Impresivna stopa zaštite

"AntiFake otežava korištenje objavljenih glasovnih podataka za sintetiziranje naših glasova i lažno predstavljanje", objašnjava glavni autor Ning Zhang.

Ning Zhang, tvorac AntiFakea inspirirao se alatom Glaze 📷 Washington University in St. Louis
Ning Zhang, tvorac AntiFakea inspirirao se alatom Glaze Washington University in St. Louis

"Koristi tehniku ​​suparničkog strojnog učenja (adversarial AI) koja je izvorno bila dio kutije alata kibernetičkih kriminalaca, ali sad je mi koristimo za obranu od njih. Malo zabrljamo snimljeni audio signal, iskrivimo ga ili poremetimo tek toliko da i dalje zvuči ispravno ljudskim slušateljima, ali umjetnoj inteligenciji zvuči potpuno drukčije."

Nema prepreka

Kako bi osigurali da se AntiFake može suprotstaviti nepoznatim modelima sinteze, istraživači su izradili alat koji se može generalizirati. Na testovima pet sintetizatora govora AntiFake je postigao stopu zaštite veću od 95%, a njegovu su upotrebljivost potvrdili i ljudi različitih socijalnih skupina. 

Na testovima pet sintetizatora govora AntiFake je postigao stopu zaštite veću od 95% 📷 Washington University in St. Louis
Na testovima pet sintetizatora govora AntiFake je postigao stopu zaštite veću od 95% Washington University in St. Louis

Trenutačno AntiFake može zaštititi kratke isječke govora, ciljajući na najčešći tip oponašanja glasa. Ali, kaže Zhang, ne postoje prepreke da se ovaj alat ne bi koristio i za zaštitu dužih snimaka, pa čak i glazbe. Alat je inspiriran Glazeom, sličnim alatom Sveučilišta u Chicagu čiji je cilj zaštititi vizualne umjetnike od toga da se njihova djela "posuđuju" za generativne AI modele.

Druga rješenja

Postoje dakako i druga rješenja, poput detekcije dubokih lažnih lažnih poruka. Neke tehnologije otkrivanja deepfakea ugrađuju tako digitalne "vodene žigove" u video i audio kako bi korisnici mogli prepoznati jesu li napravljeni pomoću umjetne inteligencije. Primjeri uključuju Googleov SynthID i Metin Stable Signature.

Drugi, koje su razvile tvrtke poput Pindropa i Veridasa, mogu pak utvrditi je li nešto lažno ispitivanjem sitnih detalja, poput sinkronizacije zvukova riječi s ustima govornika.

Iako ne mogu predvidjeti sljedeći korak u razvoju glasovne tehnologije umjetne inteligencije, istraživači koji su napravili AntiFake vjeruju da će njihova strategija okretanja protivničkih tehnika protiv njih i dalje biti učinkovita.