Turinys:

Gilūs klastotės: Neuroset buvo išmokyta generuoti garso ir vaizdo klastotes
Gilūs klastotės: Neuroset buvo išmokyta generuoti garso ir vaizdo klastotes

Video: Gilūs klastotės: Neuroset buvo išmokyta generuoti garso ir vaizdo klastotes

Video: Gilūs klastotės: Neuroset buvo išmokyta generuoti garso ir vaizdo klastotes
Video: Why Your Local Junkyard Is a Treasure Trove Of Cool Cars 2024, Balandis
Anonim

Norint sukurti „individualų“naujienų paveikslą bet kuriam iš mūsų ir suklastoti jame atrinktus žiniasklaidos pranešimus, šiandien užtenka vieno programuotojo pastangų. Apie tai „Izvestija“pasakojo dirbtinio intelekto ir kibernetinio saugumo specialistai.

Visai neseniai jie apskaičiavo, kad tam reikia kelių komandų darbo. Toks pagreitis tapo įmanomas plėtojant atakų prieš neuroninius tinklus technologijas ir kuriant garso ir vaizdo klastotes naudojant programas, skirtas „gilioms klastotėms“kurti. Neseniai laikraštis „Izvestija“patyrė panašią ataką, kai trys Libijos naujienų portalai iš karto paskelbė pranešimą, kuris tariamai pasirodė viename iš numerių. Specialistų teigimu, per 3-5 metus galime tikėtis robotų manipuliatorių invazijos, kuri automatiškai galės sukurti daug klastotės.

Drąsus naujas pasaulis

Atsiranda vis daugiau projektų, kurie pritaiko informacinį vaizdą prie konkrečių vartotojų suvokimo. Vienas iš jų darbo pavyzdžių buvo neseniai įvykęs trijų Libijos portalų veiksmas, paskelbęs naujieną, tariamai paskelbtą „Izvestija“lapkričio 20 d. Padirbinio kūrėjai pakeitė pirmąjį laikraščio puslapį, paskelbdami jame pranešimą apie feldmaršalo Khalifos Haftaro ir Nacionalinės santarvės vyriausybės (PNS) ministro pirmininko Fayezo Sarrajaus derybas. Prie netikro „Izvestija“šrifto buvo pridėta dviejų lyderių nuotrauka, daryta 2017 m. gegužę. Etiketė su leidinio logotipu buvo iškirpta iš faktiškai išleisto lapkričio 20 d., o visi kiti tekstai puslapyje – iš spalio 23 d.

Specialistų požiūriu, artimiausioje ateityje tokie klastotės gali būti daromos automatiškai.

Trumano šou – 2019 m.: kaip neuroniniai tinklai išmokė suklastoti naujienų paveikslėlį
Trumano šou – 2019 m.: kaip neuroniniai tinklai išmokė suklastoti naujienų paveikslėlį

„Dirbtinio intelekto technologijos dabar visiškai atviros, o duomenų priėmimo ir apdorojimo įrenginiai miniatiūrizuojasi ir atpigo“, – sako Jurijus Vilsiteris, fizinių ir matematikos mokslų daktaras, Rusijos mokslų akademijos profesorius, FSUE „GosNIIAS“skyriaus vadovas. pasakojo Izvestija. – Todėl labai tikėtina, kad artimiausiu metu mus klausytis ir šnipinėti, taip pat manipuliuoti tikrove galės net ne valstybė ir stambios korporacijos, o tiesiog privatūs asmenys. Ateinančiais metais, analizuojant vartotojo pageidavimus, bus galima jį paveikti per naujienų srautus ir labai protingus padirbinius.

Pasak Jurijaus Vilsiterio, technologijos, kurias galima panaudoti tokiai intervencijai į psichinę aplinką, jau egzistuoja. Teoriškai robotų botų invazijos galima tikėtis po kelerių metų, sakė jis. Apribojantis taškas čia gali būti poreikis rinkti dideles duomenų bazes su realių žmonių reakcijų į dirbtinius dirgiklius pavyzdžių, stebint ilgalaikes pasekmes. Tokiam sekimui greičiausiai prireiks dar kelerių metų tyrimų, kol bus nuosekliai pasiekiamos tikslinės atakos.

Regėjimo ataka

„SearchInform“analitikos skyriaus vadovas Aleksejus Parfentjevas taip pat pritaria Jurijui Vilsiteriui. Anot jo, ekspertai jau prognozuoja atakas prieš neuroninius tinklus, nors dabar tokių pavyzdžių praktiškai nėra.

– „Gartner“tyrėjai mano, kad iki 2022 m. 30% visų kibernetinių atakų bus skirtos sugadinti duomenis, kuriais remiantis apmokomas neuroninis tinklas, ir pavogti paruoštus mašininio mokymosi modelius. Tada, pavyzdžiui, nepilotuojamos transporto priemonės gali staiga pradėti klaidinti pėsčiuosius su kitais objektais. Ir kalbėsime ne apie finansinę ar reputacijos riziką, o apie paprastų žmonių gyvybę ir sveikatą, tikina ekspertas.

Atakos prieš kompiuterinės regos sistemas dabar vykdomos kaip tyrimų dalis. Tokių atakų tikslas – priversti neuroninį tinklą vaizde aptikti ką nors, ko nėra. Arba, atvirkščiai, nematyti to, kas buvo suplanuota.

Trumano šou – 2019 m.: kaip neuroniniai tinklai išmokė suklastoti naujienų paveikslėlį
Trumano šou – 2019 m.: kaip neuroniniai tinklai išmokė suklastoti naujienų paveikslėlį

„Viena iš aktyviai besivystančių temų neuroninių tinklų mokymo srityje yra vadinamosios priešiškos atakos („priešinės atakos.“– Izvestija)“, – aiškino „Kaspersky Lab“interneto analitikas Vladislavas Tushkanovas. – Dažniausiai jie yra skirti kompiuterinėms regėjimo sistemoms. Norint įvykdyti tokią ataką, daugeliu atvejų reikia turėti visišką prieigą prie neuroninio tinklo (vadinamosios baltosios dėžės atakos) arba jo darbo rezultatų (juodosios dėžės atakos). Nėra metodų, kurie 100% atvejų galėtų apgauti bet kurią kompiuterinio matymo sistemą. Be to, jau yra sukurti įrankiai, leidžiantys patikrinti neuroninių tinklų atsparumą priešiškoms atakoms ir padidinti jų atsparumą.

Tokios atakos metu užpuolikas bando kažkaip pakeisti atpažintą vaizdą, kad neveiktų neuroninis tinklas. Dažnai ant nuotraukos atsiranda triukšmas, panašus į tą, kuris atsiranda fotografuojant prastai apšviestoje patalpoje. Žmogus dažniausiai tokius trukdžius gerai nepastebi, tačiau ima trikti neuroninis tinklas. Tačiau norint įvykdyti tokią ataką, užpuolikui reikia prieigos prie algoritmo.

Pasak Stanislavo Ašmanovo, „Neuroset Ashmanov“generalinio direktoriaus, šiuo metu nėra metodų, kaip išspręsti šią problemą. Be to, ši technologija yra prieinama visiems: paprastas programuotojas gali ja naudotis atsisiųsdamas reikiamą atvirojo kodo programinę įrangą iš Github paslaugos.

Trumano šou – 2019 m.: kaip neuroniniai tinklai išmokė suklastoti naujienų paveikslėlį
Trumano šou – 2019 m.: kaip neuroniniai tinklai išmokė suklastoti naujienų paveikslėlį

„Ataka prieš neuroninį tinklą yra neuroninio tinklo apgaudinėjimo technika ir algoritmai, dėl kurių jis duoda klaidingus rezultatus, o iš tikrųjų sulaužo jį kaip durų spyną“, – tikina Ašmanovas. – Pavyzdžiui, dabar gana paprasta priversti veido atpažinimo sistemą manyti, kad priešais ją esi ne tu, o Arnoldas Schwarzeneggeris – tai daroma į neuroninį tinklą ateinančius duomenis įmaišant žmogaus akiai nepastebimų priedų. Tokios pat atakos galimos kalbos atpažinimo ir analizės sistemoms.

Ekspertas įsitikinęs, kad bus tik blogiau – šios technologijos išėjo į mases, sukčiai jomis jau naudojasi, o apsaugos nuo jų nėra. Kadangi nėra apsaugos nuo automatizuoto vaizdo ir garso klastotės kūrimo.

Gilūs klastotės

Deepfake technologijos, pagrįstos Deep Learning (neuroninių tinklų giluminio mokymosi technologijos. – Izvestija), jau kelia realią grėsmę. Vaizdo ar garso klastotės kuriamos redaguojant ar perdengiant žinomų žmonių veidus, kurie neva taria reikiamą tekstą ir atlieka reikiamą vaidmenį siužete.

„Deepfake“leidžia lūpų judesius ir žmogaus kalbą pakeisti vaizdo įrašu, o tai sukuria tikroviškumo jausmą, kas vyksta“, – sako Andrejus Busarginas, „Group-IB“novatoriško prekės ženklo apsaugos ir intelektinės nuosavybės departamento direktorius. - Netikros įžymybės „siūlo“vartotojams socialiniuose tinkluose dalyvauti traukiant vertingus prizus (išmaniuosius telefonus, automobilius, pinigų sumas) ir kt. Nuorodos iš tokių vaizdo įrašų publikacijų dažnai veda į apgaulingas ir sukčiavimo svetaines, kuriose vartotojų prašoma įvesti asmeninę informaciją, įskaitant banko kortelės duomenis. Tokios schemos kelia grėsmę ir paprastiems vartotojams, ir reklamose minimiems visuomenės veikėjams. Tokio pobūdžio sukčiavimas įžymybių atvaizdus pradeda sieti su sukčiavimu ar reklamuojamomis prekėmis, ir čia mes patiriame žalą asmeniniam prekės ženklui, sako jis.

Trumano šou – 2019 m.: kaip neuroniniai tinklai išmokė suklastoti naujienų paveikslėlį
Trumano šou – 2019 m.: kaip neuroniniai tinklai išmokė suklastoti naujienų paveikslėlį

Kita grėsmė siejama su „netikrų balsų“panaudojimu telefoniniam sukčiavimui. Pavyzdžiui, Vokietijoje kibernetiniai nusikaltėliai naudojo balso padirbinėjimą, kad dukterinės įmonės iš JK vadovas per telefoninį pokalbį skubiai pervestų 220 000 eurų, apsimetęs įmonės vadovu.į Vengrijos tiekėjo sąskaitą. Didžiosios Britanijos firmos vadovas įtarė gudrybę, kai jo „bosas“paprašė antrojo pinigų pavedimo, tačiau skambutis atėjo iš austriško numerio. Iki to laiko pirmoji dalis jau buvo pervesta į sąskaitą Vengrijoje, iš kurios pinigai buvo paimti į Meksiką.

Pasirodo, dabartinės technologijos leidžia sukurti individualią naujienų nuotrauką, užpildytą netikromis naujienomis. Be to, netrukus bus galima atskirti netikrą nuo tikro vaizdo ir garso tik pagal aparatinę įrangą. Ekspertų teigimu, priemonės, draudžiančios plėtoti neuroninius tinklus, greičiausiai nebus veiksmingos. Todėl greitai gyvensime pasaulyje, kuriame reikės nuolat viską tikrinti iš naujo.

„Turime tam pasiruošti ir su tuo reikia susitaikyti“, – pabrėžė Jurijus Vilsiteris. – Žmonija ne pirmą kartą pereina iš vienos realybės į kitą. Mūsų pasaulis, gyvenimo būdas ir vertybės kardinaliai skiriasi nuo pasaulio, kuriame gyveno mūsų protėviai prieš 60 000, prieš 5000, prieš 2000 metų ir net prieš 200-100 metų. Netolimoje ateityje žmogus bus iš esmės atimtas privatumo, todėl bus priverstas nieko neslėpti ir elgtis sąžiningai. Tuo pačiu metu supančioje tikrovėje ir savo asmenybėje nieko negalima perimti į tikėjimą, viskuo teks kvestionuoti ir nuolatos tikrinti. Bet ar ši ateities realybė bus baisi? Nr. Tiesiog bus visiškai kitaip.

Rekomenduojamas: