Deepfake - mākslīgais intelekts kā propagandas ierocis

Ilustratīvs attēls

FOTO: SCANPIX

Kaut arī šķiet, ka pazīstam to jau gadiem ilgi, termins "viltus ziņa" publiskajā apritē parādījās tikai 2017. gadā - visbiežāk to saista ar ASV prezidenta priekšvēlēšanu laiku. Šobrīd, nepilnus divus gadus vēlāk, viltus ziņa ir sasniegusi jaunu kvalitātes līmeni - pasaules informatīvo telpu apdraud Deepfake - ar mākslīgā intelekta palīdzību radīti viltus videoklipi.

21. gadsimta pirmās desmitgades beigas iezīmēja jaunu tendenci - videoklipu izvietošana internetā kļuva tik vienkārša, ka deva iespēju miljoniem cilvēku radīt savu saturu un padarīt to pieejamu publiski.

Sociālo tīklu sprādzienveida popularitāte bija lielisks stimuls jaunu programmu un aplikāciju izstrādē, un nebija ilgi jāgaida, lai šai sacīkstē iesaistītos arī augsto tehnoloģiju speciālisti.

Par pirmo jomu, kurā tika izmēģinātas mākslīgā intelekta iespējas, kļuva pornogrāfija.

2017. gada beigās kāds sociālā tīkla "Reddit" lietotājs ar pseidonīmu 'deepfakes' izvietoja savā profilā vairākus pornogrāfiskus videoklipus, kuros galveno darbojošos personu ķermenim bija pievienotas slavenību, piemēram, Skārletas Johansones, Teilores Sviftas, Kanjes Vesta, Meisijas Viljamsas un citu sejas.

Tehnoloģijām veltītā interneta vietne "Motherboard", kas pirmā ziņoja par šiem viltus jeb "face swap" pornoklipiem, izpētījusi, ka viltus video radīšanai 'deepfakes' bija nepieciešams vien mašīnmācīšanās algoritms, mājas dators, nelielas zināšanas programmēšanā un publiski pieejami videoklipi.

"We are truly f****d!" - tik daiļrunīgu virsrakstu savam materiālam bija izvēlējies "Motherboard", un tam nevar nepiekrist.

Dažus mēnešus vēlāk cits "Reddit" lietotājs izlika brīvai lejupielādei pašizstrādātu aplikāciju un izsmeļošas instrukcijas, kas ļāva jebkuram ikdienas lietotājam pašam radīt viltus pornoklipus. Maisam bija gals vaļā - par viltus porno upuriem kļuva bijušie laulātie, klasesbiedri un darba kolēģi.

Kaut arī par lēmumu boikotēt viltus pornoklipus ir paziņojis interneta pornogrāfijas flagmanis "PornHub", kā arī sociālās saziņas vietne Twitter un vairākas citas populāras tīmekļa vietnes, jebkurš interesents var pārdesmit sekunžu laikā atrast internetā viltus porno ar slavenību piedalīšanos, savukārt minētajā Reddit interesentu grupā jau ir vairāk nekā 60 tūkstoši dalībnieku. Šķiet, ka 'deepfakes' ir izdevies atvērt digitālo Pandoras lādi.

Tādēļ ir tikai godīgi, ka šī anonīmā lietotāja izvēlētais tīmekļa pseidonīms šobrīd jau ir kļuvis par apzīmējumu pašam procesam un tā radītajam produktam - viltus video.

Nidžma Hana (Nijma Khan), kura pārstāv Londonā esošo mākslīgā intelekta izstrādes kompāniju "faculty", šo viltus produktu dēvē par sintētisko video. Marta beigās viņa Rīgā uzstājās ar prezentāciju NATO StratCom COE organizētajā seminārā par jaunākajām tendencēm sociālajos medijos.

"Diemžēl kļūs tikai sliktāk," atzīst Nidžma, "mākslīgais intelekts rada jaunas iespējas ietekmēt politiskos procesus - ir sākusies jauna politiskās dezinformācijas ēra."

Pirmais publiskais brīdinājums par šo jauno ēru parādījās 2018. gada aprīlī.

Augstāk aplūkojamo video radīja Holivudas režisors Džordans Pīls - tas ir mākslīgā intelekta radīts Baraks Obama, kurš atkārto paša Pīla sejas grimases un mutes un lūpu kustības. Audio programma nodrošina, ka Pīla teiktais skan Obamas balss tembrā - nepieciešams vien atdarināt eksprezidenta runas manieri. Šis video tapa kā brīdinājums par to, kādas manipulācijas ar realitāti mūs gaida.

"Patiesībā Deepfake ir mašīnmācīšanās, izmantota ar mērķi radīt viltus video - publiska persona saka to, ko nekad nav teikusi. Tā ir sintētiskā audio un video jaunā paaudze.

Apvienojot šīs abas jomas, tiek radīts jaudīgs politiskās dezinformācijas ierocis," saka Nidžma Hana.

Džordana Pīla Obamas video tika radīts, izmantojot mākslīgā intelekta un postprodukcijas iespējas, kas bija pieejamas Holivudas studijās. Taču progress, kas sasniegts sintētiskā audio un video jomā, tagad padara iespējamu šo tehnoloģiju izmantošanu arī ārpus specefektu studijām  - kā politpropagandas, tā terorisma nolūkos.

"Lielākais izaicinājums ir tas, ka šī tehnoloģija attīstās ļoti strauji," atzīst Nidžma. "Kad mēs sākām to pētīt, prognozējām, ka būs nepieciešami 2-3 gadi, līdz Deepfake tehnoloģija kļūs plaši lietota un brīvi pieejama. Pāris mēnešus vēlāk jau bija skaidrs, ka tas notiks  1-2 gadu laikā. Jau gada laikā Deepfake ir kļuvis teju par mediju ikdienu. Raksti par šo tēmu parādās regulāri -

tas ir izraisījis milzīgu interesi, taču arī slēpj sevī nopietnu apdraudējumu demokrātijai un sabiedrības integritātei."

Lieliskākais piemērs tam, ko ar mākslīgā intelekta palīdzību var radīt labi finansēta valsts organizācija, tika publiskots 2018. gada 9. novembrī. Ķīnas oficiālā ziņu aģentūra "Xinhua" atklāja pasaulei savu sintētisko ziņu diktoru, kurš spēj lasīt ziņas 24 stundas no vietas. Šobrīd tas ir visaugstākās kvalitātes mākslīgā intelekta projekts pasaulē.

Šā gada 21. februārī ķīniešu diktoram pievienojās arī sieviešu kārtas kolēģe. Būtiski piebilst, ka abām šīm sintētiskajām TV sejām ir konkrēti prototipi reālajā dzīvē - televīzijas diktori, kurus auditorija pazīst un kuriem uzticas.

Ja paturam prātā, ka šīs sintētiskās ekrāna personības pārliecinoši nolasīs jebkuru tiem priekšā noliktu tekstu, neaizdomājoties par tā patiesumu, var tikai minēt, cik milzīgas manipulācijas iespējas paveras "Xinhua" telekanālam, kuram ir simtiem miljoni skatītāju.  

Un arī to, cik telekanālu sekos ķīniešu piemēram tuvākā vai tālākā nākotnē. Tādējādi politiskās propagandas cīņa ir sākusies arī mākslīgi radītās realitātes telpā. Tādas kompānijas kā "faculty" tagad nodarbojas ar risinājumiem Deepfake video identificēšanā.

"Tehnoloģija attīstās, un, ja kāds izlems padarīt publisku arī šo programmas kodu, nebūs ilgi jāgaida, līdz tas nonāks zemāka līmeņa hakeru rokās un - arī mūsu guļamistabās," saka Nidžma. "Vienīgais, ko varam mēs, ir padarīt grūtāku Deepfake video izplatīšanas procesu, kā arī sadarboties ar visdažādākajām organizācijām, lai pievērstu uzmanību šim jaunajam apdraudējumam. Mēs jau tagad sadarbojamies ar Lielbritānijas valdību, lai izveidotu rīku terorisma propagandas identificēšanai tīmeklī. Datoru iespējams apmācīt atpazīt šādus sintētiskos video. Šobrīd izstrādē ir arī rīks, ar kura palīdzību žurnālisti un organizācijas spēs identificēt viltus video. Tas būs brīvi pieejams visiem."

Tomēr šobrīd neviens neņemas prognozēt, kas mūs gaida nākotnē un kā 21. gadsimta dezinformācijas ierocis Deepfake ietekmēs pasaulē notiekošo.

Jo cilvēkam ir tendence ticēt tam, kam viņš vēlas ticēt, neuzdodot kritiskus jautājumus.

Uz augšu