Atbalsti mūsu darbu un dalies.

Arvien biežāk sociālajos medijos popularitāti gūst pārveidoti video, kuros radīts iespaids, ka runātājs ir garīgi nestabils vai lietojis apreibinošas vielas. Pētnieki tos sauc pat lētviltojumiem, jo maldinošais efekts panākams ātri un vienkāršiem līdzekļiem – pretstatā daudz sarežģītākām un grūtāk atpazīstamām metodēm, ar kuru palīdzību var izmainīt ne vien cilvēka balsi, bet arī mīmiku un kustības.

Re:Check vairākkārt rakstījis par izmainītiem video, ar kuriem tiek kariķēti Latvijas politiķi. Nesen Facebook popularitāti guvis video, kurā premjerministrs Krišjānis Kariņš (Jaunā vienotība) izsakās par vakcīnām un “zaļās pases” jeb vakcinācijas sertifikāta ieviešanu. Video materiāls ir ievērojami palēnināts. Daži Facebook lietotāji ierakstu komentējuši, ka video ir pārveidots, taču atsevišķi komentāri liek domāt, ka cilvēki tic – Kariņš video ir alkohola reibumā, kaut ko “salietojies”, un ir arī versija, ka tādas ir Covid-19 vakcīnas sekas. Ar ierakstu dalījušies jau vairāk nekā septiņi tūkstoši lietotāju. 

Šī nav pirmā reize, kad pārveidots Kariņa teiktais. Marta beigās Re:Check rakstīja par līdzīgu video, kurā tika palēnināts arī tieslietu ministra Jāņa Bordāna (JKP) sacītais par gaisa ventilāciju skolās. Toreiz lielu auditoriju pārveidotajam video nodrošināja opozīcijā esošās Zaļo un Zemnieku valdes loceklis Pēteris Dimants, kurš to pārpublicēja savā Facebook joslā. Lai gan vairāki komentētāji Facebook norādīja, ka video ir pārveidots, Dimants teicās tos neredzējis. 

Lēts, bet efektīvs viltojums

Šādus video vai audio viltojumus angliski dēvē par “cheapfake” jeb latviskojot – lētviltojumiem. Tie veidoti ar ļoti vienkāršiem līdzekļiem, taču dezinformācijas izplatīšanā izrādījušies efektīvi. Tie ietver videoklipus, kas ir paātrināti vai palēnināti, lai radītu kļūdainu iespaidu, ka cilvēks ir alkohola reibumā vai viņam ir medicīniska rakstura problēmas, 2020.gadā tapušā pētījumā par viltojumiem norāda NATO Stratēģiskās komunikācijas izcilības centrs (Stratcom).

Pētījumā arī uzsvērts, ka viltus ziņu izplatītāji dod priekšroku tieši šīm vienkāršajām un pārbaudītajām metodēm, jo tām nav nepieciešamas īpašas zināšanas vai resursi. Tiesa, tā kā lētviltojumu jēdziens kļūst zināms arvien plašākai auditorijai, sabiedrības skepse var mazināt dezinformācijas kampaņu efektivitāti, secina Stratcom pētnieki.

Šāda vienkārša taktika, lai maldinātu un radītu iespaidu par politiskā sāncenša prāta skaidrību, vairākkārt izmantota arī ASV. Piemēram, ar palēninātu ASV Pārstāvju palātas spīkeres un Demokrātu partijas pārstāves Nensijas Pelosi runas fragmentu pērn vasarā dalījās vairāk nekā 90 tūkstoši Facebook lietotāju, norāda ziņu aģentūras Reuters faktu pārbaudītāji. Cits līdzīgs video ar spīkeri izplatīts vēl gadu iepriekš, raksta The Guardian. Ar vienu no šiem video dalījās arī tā laika ASV prezidenta  Donalda Trampa atbalstītāji, piemēram, viņa advokāts Rūdijs Džuliāni.

Kas ir dziļviltojums?

Taču paralēli lētviltojumiem arvien biežāk tiek izmantoti arī tā sauktie dziļviltojumi (no angļu vārda “deepfake”) – video, kuros mainīta cilvēka seja un pārliecinoši ielikti cilvēka mutē vārdi, kurus viņš nekad nav teicis. Stratcom eksperts Gundars Bergmanis-Korāts Re:Check skaidro, ka dziļviltojumu pamatā ir mākslīgais intelekts jeb mākslīgā intelekta modelis, kas ir spējīgs iemācīties datos esošās rakstura iezīmes (augstas kvalitātes dziļviltojuma piemērs redzams šeit). Dziļviltojuma gadījumā šis mākslīgā intelekta modelis spēj ģenerēt augstas kvalitātes un ļoti reālistiskus sintētiskos datus. “Savukārt, piemēram, sabiedrībai ļoti plaši pieejamās aplikācijas, kur var apmainīt sejas un kur mēs ļoti veiksmīgi ar aci varam pamanīt, ka dati ir manipulēti – tos varam dēvēt par “cheapfakes”,” uzsver Bergmanis-Korāts.

Pētnieks norāda, ka dziļviltojumiem var būt dažādas formas. Mākslīgo intelektu var izmantot kā balss sintēzē, tā arī reālistiska teksta vai attēlu un video ģenerēšanā. 

Kā tos izmanto

Starptautiskais inovāciju medijs Mashable min populāra dziļviltojuma piemēru: Youtube video, kurā izmantots mākslīgais intelekts, lai komiķa Bila Heidera sejā ieliktu aktiera un bijušā politiķa Arnolda Švarcenegera vaibstus. Taču tas tiek darīts ne tikai izklaides nolūkos, bet arī politisku mērķu sasniegšanai. Piemēram, 2018.gadā kāda Beļģijas politiskā partija izplatīja viltotu video, kurā toreizējais ASV prezidents Donalds Tramps it kā uzrunā Beļģijas sabiedrību un aicina sekot Amerikas piemēram, izstājoties no Parīzes klimata līguma. Lai gan video beigās neīstais Tramps saka, ka video ir viltots, šī norāde nebija iztulkota nīderlandiešu valodā, daudziem radot iespaidu, ka uzruna ir īsta. Britu TV kanāls Channel 4 aizvadītajos Ziemassvētkos pārraidīja mākslīgi izveidotu karalienes Elizabetes uzrunu tautai, norādot, ka tā vēlas pievērst uzmanību arvien aktuālakajai problēmai. 

Tāpat dažādos pētījumos norādīts, ka bieži šādus viltojumus mēdz izmantot, lai grautu cilvēka reputāciju, ieliekot viņa seju, piemēram, pornogrāfiskos video. Tā kā dziļviltojumus bieži vien atšķirt no īsta video, audio vai attēla ir gandrīz vai neiespējami, tie var radīt reālus draudus sabiedrībai, arī, piemēram, attīstot kibernoziedzību.

“Salīdzinoši nesen mākslīgā intelekta modeļa pielietošana prasīja padziļinātas IT zināšanas un iemaņas, taču šī tehnoloģija diezgan strauji attīstās un jau ir kļuvusi sabiedrībai pieejama, piemēram, dažādās mobilajās aplikācijās vai tiešsaistes servisos, lai, apmainot sejas, iejustos slavenības ādā,” skaidro Bergmanis-Korāts. Mākslīgo intelektu var izmantot ļoti plaši. Piemēram, blogeriem veidojot savus podkāstus. “Ja kaut kas ierunāts nepareizi vai cilvēks ir pārteicies, viņš vēlāk šo podkāstu var labot, pielabojot rakstīto tekstu, un tad šis mākslīgais intelekts pārģenerē viņa balsi attiecīgi šim labojumam,” uzsver Bergmanis-Korāts.

Aizvien pieaugošās bažas par dziļviltojumiem un to iespējamo izmantošanu ļaunprātīgos nolūkos ir mudinājušas valdības un privāto nozari rīkoties. Lielākie sociālo mediju kanāli, tostarp Facebook, Twitter un Reddit, ir ieviesuši jaunu politiku un sola vērsties pret dziļviltojumu izmantošanu dezinformācijas nolūkos. 

Vai dziļviltojumu iespējams atpazīt?

Bergmanis-Korāts Re:Check norāda, ka ļoti labas kvalitātes dziļviltojuma tehnoloģija ir pietiekami pārliecinoša, lai cilvēkus apmānītu –  pamanīt nepilnības ar aci ir ļoti grūti. “Ir uzņēmumi, kuri jau pašlaik piedāvā “deepfake” noteikšanas pakalpojumus, kurus, piemēram, var iestrādāt mediju monitoringa rīkos vai sociālajos medijos. Paredzams, ka šāda integrācija nākotnē tikai palielināsies,” piebilst Stratcom eksperts.

Viņš uzsver, ka cilvēkam, iepazīstoties ar jebkuru jaunu informāciju, ir jābūt ļoti piesardzīgam –  jāvērtē ne tikai video kvalitāte un tajā minētie fakti, bet arī emocijas, ko tas rada: “Tādā ļoti klasiskā gadījumā mēs noteikti varam pētīt pašu video, kāda ir cilvēka runa un sejas izteiksme. “Cheapfake” video gadījumā būs redzami kādi artefakti jeb neprecizitātes, kas rodas mākslīgā intelekta modelim, ģenerējot šo produktu. Tātad, esam ļoti piesardzīgi, vērtējam, ko šis video grib mums pateikt, vērtējam, kā šis video ietekmē mūsu emocijas – vai mēs neesam mērķa grupa kaut kādai koordinētai aktivitātei”.  

Par iespējamu dziļviltojumu tika runāts arī saistībā ar Krievijas opozicionāra Alekseja Navaļnija līdzgaitnieku Leonīdu Volkovu. Saeimas deputāts Rihards Kols atklāja, ka Ārlietu komisijas deputāti videozvanā sarunājušies ar kādu cilvēku, kas uzdevies par Volkovu. Kola publicētais ekrānšāviņš liecināja, ka “viltus Volkovs” tādā pašā sarunā ar Igaunijas deputātiem bijis ļoti līdzīgs īstajam. Vēlāk tika pieļauts, ka izmantotas dziļviltojuma metodes, viltvārdim sarunā izmantojot īstā Volkova attēlu. Cilvēks, kurš, iespējams, sazinājās ar Kolu un kuru Volkovs sauc par Kremļa aģentu, gan The Guardian žurnālistiem to noliedza.  

Vai tiešām bija dziļviltojums vai arī izmantots ļoti līdzīgs cilvēks? Stratcom eksperts Bergmanis-Korāts norāda, ka ar publiski pieejamo informāciju nepietiek, lai to secinātu. Lai saprastu, vai izmantotas dziļviltojuma tehnoloģijas, būtu jāanalizē pats video.


Šis raksts ir daļa no Re:Check darba, pārbaudot iespējami nepatiesus vai puspatiesus Facebook ierakstus, attēlus un video. Par Re:Check sadarbību ar Facebook lasiet šeit.

Visus Re:Check rakstus lasi ŠEIT!


Par projektu: Re:Check ir Baltijas pētnieciskās žurnālistikas centra Re:Baltica paspārnē strādājoša faktu pārbaudes un sociālo tīklu pētniecības virtuāla laboratorija. Pārbaudīto faktu vērtējumam izmantojam piecas iespējamās atzīmes un krāsas: patiesība (izteikums ir precīzs un faktoloģiski pierādāms), tuvu patiesībai (apgalvojums ir lielākoties patiess, taču ir pieļautas sīkas neprecizitātes), puspatiesība (apgalvojums satur gan patiesu, gan nepatiesu informāciju, daļa faktu ir noklusēta), drīzāk nav taisnība (apgalvojumā ir kripata patiesības, taču nav ņemti vērā būtiski fakti un/vai konteksts, līdz ar to izteikums ir maldinošs vai ārpus konteksta) un nav taisnība (apgalvojums neatbilst patiesībai, tam nav pierādījumu, izteikuma autors neapzināti maldina vai melo). Vērtējumu piešķir vismaz divi redaktori vienojoties. Ja arī jūs redzat apšaubāmu apgalvojumu, sūtiet to mums uz recheck@rebaltica.com


NEATKARĪGAI ŽURNĀLISTIKAI VAJAG NEATKARĪGU FINANSĒJUMU
Ja Jums patīk Re:Baltica darbs, atbalstiet mūs!
Konts: LV38RIKO0001060112712

Tagad ziedo arī ar Mobilly! Lai to izdarītu, lietotnes ziedojumu sadaļā atrodiet mūsu zīmolu un sekojiet tālākajām norādēm.