თქვენ ალბათ უკვე ნახეთ როგორ მღერის ელონ მასკი რუსულ სიმღერა Трава у дома-ს. თუ ჯერ არ გინახავთ, უყურეთ: https://www.youtube.com/watch?v=iXtrGFrmlk4
ეს ვიდეო არის ე.წ. Deepfake. ხელოვნური ინტელექტის დახმარებით შექმნილი ვიდეო. 1980-იან წლებში ჩაწერილ ვიდეოში, ჯგუფ Земляне-ს სოლისტის სახე ელონ მასკის სახითაა შეცვლილი. აი ორიგინალი ვიდეო: https://www.youtube.com/watch?v=gnqXfK-ESoY&list=RDiXtrGFrmlk4&index=2
Deepfake-ის ერთ-ერთი საუკეთესო ნამუშევრად ითვლება რიჩარდ ნიქსონის სიტყვით გამოსვლა, რომელიც თითქოს იმ შემთხვევისთვის ჩაიწერა, რომ მთვარეზე Apollo 11-ის მისია ჩავარდა და რიჩარდ ნიქსონი გადადგა. https://www.youtube.com/watch?v=yaq4sWFvnAY&feature=emb_title
თუ Deepfake-ს პირველად გადაეყარეთ, გაგაოცებთ მისი რეალობასთან მსგავსება. სწორედ ამიტომ უფრთხიან მას. Deepfake 2 ინგლისურენოვანი ტერმინის Deep Learning-ისა და Fake-ის შეერთების შედეგად არის მიღებული. Deep Learning ხელოვნური ინტელექტის მიმართულების მანქანური სწავლების (Machine Learning) ქვედარგია. Fake კი ინგლისურად „ყალბს“ ნიშნავს. ეს ტერმინი სოციალურ ქსელ Reddit-ზე გაჩნდა რამდენიმე წლის წინ, როდესაც მსგავსი ვიდეოების შექმნა და გაზიარება დაიწყო.
Deepfake-მა მაშინვე მიიპყრო ყურადღება. ვიდეო ხომ ბევრად უფრო დამაჯერებელია ვიდრე ტექსტური ან ფოტო მასალა. Deepfake ყალბი ნიუსების გავრცელებისა და ადამიანებით მანიპულაციების ახალი მიმართულება გახდება. ზოგადად ყალბი ნიუსის შექმნა და გავრცელება მარტივია. ხოლო ამ ნიუსის სიყალბის დამტკიცება და სწორი პოზიციის გავრცელება კი შრომატევადი და რთული.
მსოფლიოში უკვე არსებობს რამდენიმე მაგალითი, როდესაც Deepfake-მა პოლიტიკაზე გარკვეული გავლენა მოახდინა. მაგალითად, 2018 წლის ბოლოს სოციალურ ქსელებში გაბონის პრეზიდენტის ალი ბონგოს ვიდეომიმართვა გამოჩნდა. ალი ბონგო დიდი ხნის განმავლობაში ავადმყოფობდა, ამ ვიდეოში კი მოსახლეობის დაიმედებას ცდილობს. ვიდეოს სახელმწიფო გადატრიალების მცდელობა მოყვა. ვიდეოს შეგიძლიათ ნახოთ აქ: https://www.facebook.com/watch/?v=324528215059254
მეორეს მხრივ, deepfake-ის განვითარება პოლიტიკოსებს საშუალებას აძლევს უარყონ მათი მონაწილეობა რეალურ ვიდეოებში. მათ შეუძლიათ თქვან, რომ ვიდეო არის deepfake და რეალობასთან არაფერი აქვს საერთო. ამ შემთხვევაშიც საპირისპიროს დამტკიცებას ასევე დიდი დრო და რესურსი დასჭირდება.
Deepfake-ს გამოყენება
გარდა პოლიტიკურისა, Deepfake პრობლემას ქმნის პრივატულობის (Privacy) კუთხით. მარტივდება და იაფდება ადამიანების შანტაჟისა და მანიპულაციის შესაძლებლობა. გაყალბებული ვიდეოების გამოყენება მალე დაიწყეს თაღლითებმა ფინანსური სარგებლის მოსაპოვებლად.
Deepfake-ის ვიდეოების 96% პორნოგრაფიული ხასიათისაა. განსაკუთრებით გავრცელებულია ცნობილი ადამიანების „ჩასმა“ პორნო ვიდეოებში. პოპულარულია ე.წ. revenge porn, რომელსაც სხვა ადამიანზე შურისძიების გამო ქმნიან deepfake-ის გამოყენებით. ასეთი ვიდეო მიზნად პიროვნებისთვის სახელის გატეხას ისახავს მიზნად. ამ მეთოდს ძირითადად ყოფილ საყვარლებზე ან მეუღლეზე გაბრაზებული ადამიანები მიმართავენ.
დანარჩენი 4%-ის დიდი ნაწილი ძირითადად სახალისო ხასიათისაა და ვინმეზე შურისძიებას ან ვინმეს შეცდომაში შეყვანას არ ისახავს მიზნად. თუმცა პოლიტიკური მანიპულაციებისთვის deepfake ვიდეოების დიდი რაოდენობა სულაც არაა საჭირო.
როგორ იქმნება deepfake
Deepfake-ის შექმნას სჭირდება სპეციალიზებული ცოდნა. ჯერჯერობით ტექნოლოგია არ არის იმ დონეზე განვითარებული, რომ ჩამოტვირთოთ სმარტფონზე აპლიკაცია და მან ერთი ღილაკის დაჭერით Deepfake შექმნას. ყალბი ვიდეოს შექმნას ასევე სჭირდება გარკვეული კომპიუტერულ რესურსები, განსაკუთრებით გრაფიკული კუთხით – რადგანაც უნდა დამუშავდეს დიდი რაოდენობით ვიზუალური მასალა. საშუალო დონის კომპიუტერზე პროცესი, შეიძლება რამდენიმე კვირა გაიწელოს (დამოკიდებულია რა ხარისხისა და ხანგრძლივობის ვიდეოზე მუშაობთ).
რაც ყველაზე მთავარია, საჭიროა დიდი რაოდენობით ვიზუალური მასალა იმ ადამიანის, ვინც გვინდა გამოჩნდეს ვიდეოში. იმისთვის, რომ ვიდეო მაქსიმალურად დაემსგავსოს რეალურს, საჭიროა სხვადასხვა რაკურსიდან და სხვადასხვა განათების პირობებში გადაღებული ვიზუალური მასალა, რომელზეც სხვადასხვა ემოცია/მიმიკაც იქნება აღბეჭდილი.
არსებულ ვიზუალურ მასალას გასაანალიზებლად აძლევენ ე.წ. ნერვულ ქსელს (neural network; ნერვული ქსელი არის ალგორითმების ერთობლიობა, რომელიც სპეციალიზებულია ტექსტურ, ფოტო თუ ვიდეო მასალაში შაბლონების/pattern-ების აღმოსაჩენად). ანალიზის შედეგი არის ადამიანის ვიზუალი სხვადასხვა რაკურსიდან განსხვავებული ქმედებების დროს. შემდეგ კი მიღებული შედეგი უნდა დაედოს სასურველ ვიდეოს. როგორც წესი, პირველად შედეგში ვიზუალურად მარტივად შესამჩნევი გარღვევებია. დახვეწას ადამიანური ჩარევის რამდენიმე იტერაცია სჭირდება.
არსებობს deepfake-ის შექმნის განსხვავებული მეთოდიც, რომელიც ე.წ. GAN (Generative Adversarial Network) ალგორითმებს ეფუძნება. ამჟამად GAN ალგორითმები ნაკლებად გამოიყენება deepfake-ების შექმნისთვის.
GAN ალგორითმები უფრო ეფექტური ფოტოების შექმნისთვისაა. მათი საშუალებით შესაძლებელია სრულიად ახალი, მაგრამ ამავე დროს რეალისტური ადამიანის სახის შექმნა. ყველა ფოტო ხელოვნური ინტელექტის შექმნილია, ასეთი პიროვნებები არ არსებობენ:
Deepfake საქართველოში
საქართველოსთვის უცხო არ არის ყალბი ნიუსების კამპანიები. ადგილობრივი თუ რუსული პროპაგანდა წარმატებით იყენებდა და იყენებს ტექსტურ და ფოტო-მასალას. Deepfake კი ახალი იარაღი იქნება პროპაგანდის ხელში (ბოლოდროინდელ რუსულ fake news კამპანიაზე იხილეთ კვლევა Operation Pinball: https://go.recordedfuture.com/hubfs/reports/cta-2020-0408.pdf?fbclid=IwAR0SPEHA9gdUOUNvmdQgwmdYrkuQdPQqbjtbugehiAXWn9lCQqk7swzZEiY). თუმცა კონკრეტულად deepfake ვიდეოების გამოცდილება არ გვქონია. ამის ერთ-ერთ მიზეზი ისიც შეიძლება იყოს, რომ როგორც აღვნიშნეთ, deepfake-ის შექმნა გარკვეულ სპეციალიზებულ ცოდნას მოითხოვს. სავარაუდოდ, ასეთი ცოდნა საქართველოში მოღვაწე (ადგილობრივ) ჯგუფებს (ჯერ) არ გააჩნიათ. გარდა ამისა, დამაჯერებელი („ხარისხიანი“) deepfake-ის შესაქმნელად სამიზნის დიდი რაოდენობით აუდიო/ვიზუალური მასალაც არის საჭირო.
როგორც წესი, მნიშვნელოვანი პოლიტიკური მოვლენების (არჩევნები, საომარი სიტუაცია, კრიზისი. . .) პარალელურად ძლიერდება ყალბი ნიუსების კამპანიები. 2020 კი საქართველოში არჩევნების წელია. შესაძლოა ერთ-ერთი წინასაარჩევნო სიურპრიზი deepfake აღმოჩნდეს.
როგორ ვებრძოლოთ Deepfake-ს
არსებობს Deepfake-ის შემჩნევის ტექნოლოგიური მეთოდები. ამ შემთხვევაში გარკვეული ალგორითმები ამოწმებენ ვიდეოს და იკვლევენ ვიდეოს სიყალბის ალბათობას სხვადასხვა პარამეტრებზე დაყრდნობით. როდესაც deepfake ახალი გამოჩენილი იყო, მკვლევარები დააკვირდნენ, რომ deepfake ვიდეოში ადამიანი თვალებს არ ახამხამებდა. თუმცა მოგვიანებით ეს „ჩავარდნა“ გამოსწორდა. Deepfake-ის დახვეწის პარალელურად მისი აღმოჩენის ტექნოლოგიური საშუალებების განვითარება კატა-თაგვობანას გავს: როგორც კი მკვლევარები იპოვიან რაიმე დამახასიათებელ „ხარვეზს“ deepfake-ში, ის მაშინვე სწორდება.
მნიშვნელოვანია გავაცნობიეროთ, რომ უახლოეს მომავალში არავის ექნება სმარტფონში ან სახლში deepfake-ის აღმოსაჩენი ტექნიკური აღჭურვილობა თუ სპეციალიზებული ცოდნა. შესაბამისად, სანამ სპეციალისტები ანალიზის შედეგს ველოდებით, გვრჩება სიყალბის აღმოჩენის „ტრადიციული“ მეთოდები.
ინფორმაცია არის სამომხმარებლო პროდუქტი (ისევე როგორც შოკოლადი ან მაისური). შესაბამისად, როგორც პროდუქტის ყიდვისას ყურადღებას ვაქცევთ ბრენდს/მწარმოებელს, პროდუქტის მოხმარების ვადას თუ შემადგენლობას, სწორედ ასევე უნდა მოვიქცეთ ინფორმაციის შემთხვევაში.
შეიძლება ითქვას, რომ deepfake-ისა და ზოგადად ყალბი ნიუსების წინააღმდეგ ჩვენი საუკეთესო იარაღი არის ჩვენივე გონება და კრიტიკული აზროვნება. ინფორმაცია უნდა გადავამოწმოთ სხვადასხვა წყაროებში. ყურადღება მივაქციოთ შინაარსს. ასევე შეგვიძლია დავაკვირდეთ ვიზუალურ მხარეს. ყურადღება უნდა მივაქციოთ კონტექსტს.
მასალა მომზადებულია შვედეთის მთავრობისა და Internews-ის ფინანსური მხარდაჭერით (პროექტი Audience Understanding and Digital Support). სტატიაში გამოთქმული მოსაზრებები ეკუთვნის მხოლოდ და მხოლოდ ავტორს.