Магазин

Шта је дипфејк и како се снимци који круже интернетом поигравају са разумом корисника

"Ракија мења живот, човече. Три дана у Модричи и већ сам алкохоличар. Лоза, шљива, кајсија, није битно. Такође сам мењао Теслу за Голфа двојку. У тај ауто може стати пет кубика дрва, седам људи и ракета за Марс. Лудило", изговорио је Илон Маск у виралном видео снимку који кружи друштвеним мрежама. Или није изговорио? Шта је истина и како препознати да је реч о дипфејк технологији која се поиграва са нашим разумом?
Шта је дипфејк и како се снимци који круже интернетом поигравају са разумом корисника© Youtube / ОТАЏБИНА ИНФО , Canva / THP Creative

Корисници друштвених мрежа су се ових дана сусрели са чак неколико занимљивих видео снимака, а можда нам ниједан од њих не би ни запао за око да у њима Илон Маск не спомиње Косово, ракију, чувену Голф "двојку" и комшијску нам Босну и Херцеговину. У чему је цака и како то да је бизнисмен тог "калибра", који стоји иза неколико највећих светских компанија, одједном обратио пажњу на балканске земље и чак најавио да се спрема за посету?

Шта је дипфејк технологија и како се поиграва са нашим мозгом

Иза оваквих видео снимака, чији су главни актери најчешће јавне личности, стоји нико други до вештачка интелигенција, односно посебно специјализовани софтвери који генеришу садржај на основу корисничких упита. Као ни код других програмских решења у чијој је основи АИ, ни овде границе не постоје, а судећи по генерисаним снимцима, ни етика, а ни свест о потенцијалним последицама.

Како функционише дипфејк технологија? За почетак, корисник даје што је више могуће улазних података: формат снимка који жели да добије, прегршт фотографија и снимака лика који жели да буде на генерисаном видеу, као и текст који жели да "особа" изговара. АИ софтвер потом обрађује све те улазне податке, копира фацијалне експресије и мимику, прилагођава грађу и црте лица и генерише видео снимак који је толико реалистичан да само вешто око може да препозна да је у питању варка.

Нажалост, велики број корисника, нарочито оних старијих, на њих наивно "наседа". Но, то и није толико страшно уколико се ради о садржају који је забавног карактера, али може имати озбиљне последице ако се уплету политичке, или теме које се тичу здравља или финансија. Тако, примера ради, на снимку ниже, бивши амерички председник Доналд Трамп најављује да ће се, уколико поново дође на власт, осветити онима који су му се у затвору замерили.

@harryamax Donald Trump want's revenge 🔥 🔥 Don't forget to follow me, for more funny deep fakes🔥 #funnyvideos#AI#donaldtrump#politics♬ Originalton - Harryama ♦️

Владимир Путин, Том Круз и друге "жртве" дипфејк технологије

"Жртве" дипфејк технологије, смо сви ми - и јавне личности чији се идентитет злоупотребљава, и ми, гледаоци, којима се пласира садржај који нема ни једну додирну тачку са реалношћу. Један од најбољих примера дипфејк технологије је налог на друштвеној мрежи ТикТок који "припада" холивудској звезди Тому Крузу: садржај је толико реалистичан, да једва да оставља простор да помислите да ту нешто "не штима".

@deeptomcruise

When singing with your dog, always have sunglasses 🕶 🐶

♬ Hold Me Closer - Elton John & Britney Spears

За холивудским заводником не заостаје ни технолошки могул Илон Маск, а управо су његови снимци "запалили" друштвене мреже на територији Балкана. Снимак у коме бизнисмен изјављује да ракија мења живот, а да је након три дана у Модричи он практично постао алкохоличар није једини. У другом снимку, такође генерисаном уз помоћ АИ технологије, Маск "признаје" да је из Републике Српске, а у трећем да јако воли Србе и да се нада да ће(мо) вратити Косово. Наравно, ништа од овог се није десило, већ је само резултат корисничког захтева упућеног софтверу са вештачком интелигенцијом.

Како не упасти у замку дипфејк технологија

На срећу, дипфејк технологија још увек није достигла свој пик, а самим тим, постоје начини да препознамо да је у питању манипулација. Основни предуслов за то је бити непристрасан и оставити простора за сумњу. Па, не верујемо ни свему што видимо и чујемо у реалном животу - зашто бисмо онда слепо веровали ономе што видимо на интернету? Друга "црвена заставица" на коју треба обратити пажњу јесу уста особе која се налази на снимку - овај део је често замагљен више од остатка лица како се не би приметило да покрети не одговарају изреченом. И за крај, да ли примећујете да је снимак "роботизован"? Да особа не трепће, говори уједначеним тоном без иједног замуцкивања или паузе? Уколико да - највероватније је у питању дипфејк.

image