недеља, 4. новембар 2018.

Аутентични фалсификати и политичка манипулација

Аутентични фалсификати и политичка манипулација
Леонид Савин
Амерички медији, готово свакодневно пишу о “руском мешању преко Интернета” у америчке изборе. Велика међународна и специјализована издања са седиштем у Сједињеним државама методично понављају легенде о "руским троловима" и "хакерима из ГРУ", иако поред неоснованих оптужби, нису представили ниједан доказ. Истина, докази су стигли из приватне фирме.


И показали су супротно. Тако, је један Гуглов пројекат уверљиво показује како, за 100 долара, можете створити илузију да одређена руска компанија покушава да утиче на јавно мнење у Сједињеним државама. За те потребе је у Панами купљен мобилни телефон и неколико СИМ картица, изабрано је типично руско име и презиме, на које је регистрован и налог на мрежи Yandex, онда је помоћу програма NordVPN регистрована IP адреса у Петерсбургу, затим је преко одређене правне фирме спроведено и плаћање рекламе на AdWords, а на Интернету је остављен изабрани политички садржај, који се може сматрати провокативним. Све ово су извели држављани Сједињених држава из компаније Гугл и нису се устезали да то и пријаве. И, шта спречава НСА, ЦИА или фанатичне русофобе, који познају крекерске технике, да то раде, без обзира да ли припадају било којој политичкој партији? Осећај здравог разума указује да је управо то и учињено, како би се створио утисак руске интервенције. Али, да пружимо стварне доказе, наравно, нико не може. Али, наравно да нико не може да пружи стварне доказе.

Други пример, како Сједињене државе могу утицати на јавно мнење је стварање лажне пропаганде. Ову технологију је користила америчка војска у Ираку почетком двехиљадитих, уз помоћ подизвођача.

Британска невладина организација ‘Биро за истраживачко новинарство’ тврди да је Пентагон платио више од 500 милиона долара британској компанији за односе с јавношћу, Bell Pottinger, за прављење лажних видео снимака, који су приказивали различита дејства милитаната и терориста. Група сарадника ове фирме је заједно са америчком војском била смештена у кампу Victory у Багдаду, одмах после почетка окупације 2003. године. Такође је, између 2007. и 2011. године, закључен низ уговора. Бивши председник ове фирме, лорд Тим Бел, рекао је новинарима да је фирма спровела неки тајни уговор за интересе Американаца, о чијим детаљима се није говорило због тајности уговора. Треба подсетити и да је фирма Bell Pottinger радила на добром имиџу Маргарет Тачер и да је помогла Конзервативној партији да победи у три изборна процеса.

Мартин Велс (већ бивши) видео уредник је признао да му је боравак у кампу Victory отворио очи и променио живот. Са америчке стране, овај пројекат је надгледао генерал Дејвид Петреус. А, ако он није могао да одлучи о неком одређеном питању, оно се решавало на вишим инстанцама у Вашингтону.



Најскандалознијом епизодом у овој причи је стварање пропагандних снимака за интересе терористичке групе Ал-Каида, које је ова британска фирма направила. Када је материјал био готов и дигитализован у правом формату, ови видео снимци су пребачени на дискове и дати маринцима, који су их током рација и упада, разбацивали по ирачким кућама. На дисковима је био снимљен и код, према коме је било могуће утврдити и локацију компјутера, са кога је материјал пребачен на диск (компакт-диск). Касније је откривено да су се лажни Ал Каидини снимци гледали не само у Ираку, већ и у Ирану, Сирији и чак у Сједињеним државама! Могуће је да је праћење дискова помогло америчким снагама безбедности да прате и ширење лажних пропагандних снимака. И, колико људи су постали следбеници екстремистичке идеологије, захваљујући овом Пентагоновом тајном пројекту?

А, како су последњих година технологије још напредовале, сада се почело говорити о могућности коришћења вештачке интелигенције за такве пројекте - било да је у питању политичка манипулација на изборима или ширење дезинформација. Недавно су технологије засноване на вештачкој интелигенцији већ биле у средишту неколико скандала. Један од њих је коришћење података са Facebook профила, које је фирма Cambridge Analytica, за бирање и циљање бирача током последњих америчких председничких избора.

Вашингтон Постје у том смислу нагласио да ће "будуће кампање бирати не само проблеме и слогане које потенцијални кандидат може да подржи, већ и сâмог кандидата, који не би требало да буде равнодушан према овим проблемима… Базама података су придодате апликације са информацијама о образовању, родослову и професионалним навикама и обухватају специфичне сегменте гласачког тела у различитим демографским областима и регионима.

У будућности ће се трендови, међу различитим групама гласача, моћи упоређивати са родословним, генетским и медицинским подацима, како би се разумеле промене у политичким кретањима, регионалним и генерацијским склоностима, истичући начине и методе на основу којих гласачи бирају, за или против предвиђених планова."

Вештачка интелигенција се, такође, може користити као бот, заменити особу и чак имитирати разговор. Алгоритми као што су Quill, Wordsmith и Heliograf се користе за претварање таблица са подацима у текстуални документ, па чак и за писање вести о различитим темама. Вашингтон Пост већ користи Heliograf у свом раду. А ботови се могу користити како у добре, тако и у лоше сврхе.

Према мишљењу америчке војске, инструменти информационих операција заснивани на вештачкој интелигенцији могу да саосећају са корисницима, да изразе нешто неопходно, промене опажање, које управља овим физичким оружјем. Будући системи информационих операција ће моћи да контролишу и утичу на десетине хиљада људи истовремено.



У лето ове године, агенција DARPA је покренула пројекат који ће покушати да утврди да ли ће у блиској будућности бити могуће разликовати лажни видео и аудио од стварног, који 1) изгледа као стваран; 2) направљен је коришћењем вештачке интелигенције. Притом ће се анализа оваквих докумената, такође, спроводити уз помоћ вештачке интелигенције.

Видео, традиционално, има већи утицај на публику, јер се верује да је теже лажирати га од фотографије. И чини се уверљивијом од текста који чита нека политичка фигура. Међутим, савремене технологије се могу лако носити и са овим. У априлу 2018. године је објављен видео, назван ObamaPeele - према именима учесника. Ради се о томе да је Обама у том видеу врло чудно говорио, али то је зато што је текст, у ствари, изговарао глумац, који се на видеу не види. Посебним програмом је обрађивано глумчево кретање, па је Обамина мимика била у потпуности у складу са наведеним текстом. Стручњаци за рачунарске технологије на универзитету у Вашингтону су направили сличан експеримент са говором Бараке Обаме из 2017. године и јавно објавили резултате, уз детаљан опис како то функционише.

Агенција DARPA је у једном пројекту користила такозване “deep fakes” - видео снимци у којима је лице једног човека било "пришивано" телу другог човека. Стручњаци су утврдили да је ова технологија већ искоришћена за прављење неколико лажних порно снимака са познатим личностима. Али се ова метода, такође, може користити за прављење снимака политичара који говори или чини нешто непримерено и неприхватљиво.

Технолози у агенцији DARPA су посебно забринутизбог нове технологије за вештачку интелигенцију јер је фалсификате направљене уз помоћ ове технологије, практично немогуће препознати неком аутоматском методом. Користећи такозване генеративне супротстављене мреже или GAN (generative adversarial networks), могу се стварати запањујуће реалистичне, вештачке слике. Забринутост је, видимо, повезана са могућношћу да ове технологије користе и други. Како Сједињене државе губе монопол у стварању, верификацији и дистрибуцији фалсификата, суочиће се са проблемима да овакве ствари могу правити друге државе и народи.

И док се научници у војним униформама ломе главе како се у таквој специфичној информационој трци борити против других држава, њихове колеге у цивилу су већ назвале овај тренд информациона апокалипса и дезинформације на стероидима.

Gеополитика.ru

Аутентични фалсификати и политичка манипулација


from Милан «Паланка на вези» Милошевић - Google+ Posts
via IFTTT Видети заједницу Вести - News - Новости

Нема коментара:

Постави коментар