Преземено од
Независен.мк
Во текот на изминатите 11 месеци, некој создаде илјадници лажни, автоматизирани сметки на Твитер – можеби стотици илјади од нив – за да понуди голема поплава на пофалби за Доналд Трамп.
Покрај објавувањето восхитувачки зборови за поранешниот претседател, лажните профили ги исмеваа критичарите на Трамп од двете партии и ја нападнаа Ники Хејли, поранешната гувернерка на Јужна Каролина и амбасадорка на ОН, која го предизвикува својот некогашен шеф за претседателската номинација на републиканците во 2024 година.
Кога станува збор за Рон Десантис, ботови агресивно сугерираа дека гувернерот на Флорида не може да го победи Трамп, но дека ќе биде одличен кандидат.
Додека републиканските гласачи го дознаваат своите кандидати за 2024 година, кој и да ја создаде мрежата на ботови се обидува да стави палец на скалата, користејќи техники за манипулација преку интернет, прво испробани од Кремљ за да ја оттгрне дискусијата на дигиталната платформа за кандидатите додека ги искористува алгоритмите на Твитер за да го максимизира нивниот дофат.
Распространетата мрежа на ботови беше откриена од истражувачи во Cyabra, израелска технолошка фирма која ги сподели своите наоди со Асошиетед прес. Иако идентитетот на оние кои стојат зад мрежата на лажни профили е непознат, аналитичарите на Cyabra утврдија дека најверојатно е создадена во САД.
За да идентификуваат бот, истражувачите ќе бараат обрасци во профилот, неговата листа на следбеници и содржината што ја објавува. Човечките корисници обично објавуваат за различни теми, со мешавина од оригинален и повторно објавен материјал, но ботови често објавуваат повторлива содржина за исти теми.
Тоа беше точно за многу од ботови идентификувани од Cyabra.
„Еден профил ќе каже: ‘Бајден се обидува да ни ги земе пиштолите; Трамп беше најдобар’, а друг ќе рече: ‘Јан. 6 беше лага, а Трамп беше невин’“, вели Жил Грос, инженерот на Cyabra кој прв ја откри мрежата. „Тие гласови не се луѓе. За доброто на демократијата, сакам луѓето да знаат дека ова се случува“.
Ботовите, како што обично се нарекуваат, се лажни, автоматизирани профили кои станаа озлогласено познати откако Русија ги употреби во обид да се меша во изборите во 2016 година. Додека големите технолошки компании го подобрија откривањето на лажни профили, мрежата идентификувана од Cyabra покажува дека тие остануваат моќна сила во обликувањето на онлајн политичката дискусија.
Новата про-Трамп мрежа се всушност три различни мрежи на профили на Твитер, сите создадени во огромни групи во април, октомври и ноември 2022 година. Севкупно, истражувачите веруваат дека може да бидат вклучени стотици илјади профили.
Сите профили имаат лични фотографии на наводниот сопственик на сметка, како и име. Некои од профилите објавуваа своја содржина, честопати како одговор на вистински корисници, додека други повторно објавуваа содржини од вистински корисници, помагајќи дополнително да се засили.
„Меконел… Предавник! напиша еден од профилите, како одговор на написот во конзервативна публикација за лидерот на Републиканската партија во Сенатот, Мич Меконел, еден од неколкуте републикански критичари на Трамп, кои беа цел на мрежата.
Еден начин за мерење на влијанието на ботови е да се измери процентот на објави за која било дадена тема генерирани од сметки кои се чини дека се лажни. Процентот за типични онлајн дебати е често во ниски едноцифрени броеви. Самиот Твитер рече дека помалку од 5% од неговите активни дневни корисници се лажни или спам профили.
Меѓутоа, кога истражувачите на Cyabra ги испитуваа негативните објави за одредени критичари на Трамп, тие открија многу повисоки нивоа на неавтентичност. Скоро три четвртини од негативните објави за Хејли, на пример, беа проследени на лажни профили.
Мрежата, исто така, помогна да се популаризира повикот Десантис да му се придружи на Трамп како негов потпретседателски кандидат – исход што добро ќе му послужи на Трамп и ќе му овозможи да избегне потенцијално горчлив натпревар доколку Десантис влезе во трката.
Истата мрежа на сметки споделуваше претежно позитивна содржина за Трамп и придонесе за севкупна лажна слика за неговата поддршка на интернет, открија истражувачите.
Повеќето ботови не се дизајнирани да ги убедуваат луѓето, туку да засилат одредена содржина за повеќе луѓе да ја видат, според Семјуел Вули, професор и истражувач на дезинформации на Универзитетот во Тексас, чија најнова книга се фокусира на автоматизирана пропаганда.
Кога човечкиот корисник ќе види хаштаг или дел од содржината од бот и ќе ја репостира, тој ја врши работата на мрежата за тоа, а исто така испраќа сигнал до алгоритмите на Твитер за дополнително да го зголеми ширењето на содржината.
Ботовите исто така можат да успеат да ги убедат луѓето дека кандидатот или идејата е повеќе или помалку популарна отколку во реалноста, рече тој. Повеќе про-Трамп ботови може да доведат до тоа луѓето да ја преценуваат неговата популарност во целина, на пример.
„Ботовите апсолутно влијаат на протокот на информации“, рече Вули. „Тие се создадени за да создадат илузија на популарност. Повторувањето е главното оружје на пропагандата и ботовите се навистина добри во повторувањето. Тие се навистина добри во добивањето информации пред очите на луѓето“.
До неодамна, повеќето ботови беа лесно идентификувани благодарение на нивното несмасно пишување или имињата на профилите што вклучуваа бесмислени зборови или долги низи од случајни броеви. Како што платформите на социјалните медиуми станаа подобри во откривањето на овие профилии, ботови станаа пософистицирани.
Таканаречените киборг-сметки се еден пример: бот кој периодично го презема човечки корисник кој може да објавува оригинална содржина и да одговори на корисниците на начини слични на луѓето, што го прави многу потешко да се намирисаат.
Ботовите наскоро би можеле да станат многу поскриени благодарение на напредокот во вештачката интелигенција. Новите програми за вештачка интелигенција можат да создадат реални профилни фотографии и објави кои звучат многу поавтентично. Според Кејти Харбат, поранешен директор за јавна политика на Фејсбук, ботови кои звучат како вистинска личност и користат технологија за длабоко лажни видео може да ги предизвикаат платформите и корисниците на нови начини.
„Платформите станаа многу подобри во борбата против ботови од 2016 година“, рече Харбат. „Но, типовите што сега почнуваме да ги гледаме, со вештачката интелигенција, можат да создадат лажни луѓе. Лажни видеа“.
Овие технолошки достигнувања веројатно гарантираат дека ботови имаат долга иднина во американската политика – како дигитални пешаци во онлајн кампањите и како потенцијални проблеми и за гласачите и за кандидатите кои се обидуваат да се одбранат од анонимни онлајн напади.