SHARE

От Ема Греъм-Харисън, The Guardian

Социалната мрежа изтрива милиарди фалшиви акаунти, за да спре потока от фалшиви новини, дезинформация и реч на омразата.

Преди по-малко от три години главният изпълнителен директор на Facebook Марк Зукърбърг отхвърли като „налудничава“ идеята, че фалшивите новини в платформата му биха могли да повлияят на избирането на Доналд Тръмп за президент на САЩ.

Днес компанията признава, че е под обсадата на милиарди фалшиви профили, които се опитват да изиграят системата на Facebook, за да спечелят избори, да печелят пари или да влияят на хората по различни начини и мрежата се бори с цунами от фалшиви новини, дезинформация и реч на омразата.

Побеждаването им се превърна във въпрос на корпоративно оцеляване, а Facebook иска потребителите и регулаторите да знаят, че са засилили тези усилия. Иска също така от тях да вярват, че се обръща тенденцията.

До провеждането на изборите и няколко дни след това около 40 души ще бъдат прегърбени пред екраните денонощно, следейки променените темпове на онлайн разговорите, търсейки признаци на манипулация, фалшиви новини или реч на омраза. Те са подкрепени от глобална мрежа, включваща експерти по въпросите на заплахата от разузнаването, учени, изследователи и инженери.

Преводачи, които владеят всеки един от 24-те официални езика на ЕС като „майчин“, също са част от екипа, каза Лекси Старди, която долетя от САЩ, за да ръководи защитата на европейските избори, след като ръководи подобна операция за американските междинни избори (по средата на всеки президентски мандат се извършват „междинни избори“ за Конгреса).

Мащабът на предизвикателството, пред което е изправен Facebook в усилията да изчисти „лошите актьори“ от системата, е изумително. Ричард Алан, вицепрезидент на компанията за обществената политика, заяви, че компанията е свалила 2,8 млрд. фалшиви профила между октомври 2017 г. и ноември 2018 г. В допълнение към тези фалшиви профили има реални, които споделят фалшиви новини, умишлено разпространяват дезинформация или насърчават речта на омразата. Компанията също така започна да проверява хората, които искат да публикуват политически реклами, и се ангажира да поддържа библиотека с онлайн рекламите в продължение на седем години.

Но въпреки ресурсите, вкарани в справяне с опитите за манипулиране на избирателите чрез платформата – от фалшива реклама до разпространяване на реч на омразата, Facebook все още се бори да изкорени хората и мрежите, които нарича „лоши играчи“.

Журналисти и активисти откриха през последния месец крайнодесни мрежи в Испания, които достигат до близо 1,7 милиона души, откриха реклами, публикувани от кампанията на Тръмп в САЩ, които нарушават правилата на Facebook и разкриха astroturf* рекламна кампания, поддържаща твърд Brexit, представяща се, че е спонтанна, но всъщност е координирана от опитен политически ветеран.

Нито едно от тези неща не бе забелязано от собствените инструменти на Facebook. Натаниел Глейчър, ръководител на политиката в областта на киберсигурността на мрежата, заяви, че има непрекъснато подобряване, но признава, че компанията няма капацитет за пълна защита на изборите.

„В ситуация като тази нито една организация не може да се справи сама“, коментира той намесата в изборите и фалшиви новини. „Журналистиката и активизмът ще са необходими за укрепване на собствените усилия на компанията“, добави той.

„Очевидно бих искал да успяваме да уловим всяка отделна операция сами“, каза той. „Но реалността на сигурността е, че има нужда от колкото се може повече хора, фокусирани върху проблема.“

Той подробно описа двустранния международен подход на компанията за спиране на злоупотребите. Facebook се стреми да използва изкуствен интелект, за да направи по-трудно системата да бъде изиграна и да ускори усилията за премахване на тези, които нарушават правилата. Целта е „да се принудят лошите играчи да прекарват времето си, опитвайки се да победят филтъра, вместо да се опитват да управляват посланията си“.

Facebook отказа да даде примери за това къде се е намесила, за да спре хората, целящи манипулации на европейските избори. Но Старди каза, че предишните успехи включват идентифициране на скок в речта на омразата в Бразилия след първия тур на президентските избори миналата година; в рамките на един час нов мем е бил свален.

В американските междинни избори автоматизираните системи на Facebook са идентифицирали 90% от опитите за внушения за отказ от гласуване, като само 10% са по сигнал от потребителите, каза тя.

Но недостатъците на тези автоматизирани системи – няма начин да се знае например колко опита за внушения за отказ от гласуване са успешно проведени както от човешките усилия, така и от автоматизираните системи – могат да поставят гласове особено в по-малките или по-бедните страни в риск.

На места, където медиите и активистите са под натиск, Facebook не е изяснил кой може да направи допълнителни проверки, които да идентифицират „лошите актьори“.

Една празнина в европейските проверки бе подчертана от унгарския журналист Мартон Гергели, когато попита мениджърите: „Защо нямате „проверяващи фактите“ в Унгария? Основните новинарски сайтове, включително един, свързан с правителството, бе критивуан за публикуването на фалшиви новини, но Алан каза, че Facebook не е намерил надежден партньор.

„Не е че не искаме да имаме проверка на фактите в която и да било страна“, каза той, като поиска конкретни предложения. Тази позиция защитава репутацията на Facebook, но потенциално оставя избирателите в Унгария особено уязвими за фалшиви новини.

Отвъд европейските избори Алан обеща, че ще има известна защита за всички избори навсякъде по света, но отказа да даде дори най-общи гаранции за това как ще изглеждат основните предпазни мерки.

„Ще има различни мерки за различните страни в зависимост от профила на заплахата“, каза той, като повиши тревожната перспектива за система от непрозрачни нива на защита. „Доколкото можем, ще се стремим да защитим всички избори по света.“

SHARE
Смислен прочит на събитията, които имат значение.