2024 рік можна назвати справжнім святом демократії, адже в щонайменше 64 країнах світу відбудуться вибори, і братимуть участь у них майже 49% населення світу. Зокрема, владу обиратимуть країни-партнери України: США, Литва, Південна Корея тощо. Також надзвичайно важливими є вибори до Європейського парламенту. Впродовж 6–9 червня виборці 27 країн голосуватимуть за 720 депутатів. Очільник дипломатії ЄС Жозеп Боррель зауважив, що ці вибори — “ключова ціль” для дезінформаційних кампаній, особливо російських. 

ОПОРА розібралася, як ЄС готується до майбутніх виборів до Європарламенту, які ризики становить передвиборча дезінформація у ЄС для України та які уроки може винести Україна для підготовки до післявоєнних виборів. 

Що варто знати про вибори до Європарламенту 2024?

Європарламент — законодавчий орган ЄС, представників якого обирають щоп’ять років. У більшості країн голосування добровільне, але для виборців Греції, Болгарії, Кіпру, Люксембургу та Бельгії воно обовʼязкове. Кожна країна ЄС має фіксовану кількість депутатів у Європарламенті відповідно до кількості населення. Серед найбільш представлених країн — Німеччина, Франція, Італія, Іспанія та Польща.

Кількість представників у Європарламент від країн ЄС на вибори 2024 року. Джерело: Lucia Mackenzie, Giovanna Coi для Politico.

Втім, виборчі системи, за якими обирають представників до ЄС, у різних країнах відрізняються. Це можуть бути, наприклад, відкриті чи закриті спискіи або єдиного перехідного голосу. Після голосування новообрані депутати Європарламенту з різних партій єднаються в сім парламентських груп відповідно до ідеології та інтересів.

Дослідники Politico та ECFR виявили, що в новому Європарламенті є високий шанс приходу до влади популістів та євроскептиків. У 18 країнах ЄС  — зокрема й у найбільш представлених, як-от Франція, Німеччина, Нідерланди, Італія та Польща — вони можуть увійти до трійки лідерів. Відтак, у Європарламенті стане більше депутатів, які критикують підтримку України або просувають проросійські наративи, особливо в ультраправій групі “Ідентичність і демократія” та серед позафракційних представників. 

Наприклад, нідерландська партія “За Свободу” перемогла на парламентських виборах 2023 року з гаслами “зупинити підтримку України”. “Альтернатива для Німеччини” та “Національний рух” у Франції активно засуджують санкції проти Кремля й адвокатують за “порозуміння з Росією задля миру та процвітання”. Хоча коаліція центристських партій (European People’s Party; Social Democrats) все ще, ймовірно, матиме більшість у Європарламенті, прихід ультраправих і євроскептичних кандидатів до влади може ускладнити надання допомоги Україні з боку ЄС. 

Інші виклики для прозорості виборчої кампанії в ЄС — іноземні (особливо російські) операції впливу. Наприклад, у травні 2022 року росіяни запустили операцію “Doppelgänger”, створивши “клони” 17 провідних ЗМІ України, Німеччини та США. Підставні сайти публікують неправдиву інформацію про Україну, яку надалі поширюють у соцмережах боти і тролі. 

Також росіяни намагаються підірвати вибори в ЄС, вербуючи європейських політиків. Після початку розслідування звʼязків латвійської депутатки Татьяни Жданок із російськими спецслужбами Європарламент ухвалив резолюцію про засудження російського втручання в європейські демократичні процеси.

Як ЄС планує регулювати поширення дезінформації в соцмережах?

Для захисту виборчих кампаній Євросоюз запровадив низку нормативних документів. Основні з них — Акт про цифрові послуги, Угода про політичну рекламу та Акт про штучний інтелект.

The Digital Services Act

Акт про цифрові послуги — основний документ на рівні ЄС, покликаний створити прозорий і безпечний цифровий простір і захищати права його користувачів. Основний задум Акту — протидія дезінформації й іншому контенту, що порушує законодавство ЄС, водночас зберігаючи свободу слова. Відповідно до Акту, техкомпанії зобовʼязані поширювати інформацію про регулювання контенту на своїх платформах із Єврокомісією. Якщо компанія не дотримується цієї вимоги, вона може отримати штраф розміром до 6% свого річного прибутку.

Хоча закон вперше зʼявився у 2020 році, Європарламент ухвалив його лише 2 роки потому. Одним із поштовхів  для цього стали занепокоєння європейських посадовців про поширення російської дезінформації в соцмережах після початку повномасштабного вторгнення в Україну. 

Як раніше зʼясувала ОПОРА, DSA покликаний зробити прозорішим регулювання цифрових платформ, а саме підвищити безпеку користування онлайн-платформами, захистити права користувачів і протидіяти дезінформації та зловживаннями рекламою.

По-перше, онлайн-платформи зобовʼязані запровадити систему модерування контенту та опраюцювання скарг користувачів на незаконний контент. За даними Євробарометру за 2018 рік, 61% інтернет-користувачів ЄС натрапляли на незаконний контент у соцмережах. Це може бути мова ворожнечі, небезпечний контент або незаконні товари та послуги (зброя, наркотики тощо). 

По-друге, політики регулювання медіаконтенту мають бути прозорими для користувачів. Іншими словами, онлайн-платформи мають ознайомити їх із “правилами спільноти” та пояснити, що є (не)прийнятним контентом. Якщо платформа блокує допис через порушення політики компанії, користувачі мають право оскаржити це рішення. Водночас медіагравцям заборонено примусово видаляти контент без попереднього інформування користувача.

По-третє, трансляція й таргетування реклами мають бути зрозумілими для користувачів. Основна проблема для ЄС полягає в тому, що соцмережі часто зловживають особистими даними користувачів і поширюють якомога більше рекламних публікацій задля максимізації прибутку. 70% респондентів, опитаних у межах публічних консультацій щодо DSA, вважають, що дезінформація поширюється через маніпуляції алгоритмами соцмереж. Саме тому Акт зобовʼязує інтернет-посередників надавати якомога повнішу інформацію про рекламу для користувачів: хто її спонсорує і за якими критеріями вона спрямована на конкретного користувача. Водночас користувачі мають право відмовитися від контенту, запропонованого мережею. а самим соцмережам заборонено пропонувати таргетовану рекламу на основі чутливих особистих даних.

Також закон встановлює гравців, що належать до “дуже великих онлайн-платформ та пошукових систем” (very large online platforms and search engines — VLOP+SE). Іншими словами, це інтернет-посередники, чиїми послугами щомісячно користуються понад 10% населення ЄС (близько 45 млн користувачів). До них належать, зокрема, Facebook, Instagram, YouTube, Snapchat, LinkedIn, X (раніше Twitter), TikTok, Google, Bing. На ці платформи накладаються додаткові зобовʼязання, як-от: 

  • проведення регулярних аудитів про виконання DSA;
  • посилені вимоги звітності та модерування контенту;
  • створення бібліотеки реклами тощо. 

Як писала Цифролаба, Єврокомісія створила сторінку, де публічно звітує про виконання платформами умов DSA. Наприклад, проти мережі X (Twitter) комісія відкрила розслідування про низку порушень, наприклад, поширення протиправного контенту попри “відповідність” стандартам спільноти, відсутність доступу до даних платформи для незалежних дослідників та введення в оману користувачів (через так звані “сині галочки”, які раніше у Twitter мали офіційні сторінки держслужб, медіа або публічних осіб, а нині їх можна отримати за платною підпискою).

Political Advertising Deal

У листопаді 2023 року депутати Європарламенту ухвалили попередню угоду про додаткові регулювання політичної реклами в онлайн-просторі. Подібно до Акту про цифрові послуги, цей документ має уніфікувати правила використання політичної реклами онлайн та, відповідно, зменшити розбіжності між законами країн-членів ЄС. 

Угода регулює низку проблем. Зокрема, реклама в соцмережах має бути чітко промаркована — онлайн-платформи мають надати користувачам інформацію про спонсорів рекламних оголошень, їхню локацію, суму та джерела фінансування. Крім того, після 24 місяців після набуття чинності угоди Єврокомісія створить публічну бібліотеку політичної реклами. Також угода обмежить зовнішнє втручання у виборчий процес. За три місяці до початку голосування політична реклама, спонсорована особами поза межами ЄС, буде заборонена. Врешті, документ врегулює методи таргетування реклами соцмережами. Політична реклама може таргетуватися лише за згоди користувачів поділитися своїми даними із платформою. Водночас використання особистих даних (релігія, сексуальна орієнтація або етнічність) для поширення політичної реклами заборонено. 

Коли йдеться про відповідальність за порушення, документ спирається на DSA: платформа, на якій розміщена неправомірна реклама, може бути оштрафована. Відповідно, цей документ можна вважати доповненням до Акту. Хоч угода стане чинною протягом 24 місяців, деякі умови Акту працюватимуть під час червневих виборів Європарламенту (як-от заборона поширювати політичну рекламу з третіх країн за три місяці до виборів).

Artificial Intelligence Act

У грудні 2023 року Європарламент розпочав роботу над законом, що має врегулювати роботу штучного інтелекту. Поштовхом для цього стали зловживання цією технологією під час виборчих кампаній у Польщі та Словаччині восени 2023 року. Станом на лютий 2024 року документ проходить розгляд у парламентських комітетах. 

Подібно до вимог DSA, цей закон передбачає, що компанії країн ЄС мають поширювати дані, які вони використовують для тренування системи ШІ, і звітувати про ці тестування. У попередній редакції Акт забороняє використання штучного інтелекту для збору біометричних даних людей із камер спостереження, створення бази розпізнавання облич або маніпулювання поведінкою особи. Системи ШІ, спрямовані на маніпулювання виборчою поведінкою і результати голосування, закон називає “високоризикованими”. Крім того, громадяни ЄС матимуть право подати скаргу на протиправне використання штучного інтелекту (наприклад діпфейків). За недотримання закону компанія може отримати штраф залежно від типу порушення і рівня доходу. 

Видання AlJazeera називає цей закон “найбільш цілісним” серед поточних спроб регулювання штучного інтелекту. Втім, імовірно, законопроєкт Європарламенту набере чинності вже після парламентських виборів 2024 року. Відповідно, доки немає єдиного законодавства на території ЄС, технологічні компанії самостійно визначають умови використання штучного інтелекту, що залишає ризики для прозорості виборів.

Які зміни внесли цифрові платформи перед виборами в Європарламент?

TikTok

Керівник відділу безпеки та доброчесності TikTok Кевін Морган анонсував запуск кампанії безпеки перед виборами до Європарламенту. 

По-перше, з березня 2024 року в TikTok зʼявиться доступ до “виборчих центрів” кожної з 27 країн ЄС. За словами Моргана, понад 6000 співробітників мережі, що володіють 18 європейськими мовами, співпрацюватимуть із 9 фактчекінговими організаціями для перевірки правдивості контенту. Відео політичного змісту міститимуть посилання на відповідний виборчий центр і нагадування про необхідність перевіряти інформацію. TikTok обіцяє маркувати публікації з оманливою або непідтвердженою інформацією. Платформа також має наміри боротися з операціями впливу, блокуючи облікові записи, що порушуватимуть правила соцмережі.

По-друге, мережа проводить кампанії з медіаграмотності для своїх користувачів. Протягом 2023 року співробітники платформи разом із фактчекерами провели онлайн-заходи у 18 країнах ЄС, охопивши 50 млн користувачів. На 2024 рік TikTok планує провести ще 9 таких освітніх подій, у тому числі наживо.

По-третє, платформа регулюватиме контент, згенерований за допомогою штучного інтелекту — такі відео зазвичай міститимуть відповідну позначку. Створений штучним інтелектом контент із використанням зображень публічних або приватних осіб видалятимуть.

Google (Google Search, YouTube, Gemini)

Компанія Google також зробила заяву про заходи перед виборами до Європарламенту. Основні напрямки кампанії — забезпечення доступу до верифікованих даних, протидія дезінформаційним кампаніям і регулювання контенту, створеного штучним інтелектом.

Насамперед Google співпрацює із Європарламентом задля покращення доступу до інформації про вибори та голосування. На пошуковий запит “як голосувати” платформа видаватиме офіційні деталі, як-от вимоги і дедлайни реєстрації, або інструкції про те, як  проголосувати закордоном. Компанія заявляє, що алгоритми YouTube рекомендуватимуть відео лише від авторитетних ресурсів. Натомість політична реклама має пройти верифікацію на використання штучного інтелекту та надати інформацію про спонсора. Усі рекламні публікації увійдуть у звіт, а рекламодавці зможуть таргетувати свої оголошення на основі обмежених типів даних: розташування, вік, стать, пошукові запити користувачів тощо.

Ба більше, Google модеруватиме контент та сприятиме просвіті користувачів. Наприклад, компанія планує застосовувати штучний інтелект для перевірки контенту на відповідність правилам спільноти. Публікації, що міститимуть порушення — мову ворожнечі, заклики до насильства або викривлену інформацію — будуть видалені. Також у березні 2024 року Google у партнерстві з Jigsaw запустять освітню платформу з медіаграмотності, що міститисе короткі рекламні ролики, перекладені усіма мовами країн ЄС, про різні методи дезінформації. Також компанія обіцяє фінансово підтримувати проєкти, що сприятимуть покращенню медіаграмотності в ЄС.

Google також планує маркувати контент, створений штучним інтелектом. Наприклад, перед завантаженням відео в YouTube автори мають повідомити, чи їхній контент справжній, чи створений за допомогою ШІ. Google також допрацюють власні платформи штучного інтелекту — обмежать спектр питань про вибори, на які бот Gemini даватиме відповідь.

Meta (Facebook, Instagram, Threads)

Meta виступила з двома заявами про посилення заходів безпеки перед виборами до Європарламенту і всіх інших виборів 2024 року. Основні методи боротьби з дезінформацією залишилися незмінними з 2016 року. Це видалення неавтентичних акаунтів, перевірка онлайн-контенту спільно з незалежними фактчекерами, ведення бібліотеки реклами з даними про політичні оголошення. Під час виборчої кампанії до Європарламенту цим займатиметься Виборчий центр ЄС (EU Elections Operations Center). Також Meta розширює співпрацю із фактчекерами в Європі.

Іншим нововведенням у політиці платформи проти дезінформації стала ідентифікація контенту, створеного ШІ. Meta працює у партнерстві з Google, OpenAI, MidJourney, Adobe, Shutterstock, щоб створити алгоритм, який може ідентифікувати штучно згенеровані зображення та маркувати їх на платформі відповідно. Втім, для аудіо- та відеозаписів, створених за допомогою штучного інтелекту, алгоритми Meta ще у розробці. У такому випадку компанія зобовʼязуватиме користувачів самостійно повідомити про автентичність їхнього медіаконтенту. 

Які уроки Україна може винести для післявоєнних виборів?

Хоча Україна вже працює над впровадженням реформ для інтеграції в ЄС, український інформаційний простір під час та після війни залишатиметься вразливим до російських дезінформаційних кампаній. Російські ІПсО в Україні мають більший масштаб і простір для функціонування, ніж у Європі — особливо в мережі Telegram. Цей майданчик залишатиметься сприятливим для російських операцій впливу, особливо в ході післявоєнних виборів. Саме тому важливо ухвалити законодавство, яке регулюватиме контент соціальних мереж в Україні. Ярослав Юрчишин, голова комітету ВРУ з питань свободи слова, наголосив: “Важливо знати, хто за ними [Telegram-каналами] стоїть, щоб ми могли висувати чіткі претензії і закривати через співпрацю з адміністраторами канали, які конкретно працюють на країну-агресора”.

З іншого боку, навіть такі регулювання можуть не надто вплинути на Telegram. Якщо після запровадженні DSA в ЄС платформи Meta, Google, TikTok мали адаптувати норми модерації контенту до європейського законодавства, навряд чи можна очікувати таку співпрацю від Telegram. Фактично платформа і надалі спиратиметься на внутрішні норми, що обмежує спроможність виконання такого закону.

Утім, дезінформація — комплексне явище, з яким варто працювати відповідно. Крім регулювання онлайн-платформ, важливо дбати про те, щоб громадяни вміли самостійно протидіяти неправдивій інформації та більш свідомо споживали медіаконтент.