Боти небезпечні для демократії

Так працює BotOrNot - з імовірністю в 76 відсотків перед нами соціальний бот.


Фахівці з університету Індіани розробили інструмент, який допомагає визначити, чи стоїть за обліковим записом у твіттері людина або ж це працює автоматизований програмний додаток, відомий як «соціальний бот». Новий інструмент аналізу заснований на дослідженнях Блумінгтонської школи інформатики та обчислювальної техніки, що фінансується Міністерством оборони США для протидії технологіям дезінформації.


BotOrNot аналізує підписки і передплатників користувача, зміст твітів та іншу інформацію, що дозволяє в результаті обчислити ймовірність того, що обліковий запис є ботом.

Національний фонд науки і американські військові фінансували наукові дослідження, визнавши, що збільшення потоку інформації - в блогах, соціальних мережах, медіа-технологіях обміну - поряд з прискореним поширенням мобільного зв'язку змінюють спосіб спілкування і дозволяють проводити великі кампанії дезінформації.

Коли методи network science застосовуються для виявлення обману, використовується як знання про соціальні структури і поширення інформації в мережах, так і мовні сигнали, структуру активності за часом і «настрою» - дані, що витягуються з контенту, поширюваного через соціальні медіа. Все це може бути проаналізовано за допомогою BotOrNot.

«Ми застосували метод статистичного навчання як основу для аналізу даних, отриманих з Твіттера, але» секретним інгредієнтом «став набір більш ніж з тисячі прогностичних функцій, здатних відрізнити користувача-людину від соціального бота, ґрунтуючись на змісті і часі публікації твітів і структурі зв'язків з іншими користувачами», - заявив Алессандро Фламміні, керівник проекту.

"Одним з приводів для проведення дослідження стало те, що ми не знаємо, наскільки серйозна проблема ботів у кількісному вираженні, - сказав Філ Менчер, професор інформатики, керівник центру вивчення складних мереж і систем, де нова робота проводиться як частина інформаційної підтримки дослідницького проекту" Truthy ".

"Існують тисячі ботів? Мільйони? Ми знаємо, що є багато ботів, багато з яких абсолютно нешкідливі. Але ми також знаємо приклади ботів, які використовуються для введення в оману, створення і поширення чуток, спаму, шкідливих програм, дезінформації, політичної пропаганди і наклепу ".


Фламміні і Менчер заявляють, що на їхню думку, ці види соціальних ботів можуть бути небезпечними для американської демократії, здатні викликати паніку під час надзвичайної ситуації, вплинути на фондовий ринок, є одним з інструментів кіберзлочинців і суперечать цілям державної політики. Завдання програми - підтримати зусилля з протидії дезінформації.

Використання соціальних ботів широко висвітлюється в засобах масової інформації. Менчер дав інтерв'ю «Нью-Йорк Таймс», в якому розповів, як соціальні боти використовуються для впливу на виборців і в інших цілях.

Команда отримала трохи більше 2 млн доларів в 2012 році для вирішення завдання з «виявлення ранніх проявів пропаганди в інформаційному потоці» і минулого місяця представила результати, що включають BotOrNot та інші інструменти в департаменті оборони США.

COM_SPPAGEBUILDER_NO_ITEMS_FOUND