Автономні автомобілі погано розпізнають пішоходів з темними відтінками шкіри

Автономним автомобілям потрібне додаткове тренування для розпізнавання людей з темною шкірою.


Люди з більш темною шкірою більше схильні до ризику потрапити під колеса безпілотного автомобіля.


У новому звіті показано, що системи, розроблені для розпізнавання пішоходів, мають проблеми з розпізнаванням людей з темними відтінками шкіри. Вже існують свідчення того, що деякі програми для розпізнавання облич не можуть обробляти темні відтінки шкіри. Результати дослідження безпілотних автомобілів показують, що це загрожує смертельними випадками.

Дослідники з Технологічного інституту Джорджії (Georgia Institute of Technology) вивчили в рамках своєї роботи вісім моделей штучного інтелекту, що використовуються в сучасних системах виявлення об'єктів. Дані системи дозволяють автономним транспортним засобам розпізнавати дорожні знаки, пішоходів та інші об'єкти при русі по дорозі.

Вони протестували ці системи, використовуючи дві різні категорії на основі шкали Фітцпатріка. Це шкала, яка використовується для класифікації кольору шкіри людини. Люди з більш темним кольором шкіри знаходяться в групі підвищеного ризику.

В цілому, точність системи знизилася на 5%, коли їй була запропонована група зображень пішоходів з більш темною шкірою. Згідно з опублікованою статтею, моделі показали «рівномірно гірші характеристики» при зіткненні з пішоходами з трьома найтемнішими відтінками шкали.

Такі результати вийшли після того, як результат був скоригований з урахуванням того, чи був знімок зроблений в денний або нічний час доби. Таким чином, у доповіді стверджується, що для людей з темною шкірою безпілотні автомобілі становлять більшу небезпеку, ніж для людей зі світлою.

Доповідь, на щастя, дає короткий опис того, як це можна виправити. Все залежить від збільшення кількості знімків темношкірих пішоходів у наборах даних, що використовуються для навчання систем.


Інженери, відповідальні за розробку цих систем, повинні приділяти більше уваги навчанню систем з більш високою точністю для цієї групи.

Автори доповіді, яка, як вони сподіваються, надає достатньо переконливих підстав для вирішення цієї важливої проблеми до того, як система розпізнавання буде впроваджена по всьому світу.

На жаль, це не перша доповідь про потенційно смертоносний расизм у системах на базі штучного інтелекту. У травні минулого року видання ProPublica повідомляло, що програмне забезпечення, використовуване для надання допомоги суддям у визначенні ризику, який являє собою злочинець при повторному скоєнні злочину, було упередженим щодо чорношкірих людей.

Ця система використовується суддями при винесенні кримінальних вироків, вона дає оцінку залежно від того, чи може ця особа вчинити повторне правопорушення. Високий бал говорить про те, що ймовірність скоєння злочину повторно висока, низький - що це малоймовірно.

Журналісти, які проводили розслідування, оцінили ступінь ризику, присвоєний більш ніж 7000 осіб в окрузі Бровард у Флориді в 2013 і 2014 роках, а потім подивилися, чи були ці ж люди звинувачені в нових злочинах протягом наступних двох років.

Цей алгоритм виявився ненадійним, тільки 20% людей, яким було передбачено повторне вчинення злочину, вчинили його. Також, він виявився расово упередженим.

Чорношкірі обвинувачені з більшою ймовірністю називалися в якості майбутніх злочинців, їх помилкове називання було в два рази частіше, ніж білих. У той час як білі частіше, ніж чорношкірі, були помилково промарковані як обличчя з низьким ступенем ризику.


Спільнота розробників штучних інтелектів має об'єднатися і зайняти громадську позицію проти такого роду упереджень.

COM_SPPAGEBUILDER_NO_ITEMS_FOUND