У середу пройшов форум, присвячений етичним аспектам ШІ - AI Now 2018 Symposium

«ШІ зараз 2018» - симпозіум про соціальні аспекти штучного інтелекту.


Симпозіум збирає разом вчених з різних сфер, антропологів, соціологів, політологів і юристів, чия діяльність так чи інакше пов'язана зі штучним інтелектом. Порушуються такі питання, як етика і безпека ШІ.


У світі за рік відбулося багато чого - Google перестав співпрацювати з Міноборони США по Project Maven, Microsoft оголосила про співпрацю з Імміграційною та митною поліцією США, IBM почала роботу з нью-йоркською поліцією за системою визначення етнічності, Amazon закрив свій інструмент ранжування резюме, і т. д.

Все це говорить нам про те, що технології ШІ викликають багато тривоги. Ми вирішили розповісти вам про кілька доповідей, що прозвучали на симпозіумі.

Кейт Крофорд (Kate Crawford) і Мередіт Віттакер (Meredith Whittaker), організатори, розповідають:

Багато речей змушують нас задуматися, чи можна довіряти ШІ. Цього року публіка активно вела дискусію про це. Багато чого змінилося за три роки, з тих пір, як ми почали організовувати симпозіум. Три роки тому ми не говорили про упередженість ШІ. Зараз же розмова про упередженість - це спільне місце для всіх дослідників ШІ.

До упередженості є два підходи: перший - це розробляти спеціальне ПЗ (bias-busting toolkits), яке б перевіряло наші програми на упередженість. Але чи можемо ми доручити машині таку відповідальність? Інший підхід - це розробляти корпоративні етичні кодекси - але що таке етика? Це дуже розмите поняття, яке можна трактувати як завгодно. Тут багато питань, наприклад, хто дав право вибирати членів ради з етики компанії тим, хто їх вибирає? Та й програмісти, як показує практика, схильні ці кодекси ігнорувати.

Неможливо пофіксити соціальні проблеми за допомогою таких технічних рішень, ми не хочемо, щоб був ШІ, який фіксит ШІ, який фіксит ШІ. Тут головне рішення - це забезпечити якомога більше публічного контролю над новими технологіями.


Питання, на яке належить відповісти - як створити надійні форми звітності? Для цього ми виділили кілька рівнів впливу ШІ, за якими треба стежити:

  1. Матеріальна реальність. ШІ - це не тільки нематеріальна програма, а й безліч матеріальних речей, які потрібні для його функціонування.
  2. Праця. Автоматизація - це насправді «псевдоматизація» (fauxtomation), і в той час як ми автоматизуємо одні речі, нам потрібна велика кількість людської праці, щоб розмічати дані, які ми потім «згодовуємо» сітці. Але праця людей з Mechanica lTurk залишається невидимою.
  3. Юрисдикція. Складні програми часто приймають важливі рішення, які впливають на людей. І потім іноді людям з програмами доводиться судитися. Але поки не існує достатньо розвиненої юрисдикції щодо того, як це можна зробити, і якщо оскаржувати рішення перед судом, то хто буде протилежною стороною.
  4. Нерівності. Через упередженість у розробці ШІ, ми можемо побачити збільшення нерівності і несправедливості. Так, припустимо, якщо вас «відстежувач» осіб випадково переплутав зі злочинцем, вам доведеться пройти у відділок. А ймовірність підвищується, якщо ваш колір шкіри - не білий, так як ми «зашиваємо» наші упередженості в комп'ютер. Хронологія важливих для ШІ-спільноти подій (клікніть, щоб збільшити).

Ніколь Озер (Nicole Ozer, ACLU of California), Тімніт Гебру (Timnit Gebru, Google AI) і Шеррілін Айфілл (Sherrilyn Ifill, NAACP Legal Defence Fund) розповідають про технологію відстеження осіб:

Технологію відстеження осіб можна використовувати, щоб потай стежити за переміщенням людей, у тому числі опозиціонерів, які засвітилися на протестах. Наприклад, така технологія була надана Amazon нью-йоркській поліції. Крім цього, системи розпізнавання осіб не бездоганні. Ми згодували систему, яка використовується в Нью-Йорку, фотографії членів конгресу, і вона сказала, що 28 з них - злочинці. Крім цього, такі системи вміють також давати оцінку вашим особам і можуть розпізнавати емоції. А тепер уявімо, що система помилилася. Наприклад, ви входите в банк, а вас розпізнають як злочинця, оточують і відводять до відділку. Ми так наївно довіряємо технологіям, ніби вони існують у своєму автономному світі, а ми, суспільство, в якому повна нерівності, гноблення і несправедливості, - у своєму.

Хто взагалі думає, що найбільша проблема законодавчої практики - що поліції потрібна техніка відстеження осіб? У поліції повно недосконалостей, вона далека від ідеалу. Чому ми думаємо, що їм потрібна технологія відстеження осіб, коли багато інших проблем? У Нью-Йорку є база даних вуличних банд, де, до речі, 99% чорні і американці іспанського походження. І я ніяк не дізнаюся, чи включили мене в цей список чи ні, і якщо мене виключать - ніколи не дізнаюся, що виключили. А тепер уявіть, що ця база доповнена технологією відстеження осіб!

Гарантування безпеки роботи ШІ - це як ремені безпеки в машинах. Ще 30 років тому ми обурювалися, мовляв, який нонсенс, це ж так незручно. А зараз ніхто не може собі уявити, що поїде непристегнутим. Так, я сподіваюся, буде і з ШІ. У міру того, як технологія вдосконалюється, ми повинні приділяти цьому питанню все більше і більше уваги.

Update.

Звіт про конференцію можна подивитися тут: https://ainowinstitute.org/AI_Now_2018_Report.pdf.


COM_SPPAGEBUILDER_NO_ITEMS_FOUND