Учені знайшли можливе розв’язання проблеми упередженості ШІ


Дізнайтесь більше про нові кар'єрні можливості в EchoUA. Цікаві проекти, ринкова оплата, гарний колектив. Надсилайте резюме та приєднуйтеся до нас.

ШІ й алгоритми машинного навчання впроваджуються всюди: від фінансових бірж, де передбачаються ціни на акції, до медицини. ШІ все частіше використовується для прийняття рішень, що раніше лягали на плечі людини.

Однак якість роботи ШІ залежить від якості даних, на яких він навчався. У більшості випадків вхідна вибірка ґрунтується на людських почуттях і упередженості, що зрештою може вплинути на багато життів. Нагадаємо, що ми вже писали, як дослідники Принстонського університету виявили упередженість у штучного інтелекту.

У статті учені з Корнелльського університету стверджують, що впритул наблизилися до розв’язання проблеми систем типу “чорна скринька”, роботу яких складно перевірити ззовні.

Чорні скриньки

Найбільш упереджена галузь діяльності ШІ – оцінка ризику при створенні моделей, що визначають, наприклад, шанси людини на отримання поруки або видачу позики. Зазвичай у таких випадках враховувати чинники на зразок раси безглуздо.

Проте алгоритми можна навчити розпізнавати і використовувати дані, побічно пов’язані з рівнем освіти або місцем проживання людини. Це здатне породити у ШІ расистські та інші забобони.

При цьому багато типів ШІ, використовуваних для подібних рішень, відносяться до “чорних скриньок” – вони або занадто складні для розуміння, або компанії-виробники відмовляються коментувати способи їх реалізації.

Проблема людських забобонів, що впливають на роботу ШІ

Свої ідеї автори статті випробували на двох різних моделях типу “чорна скринька” компаній LendingClub і Northpointe. Одна з них оцінювала ризики за поданням позик, а інша передбачала ризики повторного скоєння злочину конкретною раніше засудженою людиною.

Спершу вони створили модель, яка копіює алгоритм “чорної скриньки”, що вивчається, і видає оцінку ризику, яка ґрунтується на вихідних даних, наданих компаніями-розробниками. Потім була побудована друга модель, вже навчена на реальних результатах. За її допомогою були визначені чинники, що впливають на кінцеві результати.

Результати експериментів

У першому випадку виявилось, що модель позик ігнорувала як річний дохід претендента, так і призначення позики. І це при тому, що на практиці останній чинник є важливим аспектом.

За твердженнями компанії-розробника алгоритму, що передбачає повторне скоєння злочину, вони не використовують расу обвинуваченого як параметр при виголошенні вироку. Проте з урахуванням зібраних під час експериментів даних було встановлено, що цей алгоритм упереджено оцінював деякі вікові та расові групи.

Висновки

У першу чергу треба розуміти, що упередження і забобони в алгоритмах ШІ нікуди не подінуться, якщо з ними не боротися. І якщо компанія-розробник алгоритму відмовляється надати повну інформацію про його роботу і використовувані параметри, то описаний ученими Корнелльського університету підхід дотепер залишається єдиним способом перевірки чесності розробників.

Джерело: MIT Technology Review

Київ, Харків, Одеса, Дніпро, Запоріжжя, Кривий Ріг, Вінниця, Херсон, Черкаси, Житомир, Хмельницький, Чернівці, Рівне, Івано-Франківськ, Кременчук, Тернопіль, Луцьк, Ужгород, Кам'янець-Подільський, Стрий - за статистикою саме з цих міст програмісти найбільше переїжджають працювати до Львова. А Ви розглядаєте relocate?


Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *