Дослідники з Принстонського університету виявили упередженість у штучного інтелекту


Дізнайтесь більше про нові кар'єрні можливості в EchoUA. Цікаві проекти, ринкова оплата, гарний колектив. Надсилайте резюме та приєднуйтеся до нас.

Машини зі штучним інтелектом можуть набувати расових і гендерних упереджень під час навчання з текстових джерел, стверджують дослідники. Без стороннього втручання алгоритм машинного навчання вчиться асоціювати жіночі імена з темою сім’ї, а імена чорношкірих вважає неприємнішими, ніж імена білих.

Суть дослідження

У журналі Science опублікували результати цікавого дослідження. Учені проаналізували ступінь упередженості звичайної моделі зі штучним інтелектом і поєднали отримані результати з відомим психологічним тестом, що визначає рівень упередженості людини. Дослідники повторили всі стадії психологічного тестування на машинному інтелекті, пише Ейлін Келіскан з Принстонського університету. Оскільки машинне навчання охоплює широкий спектр інформації, починаючи від перекладу і закінчуючи скануванням імен у резюме, упередженість проникає навіть у ШІ.

Очевидно, що упередження в ШІ виявляються з наявних матеріалів у вигляді книг і текстів в Інтернеті. Наприклад, у Google Photos деякі темношкірі користувачі позначені тегом “горила”. Також відомо, що мовні алгоритми навчаються асоціювати слово “чоловік” зі словом “викладач”, а слово “жінка” – зі словом “помічник викладача”.

Перебіг тестування

Команда Келіскан розробила тест, що нагадує, по суті, імпліцитний асоціативний тест (ІАТ), використовуваний психологами для виміру рівня упередженості. У тесті об’єкти представлені у вигляді парних зображень: наприклад, показують фотографії чорношкірого і білого чоловіків і даються два слова на вибір, наприклад, “приємний” і “неприємний”. ІАТ підраховує швидкість почергового зіставлення зображень зі словами.

У тесті для штучного інтелекту також вимірюється рівень упередженості, але замість виміру часу реакції він підраховує математичну відстань між двома словами. Інакше кажучи, якщо числова відстань між ім’ям темношкірого і словом “приємний” більше, ніж відстань між ім’ям білої людини і тим самим словом, асоціація в першому випадку слабкіша. Єдине обмеження – це те, що дотепер можливий підрахунок ступеня упередженості тільки для окремих слів. Команда дослідників сподівається продовжити роботу над тестом, щоб проводити дослідження асоціацій вже не окремих слів, але поєднань або фраз, у тому числі на різних мовах.

Чи є способи вплинути на ситуацію?

За словами Келіскан, розв’язання проблеми не обов’язково зводиться до зміни моделі навчання. ШІ просто фіксує реальний стан світу навкруги, який далекий від об’єктивності. Зміна алгоритмів роботи приведе до зниження ефективності машинного навчання. Приховування інформації також не дасть результату. Навіть якщо не повідомляти моделі стать людини, Ви все одно побічно передаватимете інформацію, пов’язану з гендерною приналежністю, що не залишиться непоміченим. Люди повинні використати інші методи. Наприклад, можна покращувати переклад у Google Translate, додаючи варіанти перекладу для обох статей. Чи залучати більше число людей до написання алгоритму машинного навчання. Однак у першу чергу треба пам’ятати, що упередження нікуди не подінеться, якщо з ним не боротися.

Джерело: The Verge

Київ, Харків, Одеса, Дніпро, Запоріжжя, Кривий Ріг, Вінниця, Херсон, Черкаси, Житомир, Хмельницький, Чернівці, Рівне, Івано-Франківськ, Кременчук, Тернопіль, Луцьк, Ужгород, Кам'янець-Подільський, Стрий - за статистикою саме з цих міст програмісти найбільше переїжджають працювати до Львова. А Ви розглядаєте relocate?


Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *