Ілон Маск, Стівен Хокінг й сотні інших експертів підписали список із 23 принципів розвитку ШІ


Дізнайтесь більше про нові кар'єрні можливості в EchoUA. Цікаві проекти, ринкова оплата, гарний колектив. Надсилайте резюме та приєднуйтеся до нас.

Штучний інтелект – це дивовижна технологія, яка змінює світ, але кожен, хто дивився фільм “Термінатор”, знає, що просунутий ШІ може бути небезпечним. Саме тому Ілон Маск, Стівен Хокінг й сотні інших дослідників та IT-експертів підписали список із 23 засадничих принципів, яких необхідно дотримуватися при розробці ШІ, щоб вона просувалася у безпечному, продуктивному і моральному напрямі.

Цей список був складений на конференції Beneficial AI 2017. Експерти у галузі робототехники, фізики, економіки, філософії обговорювали безпеку ШІ, економічний вплив технології на зайнятість людей і багато інших тем. Для внесення кожного пункту в список треба було отримати згоду 90 % учасників.

У результаті учасники склали і підписали список із 23 пунктів, які розкривають теми від досліджень даних до розвитку суперрозуму. Всього список підписали майже 1000 дослідників у галузі ШІ і робототехники та близько 1500 експертів в інших галузях, у тому числі CEO Tesla Ілона Маска і відомого фізика Стівена Хокінга.

Деякі принципи – наприклад, прозорість і загальний доступ усіх компаній до досліджень – будуть дотримані з меншою вірогідністю, але якщо ми дотримуватимемося хоча б частини з них, то розробка ШІ навряд чи приведе до повстання Skynet.

Нижче Ви можете ознайомитися зі списком (який, до речі, називається Asilomar AI Principles):

Науково-дослідні питання

1. Метою досліджень у галузі штучного інтелекту має бути створення не безконтрольного розуму, а вигідного для всього суспільства інструмента.

2. Інвестиції в ШІ повинні здійснюватися спільно з фінансуванням досліджень із забезпечення корисності використання технології, що дозволить давати точніші й узагальнені відповіді на запитання з інформатики, економіки, права, етики і суспільствознавства, зокрема:

  • Як забезпечити високу надійність систем ШІ, щоб вони виконували поставлені завдання без збоїв і загрози бути зламаними?
  • Яким чином за допомогою автоматизації ми можемо прийти до необхідної мети, підтримуючи людські ресурси і зацікавленість?
  • Як грамотно оновити правову систему, забезпечивши справедливість за сучасними канонами і врахувавши появу ШІ?
  • Який правовий та етичний статус отримає ШІ?

3. Забезпечення конструктивної і рівної взаємодії дослідників і політиків.

4. У товаристві дослідників повинні дотримуватися повна відкритість і прозорість.

5. Дослідники ШІ повинні всіляко співпрацювати між собою щоб уникнути порушення стандартів безпеки.

Моральні питання

6. Системи штучного інтелекту мають бути безпечними і надійними протягом усього експлуатаційного терміну.

7. Якщо система ШІ завдасть шкоди, то має бути можливість з’ясування причини.

8. Будь-яке втручання автономної системи в судові рішення має бути санкціонованим і підлягати звітності у разі перевірки фахівцями.

9. Відповідальність за заподіяну шкоду, навмисне створення небезпечної ситуації, зумовлене помилкою конструкції або програмного забезпечення покладається на плечі розробників та інженерів.

10. Усі автономні системи ШІ мають бути спроектовані так, щоб їх цілі й поведінка не суперечили загальнолюдським цінностям.

11. ШІ має бути спроектований і використаний так, щоб бути сумісним з ідеалами людських гідності, прав, свобод і культурної різноманітності.

12. Дані, що виникли в процесі використання ШІ людиною, мають бути доступні надалі для цієї людини.

13. При роботі з персональними даними ШІ не повинен необґрунтовано обмежувати реальні або уявні свободи людей.

14. Технології ШІ повинні приносити користь і бути доступними якомога більшій кількості людей.

15. Економічні цінності, створені ШІ, мають бути доступні всьому людству.

16. Людина завжди повинна мати вибір: прийняти рішення самостійно або доручити це ШІ.

17. Дії ШІ повинні спрямовуватись на користь людської діяльності, а не на шкоду.

18. Необхідно всіма силами уникати гонки автономних видів озброєнь.

Довгострокові питання

19. Ми повинні абсолютно тверезо оцінювати межу можливостей ШІ, щоб уникнути нераціональних витрат ресурсів.

20. Розвиток ШІ буде інтенсивним, тому технологія має бути під контролем, щоб не викликати безповоротних реакцій.

21. Ризики, особливо великомасштабні, мають бути сплановані так, щоб забезпечувати мінімізацію можливого збитку.

22. Системи ШІ, здатні до саморозвитку і самовідтворення, повинні знаходитися під особливо суворим контролем.

23. Суперрозум повинен буде служити всьому людству, а не конкретній приватній організації або окремій державі.

Переклад статті “Stephen Hawking and Elon Musk Endorse 23 Principles for AI”

Київ, Харків, Одеса, Дніпро, Запоріжжя, Кривий Ріг, Вінниця, Херсон, Черкаси, Житомир, Хмельницький, Чернівці, Рівне, Івано-Франківськ, Кременчук, Тернопіль, Луцьк, Ужгород, Кам'янець-Подільський, Стрий - за статистикою саме з цих міст програмісти найбільше переїжджають працювати до Львова. А Ви розглядаєте relocate?


Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *