Blog

Світові стандарти штучного інтелекту

З метою забезпечення безпеки застосування технологій та систем ШІ на міжнародному рівні вироблені певні стандарти у галузі штучного інтелекту, а саме стандарти НАТО, ЄС та інших загальноєвропейських інституцій щодо ШІ.

Зокрема, Стратегія НАТО щодо штучного інтелекту, яка прийнята в жовтні 2021 р. та яка визначає ШІ як можливість досягнення технологічної переваги, але водночас і як джерело загроз, ставить такі цілі з впровадження та розвитку ШІ:

·активне просування та прискорення впровадження ШІ;

·захист і моніторинг технологій ШІ та інноваційних можливостей з урахуванням міркувань політики безпеки, таких як практичне застосування принципів відповідального використання технологій ШІ;

·виявлення та захист від загроз зловмисного використання ШІ.

Стратегією НАТО щодо штучного інтелекту також сформульовано такі принципи відповідального використання ШІ:

·законність;

·відповідальність і підзвітність;

·пояснюваність і відстежуваність;

·надійність;

·керованість;

·зниження упередженості.

У свою чергу, Рекомендації Ради Європи щодо штучного інтелекту (Recommendation of the Council on Artificial Intelligence) від 22 травня 2019 р. (OECD Legal Instruments) встановлюють такі принципи діяльності з розвитку ШІ:

·інклюзивне зростання, стійкий розвиток та загальний добробут. Будь-яка діяльність з розвитку ШІ має сприяти подоланню економічної, соціальної та інших видів нерівності, сталому розвитку та підвищенню добробуту і якості життя населення, захисту навколишнього середовища;

·людиноцентричні цінності та верховенство права. Процес розвитку ШІ мусить забезпечувати верховенство права, демократичні цінності та права людини, у тому числі право на працю, захист особистої інформації (персональних даних), чесність, суспільну справедливість, а також надавати громадянам можливість отримувати знання та набувати навички для успішної адаптації до впровадження технологій ШІ;

· прозорість і зрозумілість. Розробники ШІ мають бути відкритими та готовими пояснити зміст власних розробок щодо ШІ, сприяти подоланню соціального протистояння стосовно нових технологій ШІ;

·безпека та надійність. Системи ШІ мають бути безпечними та надійними протягом усього життєвого циклу. Особи та організації, що займаються розвитком ШІ, мають забезпечити надійний ризик-менеджмент і контроль кожного етапу життєвого циклу технологій ШІ, аналіз їх стабільності та безпечності. Усі ризики виникнення негативних наслідків використання технологій ШІ повинні бути мінімізовані. Крім того, системи на базі ШІ не повинні мати можливостей умисного заподіяння шкоди громадянам і юридичним особам;

·звітність. Всі сторони, що беруть участь у розвитку технологій ШІ, повинні бути підзвітними суспільству стосовно виконання зазначених принципів діяльності з розвитку ШІ;

·цілісність інноваційного циклу у процесі наукових досліджень та економічної діяльності. Всі сторони, що беруть участь у розвитку технологій ШІ, повинні забезпечувати тісну взаємодію наукових досліджень і розробок у галузі ШІ з реальним сектором економіки;

·технологічна незалежність. Держава повинна забезпечити необхідний рівень незалежності країни у галузі штучного інтелекту, зокрема за допомогою переважного використання національних технологій і технологічних рішень, розроблених на основі ШІ.

Крім того, на Генеральній конференції ЮНЕСКО 21 листопада 2021 р., в якій брали участь 193 країни, включаючи Україну, були ухвалені глобальні етичні стандарти щодо штучного інтелекту, які виділяють чотири основні напрями регулювання у галузі ШІ:

1) захист даних;

2) соціальна оцінка та масове спостереження;

3) контроль;

4) захист навколишнього середовища.

Поряд з цим, Стратегія штучного інтелекту Міністерства оборони США, прийнята в червні 2022 р., виокремлює такі етичні принципи застосування ШІ:

·відповідальність (англ. responsibility);

·справедливість (англ. equitability);

·зрозумілість (англ. tractability);

·надійність (англ. reliability);

·керованість (англ. governability).

У процесі аналізу міжнародних стандартів штучного інтелекту важливо згадати й Резолюцію 2015/2103 (INL) щодо цивільно-правового регулювання робототехніки з рекомендаціями для Європейської комісії (англ. «European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics» (2015/2103(INL)), ухвалену Європейським Парламентом 16 лютого 2017 р. Ця Резолюція заклала підвалини до розуміння робототехніки та штучного інтелекту і стала, незважаючи на її рекомендаційний характер, основою для запровадження наступних міжнародних стандартів у сфері впровадження та розвитку ШІ. Зазначена Резолюція передбачила запровадження цивільно-правової відповідальності за шкоду, завдану робототехнікою і штучним інтелектом, на агентів, тобто фізичних осіб, які використовують такі технології.

Відповідно до Резолюції 2015/2103(INL) від 16 лютого 2017 р. відповідальність за завдану шкоду не може бути покладена на роботів (у тому числі, на штучний інтелект, який використовує робототехніка), а покладається виключно на людину, яка може бути виробником, оператором, власником або користувачем. Для встановлення юридичної відповідальності необхідне доведення провини людини, яка могла передбачити і попередити завдання такої шкоди роботом. У зв’язку з цим, пропонується запровадження обов’язкової системи страхування від настання негативних наслідків і завдання шкоди у сфері впровадження робототехніки та штучного інтелекту. Отже, визнання особистості за робототехнікою разом зі штучним інтелектом на міжнародному рівні заперечується, що, скоріше за все, стане міжнародним стандартом на тривалий час.

У жовтні 2023 р. G7 («Група семи») (Канада, Франція, Німеччина, Італія, Японія, Великобританія та США) опублікувала Кодекс поведінки для розробників генеративного штучного інтелекту. Кодекс є добровільним, однак блок працює над обов'язковими правилами з приводу його дотримання. Компанії, які підпишуть кодекс, обіцяють зменшити ризики, пов’язані з ШІ. Вони також мають запровадити структури управління штучним інтелектом, зокрема щодо конфіденційності, та інвестувати у засоби для контролю безпеки.

Ідея кодексу належить заступнику голови Європейської комісії з питань цифрових технологій Маргрете Вестагер. Вестагер віддала перевагу добровільному кодексу над законодавством, стверджуючи, що ефективніше мати широку міжнародну угоду щодо основних норм ШІ. Водночас ЄС також працює над обов’язковими правилами у галузі ШІ й розглядає зазначений кодекс як перехідний етап до введення широкого регулювання у цій сфері.

Раніше Європа пропонувала «Пакт про штучний інтелект», щоб знизити ризики, пов'язані з бурхливим розвитком технології ШІ. У межах цього добровільного пакту великі технологічні компанії, які працюють у галузі ШІ, повинні були погодитися з необов'язковими принципами прозорості та підзвітності.

Крім того, лідери G7 на саміті у Хіросімі у травні 2023 р. закликали до розробки та прийняття міжнародних технічних стандартів для надійного використання ШІ. На цій зустрічі країн G7 у Хіросімі лідери зобов'язалися просувати «міжнародні дискусії про інклюзивне управління штучним інтелектом та оперативну сумісність для досягнення загального бачення та мети надійного ШІ». Глави урядів навіть домовились створити найближчим часом міністерський форум під назвою «Хіросімський процес штучного інтелекту» для обговорення питань, пов’язаних із генеративними інструментами ШІ, такими як права інтелектуальної власності та дезінформація. З цього приводу президентка Європейської комісії Урсула фон дер Ляйєн заявила: «Ми хочемо, щоб системи штучного інтелекту були точними, надійними, безпечними та недискримінаційними, незалежно від їх походження».

Слід зазначити, що цей саміт у Хіросімі у травні 2023 р. відбувся після зустрічі міністрів цифрових технологій «Великої сімки», на якій США, Японія, Німеччина, Великобританія, Франція, Італія та Канада заявили, що їм слід схвалити регулювання штучного інтелекту на основі ризиків.

Узагальнені вище загальновизнані світові стандарти штучного інтелекту сприятимуть ефективному використанню переваг машинних алгоритмів та технологій ШІ і водночас у разі їх втілення на практиці допомагають знизити ризики, пов’язані з прозорістю та конфіденційністю даних при впровадженні ШІ.

Для додаткової інформації та більш детального огляду актуальних векторів та проблем розвитку штучного інтелекту як інструментарію безпеки та інтелектуальної зброї майбутнього, рекомендуємо ознайомитися з книгою компанії Сідкон "Штучний інтелект і безпека". У цій книзі ви знайдете огляд професійних думок та досліджень з проблемніх питань, пов'язаних з використанням штучного інтелекту в сферах безпеки та військової стратегії. Автор книги розкриває можливості, сучасні тенденції та перспективи інтегрування штучного інтелекту в різні аспекти господарської діяльності та повсякденної життєдіяльності суспільства та людини.
Штучний інтелект