Незважаючи на інтенсивний розвиток у світі технологій ШІ, останні, крім численних переваг, призводять і до негативних наслідків. Зокрема, впровадження технологій ШІ створює загрози безпеці особистої інформації громадян, адже через глибоке впровадження ШІ в різні сфери життєдіяльності суспільства та держави виникають ризики витоку інформації з персональними даними. Як наслідок, найменший витік даних у галузі ШІ підриває довіру як до цих інновацій, так й до цифрової економіки, в цілому. З цього приводу слід звернути увагу, що предметом судового розгляду в Європейському суді з прав людини навіть було питання аналізу впливу Інтернету на приватне життя людини (справа Big Brother Watch And Others V. The United Kingdom19 (2018)).
Крім того, ШІ може представляти не тільки серйозний ризик для прав користувачів на конфіденційність і захист особистих даних, також може підвищити рівень дискримінації, коли алгоритми або системи ШІ навчаються з використанням умисно зіпсованих наборів даних. Серед інших поширених побоювань у галузі ШІ – це поширення дезінформації та створення автономної зброї на основі ШІ. Ці суспільно впливові ризики застосування технологій ШІ більш детально розглянуті нижче.
До ризиків впровадження ШІ у різні сфери життєдіяльності також слід віднести: складність перевірки відповідності роботи систем штучного інтелекту законодавству та існуючим етичним принципам; відсутність єдиних підходів, що застосовуються при визначенні критеріїв етичності під час розроблення та використання технологій штучного інтелекту для різних галузей, видів діяльності та сфер національної економіки; наявність ризиків знищення робочих місць на ринку праці та зростання рівня безробіття у зв’язку з використанням технологій штучного інтелекту. Так, згідно з даними Всесвітнього економічного форуму в Женеві (WEF) протягом наступних п'яти років технології штучного іінтелекту можуть скоротити 26 мільйонів робочих місць у всьому світі. Це пов’язане з тим, що близько 75% компаній, опитаних WEF, заявили, що протягом п'яти років планують впровадити технології штучного інтелекту у свою діяльність. Наприклад, у 2023 р. індійська компанія Dukaan вже замінила 90% свого персоналу у сфері підтримки клієнтів чат-ботом зі штучним інтелектом. Він зміг миттєво відповідати на початкові запити клієнтів, тоді як перші відповіді співробітників компанії Dukaan надсилались у середньому через 1 хвилину 44 секунди.
Аналітики фінансового конгломерату Goldman Sachs зазначають, що дві третини робочих місць у США та ЄС зазнають певної автоматизації завдяки ШІ, однак для більшості це не означатиме скорочення, просто звичне для них навантаження зменшиться вдвічі. У США кількість працівників, сфера діяльності яких може підпасти під автоматизацію до 2030 р., становить 63%, ще 30% осіб, які працюють фізично чи на відкритому повітрі, не постраждають від штучного інтелекту, але їх робота може бути чутливою до інших форм автоматизації. У 2017 р. консалтингова компанія McKinsey оцінювала потенціал автоматизації робочої діяльності працівника у розмірі 50%, однак через появу штучного інтелекту, який може сприймати людську мову в контексті, а не окремими фразами, McKinsey збільшила частку можливого часу для автоматизації до 60-70%.
Очікується, що через розвиток технологій ШІ скорочення торкнеться фахівців, які працюють на адміністративних та облікових посадах, включаючи касирів, продавців, операторів введення даних та бухгалтерів. Це може спричинити значні економічні та соціальні турбулентності, збільшуючи нерівність і розшарованість між багатими і бідними. Безробіття може призвести до соціальної нестабільності, пов'язаної з витісненням багатьох спеціальностей на публічній службі і в корпоративному секторі віртуальними помічниками. Як наслідок, світові ринки праці знаходяться на початку нової епохи турбулентності, оскільки такі цифрові технології, як штучний інтелект, прискорюють скорочення канцелярської роботи, одночасно збільшуючи попит на фахівців з IT-технологій та кібербезпеки.
Виникнення масового безробіття через розвиток технологій ШІ через заміну людини в низці технологічних процесів призведе й до зруйнування інституту суспільності: люди можуть втратити почуття власної унікальності, може навіть втратитися контроль з боку людини за діяльністю штучного інтелекту тощо. Таким чином, головними ризиками впровадження технологій ШІ у світі є: втрата робочих місць, безробіття, соціальна напруженість, виникнення шару дармоїдів.
Дослідниками робиться припущення, що до 2045 р. відбудеться витіснення людини з багатьох сфер її життєдіяльності, тому запровадження та використання комп’ютерних програм, інформаційних технологій та інших форм штучного інтелекту по-різному сприймається в суспільстві. Однак, попри значні успіхи та низку недоліків ШІ, ця технологія досі розглядається як допоміжний інструмент, без якого суспільство вже не зможе обійтися.
Загалом аналіз практики використання штучного інтелекту свідчить про неоднозначність його застосування: крім незаперечних переваг (швидкість відповідних бізнес-процесів, зручність, доступність, економічність), ШІ притаманні і такі цифрові ризики, які пов’язані з недобросовісним та/або неконтрольованим використанням технологій ШІ, що може спричинити матеріальні втрати та/або загрожувати безпеці людей, а в найгіршому випадку – диктатурі з боку осіб, що контролюють штучний інтелект, або вибуття останнього з-під контролю людей. При цьому через застосування «наскрізних технологій» (роботизація, технологія блокчейна, нейромережі, штучний інтелект, квантова віртуальна і доповнена реальність), якими оптимізується виробництво, відбувається роботизація, може здійснюватися протиправний віддалений контроль.
Отже, попри всі позитивні можливості й потенціал, технологіями штучного інтелекту можуть скористатися правопорушники, винаходячи нові способи злочинної діяльності з використанням цих технологій та продукуючи в такий спосіб зростання рівня злочинності. Цю технологію можуть використовувати злочинці та терористи для створення зброї масового знищення, а саме автономної зброї на основі ШІ. Завдяки технологіям ШІ терористи можуть побудувати системи, які самостійно виявляють і знищують цілі. До того ж криміногенні чинники штучного інтелекту спричиняють нові загрози й нові виклики охоронюваним законом інтересам як окремих громадян, так і держави й суспільства загалом, потребуючи адекватних засобів протидії.
Негативні сторони використання штучного інтелекту та інших досягнень цифровізації вже давно даються взнаки, хоча повідомляється про це значно рідше, ніж про їх революційні переваги. Хоча ризики штучного інтелекту відомі, у численних працях досі акцентується увага в основному на перевагах ШІ, що змінює світ. Проте штучний інтелект може підвищити ефективність як тих, хто обороняється, так й тих, хто нападає. Зараз виникло чимало кіберзагроз, пов’язаних із розвитком штучного інтелекту. Слід чітко відповідати на ці виклики і готуватися не лише протистояти їм, а й унеможливлювати їх виникнення.
Так, у процесі подальшого розвитку «проривних» технологій штучного інтелекту напади на людей (поки що поодинокі випадки на тлі незначного використання роботів) можуть мати катастрофічні наслідки у разі масового їх застосування, можуть отримати значне поширення на основі технологій ШІ факти заволодіння фінансовою інформацією громадян та комерційних структур з метою отримання доступу до їх грошових активів, у тому числі криптовалютних, численні кібератаки на сайти державних установ, бізнес-організацій тощо, що завдають значної шкоди, паралізуючи на певний час їх діяльність. Слід визнати, що у майбутньому кіберзлочинці ще більше будуть використовувати штучний інтелект для масштабування своїх атак. У світі вже реалізуються нові спроби злочинців атакувати об’єкти з відкритим кодом, але вже із застосуванням технологій ШІ. Європол також застерігає, що швидкий розвиток генеративного ШІ може сприяти шахрайству у мережі і діяльності кіберзлочинців, а «великі мовні моделі можуть стати основою для кримінальної бізнес-моделі майбутнього».
Більш детально про актуальним векторам та проблемам розвитку штучного інтелекту як інструментарію безпеки та інтелектуальної зброї майбутнього - у книзі компанії Сідкон “Штучний інтелект і безпека”.
Крім того, ШІ може представляти не тільки серйозний ризик для прав користувачів на конфіденційність і захист особистих даних, також може підвищити рівень дискримінації, коли алгоритми або системи ШІ навчаються з використанням умисно зіпсованих наборів даних. Серед інших поширених побоювань у галузі ШІ – це поширення дезінформації та створення автономної зброї на основі ШІ. Ці суспільно впливові ризики застосування технологій ШІ більш детально розглянуті нижче.
До ризиків впровадження ШІ у різні сфери життєдіяльності також слід віднести: складність перевірки відповідності роботи систем штучного інтелекту законодавству та існуючим етичним принципам; відсутність єдиних підходів, що застосовуються при визначенні критеріїв етичності під час розроблення та використання технологій штучного інтелекту для різних галузей, видів діяльності та сфер національної економіки; наявність ризиків знищення робочих місць на ринку праці та зростання рівня безробіття у зв’язку з використанням технологій штучного інтелекту. Так, згідно з даними Всесвітнього економічного форуму в Женеві (WEF) протягом наступних п'яти років технології штучного іінтелекту можуть скоротити 26 мільйонів робочих місць у всьому світі. Це пов’язане з тим, що близько 75% компаній, опитаних WEF, заявили, що протягом п'яти років планують впровадити технології штучного інтелекту у свою діяльність. Наприклад, у 2023 р. індійська компанія Dukaan вже замінила 90% свого персоналу у сфері підтримки клієнтів чат-ботом зі штучним інтелектом. Він зміг миттєво відповідати на початкові запити клієнтів, тоді як перші відповіді співробітників компанії Dukaan надсилались у середньому через 1 хвилину 44 секунди.
Аналітики фінансового конгломерату Goldman Sachs зазначають, що дві третини робочих місць у США та ЄС зазнають певної автоматизації завдяки ШІ, однак для більшості це не означатиме скорочення, просто звичне для них навантаження зменшиться вдвічі. У США кількість працівників, сфера діяльності яких може підпасти під автоматизацію до 2030 р., становить 63%, ще 30% осіб, які працюють фізично чи на відкритому повітрі, не постраждають від штучного інтелекту, але їх робота може бути чутливою до інших форм автоматизації. У 2017 р. консалтингова компанія McKinsey оцінювала потенціал автоматизації робочої діяльності працівника у розмірі 50%, однак через появу штучного інтелекту, який може сприймати людську мову в контексті, а не окремими фразами, McKinsey збільшила частку можливого часу для автоматизації до 60-70%.
Очікується, що через розвиток технологій ШІ скорочення торкнеться фахівців, які працюють на адміністративних та облікових посадах, включаючи касирів, продавців, операторів введення даних та бухгалтерів. Це може спричинити значні економічні та соціальні турбулентності, збільшуючи нерівність і розшарованість між багатими і бідними. Безробіття може призвести до соціальної нестабільності, пов'язаної з витісненням багатьох спеціальностей на публічній службі і в корпоративному секторі віртуальними помічниками. Як наслідок, світові ринки праці знаходяться на початку нової епохи турбулентності, оскільки такі цифрові технології, як штучний інтелект, прискорюють скорочення канцелярської роботи, одночасно збільшуючи попит на фахівців з IT-технологій та кібербезпеки.
Виникнення масового безробіття через розвиток технологій ШІ через заміну людини в низці технологічних процесів призведе й до зруйнування інституту суспільності: люди можуть втратити почуття власної унікальності, може навіть втратитися контроль з боку людини за діяльністю штучного інтелекту тощо. Таким чином, головними ризиками впровадження технологій ШІ у світі є: втрата робочих місць, безробіття, соціальна напруженість, виникнення шару дармоїдів.
Дослідниками робиться припущення, що до 2045 р. відбудеться витіснення людини з багатьох сфер її життєдіяльності, тому запровадження та використання комп’ютерних програм, інформаційних технологій та інших форм штучного інтелекту по-різному сприймається в суспільстві. Однак, попри значні успіхи та низку недоліків ШІ, ця технологія досі розглядається як допоміжний інструмент, без якого суспільство вже не зможе обійтися.
Загалом аналіз практики використання штучного інтелекту свідчить про неоднозначність його застосування: крім незаперечних переваг (швидкість відповідних бізнес-процесів, зручність, доступність, економічність), ШІ притаманні і такі цифрові ризики, які пов’язані з недобросовісним та/або неконтрольованим використанням технологій ШІ, що може спричинити матеріальні втрати та/або загрожувати безпеці людей, а в найгіршому випадку – диктатурі з боку осіб, що контролюють штучний інтелект, або вибуття останнього з-під контролю людей. При цьому через застосування «наскрізних технологій» (роботизація, технологія блокчейна, нейромережі, штучний інтелект, квантова віртуальна і доповнена реальність), якими оптимізується виробництво, відбувається роботизація, може здійснюватися протиправний віддалений контроль.
Отже, попри всі позитивні можливості й потенціал, технологіями штучного інтелекту можуть скористатися правопорушники, винаходячи нові способи злочинної діяльності з використанням цих технологій та продукуючи в такий спосіб зростання рівня злочинності. Цю технологію можуть використовувати злочинці та терористи для створення зброї масового знищення, а саме автономної зброї на основі ШІ. Завдяки технологіям ШІ терористи можуть побудувати системи, які самостійно виявляють і знищують цілі. До того ж криміногенні чинники штучного інтелекту спричиняють нові загрози й нові виклики охоронюваним законом інтересам як окремих громадян, так і держави й суспільства загалом, потребуючи адекватних засобів протидії.
Негативні сторони використання штучного інтелекту та інших досягнень цифровізації вже давно даються взнаки, хоча повідомляється про це значно рідше, ніж про їх революційні переваги. Хоча ризики штучного інтелекту відомі, у численних працях досі акцентується увага в основному на перевагах ШІ, що змінює світ. Проте штучний інтелект може підвищити ефективність як тих, хто обороняється, так й тих, хто нападає. Зараз виникло чимало кіберзагроз, пов’язаних із розвитком штучного інтелекту. Слід чітко відповідати на ці виклики і готуватися не лише протистояти їм, а й унеможливлювати їх виникнення.
Так, у процесі подальшого розвитку «проривних» технологій штучного інтелекту напади на людей (поки що поодинокі випадки на тлі незначного використання роботів) можуть мати катастрофічні наслідки у разі масового їх застосування, можуть отримати значне поширення на основі технологій ШІ факти заволодіння фінансовою інформацією громадян та комерційних структур з метою отримання доступу до їх грошових активів, у тому числі криптовалютних, численні кібератаки на сайти державних установ, бізнес-організацій тощо, що завдають значної шкоди, паралізуючи на певний час їх діяльність. Слід визнати, що у майбутньому кіберзлочинці ще більше будуть використовувати штучний інтелект для масштабування своїх атак. У світі вже реалізуються нові спроби злочинців атакувати об’єкти з відкритим кодом, але вже із застосуванням технологій ШІ. Європол також застерігає, що швидкий розвиток генеративного ШІ може сприяти шахрайству у мережі і діяльності кіберзлочинців, а «великі мовні моделі можуть стати основою для кримінальної бізнес-моделі майбутнього».
Більш детально про актуальним векторам та проблемам розвитку штучного інтелекту як інструментарію безпеки та інтелектуальної зброї майбутнього - у книзі компанії Сідкон “Штучний інтелект і безпека”.