Потенційна небезпека штучного інтелекту як інтелектуальної зброї майбутнього

Штучний інтелект і можливі наслідки його виходу з-під контролю людини є однією з найактуальніших тем сьогодення. У зв'язку із заявою відомого британського фізика-теоретика, космолога Стівена Хокінга про небезпеку створення штучного інтелекту для людства, останнім часом значним чином активізувались дискусії щодо цієї проблематики. Зокрема, С. Хокінг неодноразово зазначав, що побоюється систем, розвиток яких не визначений жорсткими межами. С. Хокінг підкреслює, що якщо біологічна еволюція людського виду йде дуже повільно, то машини прогресують досить швидко, при цьому з часом вони самі зможуть удосконалювати себе. С. Хокінг прогнозує перемогу штучного інтелекту над людством в найближчі сто років. На думку вченого, з одного боку, потенціал штучного інтелекту в теорії допоможе впоратися з хворобами, зубожінням і військовими конфліктами. З іншого боку, штучний розум може стати останньою розробкою в історії людства, якщо не будуть ретельно прораховані всі його потенційні ризики і небезпеки.

До того ж співзасновник ракетобудівної компанії SpaceX і компанії з виробництва електромобілів Tesla Е. Маск поряд зі Стівеном Хокінгом і актором Морганом Фріменом також заявив, що, на його думку, неконтрольований штучний інтелект «потенційно більш небезпечний, ніж ядерна зброя».

Наведемо деякі з висловлювань Е. Маска, які яскраво виражають його думки щодо небезпеки подальшого розвитку штучного інтелекту та які свідчать про те, що електронний розум може стати непідвласним людині: «З штучним інтелектом ми викликаємо демона. Я думаю, нам варто бути украй обережними з штучним інтелектом. Можливо, це одна з найсерйозніших загроз для існування людства. Не буде зайвим введення певних регулюючих норм на національному і міжнародному рівнях, які не дозволять наробити дурощів». Раніше Е. Маск теж заявляв, що люди просто не розуміють, наскільки швидко прогресує штучний інтелект і яку загрозу він може зберігати в собі. Як слушно вважає Е. Маск, всі розробники повинні об'єднатися і визнати, що безпека штучного інтелекту – це пріоритет в його розробці. Про загрозу розвитку штучного інтелекту наголошував й засновник Microsoft Білл Гейтс. У цьому питанні він дотримується погляду Е. Маска, який пропонує обмежувати машини, не надаючи їм свободи розвитку.

Однак, вивчення інтерв'ю та виступів на конференціях відомих розробників штучного інтелекту свідчить, що в них немає чіткої відповіді на питання, як уникнути потенційних конфліктів між штучним інтелектом і людьми.

Науковці, підприємці та інвестори, які беруть участь у дослідженнях штучного інтелекту, поки що лише попереджають про його небезпеку, аргументуючи це тим, що інтелектуальні здібності машин можуть перевершити інтелектуальні здібності людей, що їх створили. Йдеться про побоювання щодо ефекту, який може чинити ШІ на робочу зайнятість і навіть виживання людства в довгостроковому періоді.

Ще у 2012 р. професор філософії Хью Прайс опублікував статтю «Штучний інтелект: чи зможемо ми утримати його в коробці?», в якій закликав серйозно розглянути можливі загрози ШІ. Вчений вважає, що першим правильним кроком у цьому напрямку має бути припинення ставлення до штучного інтелекту як до предмету наукової фантастики. Він наголошує на важливості уявлення про нього як про частину реальності, з якою ми або наші нащадки можуть рано чи пізно стикнутися. Філософ вважає, що як тільки ми поставимо таку проблему, то буде необхідно ініціювати серйозні дослідження щодо того, як зробити розробку інтелектуальних машин найбільш безпечною з точки зору майбутнього людства. Основною причиною небезпеки ШІ є принципова відмінність штучного інтелекту від людського. Усі цінності – такі, як «любов, щастя і навіть виживання», важливі для нас, тому що у нас є певна еволюційна історія – немає жодної причини вважати, що машини розділятимуть ці цінності з нами. За словами Х. Прайса, машини, можливо, будуть просто байдужі до нас, що спричинить катастрофічні наслідки.

Поряд з цим, оскільки ми все більше перетворюємося на цифровий світ, ризик кібератак на основі ШІ також різко зростає. ШІ та машинне навчання використовуються не лише фахівцями з ІТ-безпеки, але й спонсорованими державою акторами, злочинними кіберорганізаціями та окремими зловмисниками. Штучний інтелект в руках злочинців підвищує ризик і ефективність вчинення кібератак. Кіберзлочинці використовують ШІ, аби здійснювати складніші та цілеспрямовані кібератаки. Наприклад, вони генерують фішингові листи за допомогою мовних моделей чи навіть імітують чужий голос і відеозображення. Все це означає, що компаніям і урядам доводиться постійно вдосконалювати свою практику, щоб не відставати від технологій цифрового світу, що змінюються, з метою забезпечення кібербезпеки держав, суспільства, бізнесу, людини.

Зокрема, кіберзлочинці активно використовують штучний інтелект як інтелектуальну зброю. Так, зловмисники застосовують засоби автоматизації кібератак, у тому числі використовуючи технології штучного інтелекту для їх вдосконалення та трансформації, а також для обходу відомих засобів кіберзахисту [60]. Наприклад, на думку експертів, злочинне угруповання, що стоїть за створенням відомого трояна Emotet з основним каналом для його розповсюдження – спам-фішингом, могло б без особливих труднощів використовувати штучний інтелект для посилення кібератаки. Іншою можливою сферою шкідливого застосування штучного інтелекту є ефективніший підбір паролів або обхід двохфакторної аутентифікації.

Тобто слід визнати, що кіберзлочинці на основі застосування ШІ значним чином трансформували свої методи та техніки проведення кібератак. Більшість сучасних DDoS-атак побудовані за принципом «розумних» ботнетів, які, не маючи централізованого управління, здатні самоорганізуватися та вирішувати складні розрахункові завдання. Істотно вдосконалились й методи соціальної інженерії: зловмисники навчились автоматизовувати розсилки різними каналами, де інформація виглядає дуже правдиво для користувачів. У зв'язку з цим, більшість компаній зіткнулись з тим, що традиційні технології забезпечення інформаційної безпеки стають малоефективними або зовсім неефективними та збитковими.

Використовуючи велику кількість різних джерел даних в Даркнеті з метою формування бази знань штучного інтелекту, зловмисники можуть реалізовувати досить результативні кібератаки, тому виробники систем кіберзахисту починають активно впроваджувати технології штучного інтелекту та машинного навчання з метою виявлення, прогнозування кіберзагроз, реагування на них у режимі реального часу. У цілому, за даними Webroot, біля 85% професіоналів з інформаційної безпеки наголошують, що зловмисники використовують технології штучного інтелекту зі злочинною метою.

Зокрема, можна виділити такі поширені способи використання кіберзлочинцями штучного інтелекту для посилення кібератак проти критичної інфраструктури держави, бізнесу, суспільства, громадян:

· Атаки соціальної інженерії. Кіберзлочинці використовують штучний інтелект у своїх атаках соціальної інженерії, оскільки він може виявляти моделі поведінки. Потім цю інформацію можна використовувати для маніпулювання поведінкою, отримання доступу до конфіденційних даних і компрометації мереж.

· Зміна програмного забезпечення. Штучний інтелект можна використовувати для розробки мутаційного шкідливого програмного забезпечення, яке уникає виявлення шляхом зміни своєї структури.

· Маніпулювання даними. Маніпуляції з даними можуть мати руйнівний вплив на організації, якщо вони не зможуть це виявити. Після того, як дані будуть зманіпульовані, надзвичайно важко відновити достовірні дані, які живлять правомірні системи ШІ.

· Виявлення вразливостей. ШІ можна використовувати для постійного моніторингу мереж для виявлення нових вразливостей. Згодом хакери можуть скористатися цими вразливими місцями.

Генеративний ШІ вже використовують хакери. Наприклад, нещодавно з'явився автоматизований алгоритм WormGPT, який допомагає шахраям генерувати переконливі спам-листи, що обходять систему спам-фільтрів. Для цього система використовує датасет (набори даних) бізнес-листів зі зламаних корпоративних поштових скриньок. Як наслідок, останніми роками збільшилась кількість кіберінцидентів з фішингом, вірусами-вимагачами тощо. Водночас кіберзлочинців не побільшало – просто тепер один зловмисник може розширити охоплення своєї злочинної діяльності завдяки технологіям штучного інтелекту, наприклад, надсилати не 100 тис спамерських листів щомісяця, а 3 млрд.

Генеративний штучний інтелект також дозволяє підробляти голос іншої людини. Уже було кілька випадків, коли шахрай імітував голос одного з керівників компанії й телефоном наказував перевести на свій рахунок кілька мільйонів доларів. Більш розповсюджені злочинні схеми такого типу: скамер дзвонить родичам жертви та розповідає історію на кшталт «ваш онук у поліції – заплатіть гроші, щоб його відпустили». У США щорічні втрати від таких атак сягають 20-27 млн доларів.

Однак наразі згенеровані завдяки технологіям штучного інтелекту голоси не є ідеальними. Вони роботизовані та не передають нюанси. Такий вид атаки більше експлуатує людську вразливість та неуважність. Так само хакери ще до кінця не навчились робити достовірні відеовідбитки обличчя. Але прогрес у галузі ШІ не стоїть на місці.

Можливість використання ШІ в якості зброї – ще одна небезпека, якою не можна нехтувати, особливо з врахуванням імовірності у перспективі розв'язання кібервійни між державами на основі застосування ШІ як автономної зброї. Розробка зброї на основі ШІ може привести до ескалації міждержавних конфліктів та становити серйозну загрозу глобальній безпеці. Наприклад, літом 2023 р. сенатори США висловили занепокоєння щодо можливого використання штучного інтелекту для створення біологічної зброї.

Літом 2023 р. генеральний секретар ООН Антоніу Гутерреш також заявив, що штучний інтелект може становити загрозу глобальному миру та безпеці, тому він закликав всі країни-члени терміново встановити обмеження, щоб контролювати цю технологію. При цьому Гутерреш попросив країни-члени Ради безпеки укласти юридично зобов'язуючий пакт про заборону летальних автономних систем зброї до кінця 2026 р. і попередив, що використання штучного інтелекту терористами або урядами з недобрими намірами може спричинити жахливий рівень смерті та руйнувань. Крім того, за думкою генерального секретаря ООН, неправильна робота нейромережі може спричинити хаос, особливо якщо ця технологія використовується у зв'язку із системами ядерної зброї чи біотехнологіями. Британський Міністр закордонних справ Джеймс Клеверлі, країна якого зараз головує в Раді безпеки, погодився з Гутеррешем, наголосивши, що штучний інтелект «може посилити або порушити глобальну стратегічну стабільність».

Вище вже було наголошено на тому, що у березні 2023 р. всесвітньо відомі особи підписали листа, де закликають розробників ШІ разом із законотворцями негайно зайнятися розробкою систем контролю за розвитком технологій ШІ. Зокрема, понад 1000 технологічних експертів закликали «всі лабораторії штучного інтелекту негайно призупинити принаймні на 6 місяців навчання систем штучного інтелекту, потужніших за GPT-4», останню версію чат-боту ChatGPT американської компанії OpenAI. Ця шестимісячна пауза у процесах подальшої розробки ШІ необхідна для того, щоб повністю врегулювати ці процеси створення ШІ, розробити та запровадити заходи безпеки у цій галузі, адже СШІ з людським і конкурентоспроможним інтелектом можуть становити серйозні ризики для життєдіяльності суспільства та людства, у цілому. У свою чергу, генеральний директор OpenAI, яка створила ChatGPT, Сем Альтман також підтримав ідею державного регулювання ШІ під час слухань у Конгресі США.

У зв'язку з цим, багатьом великим гравцям на ринку, що працюють зі штучним інтелектом, включно з компаніями-розробниками ШІ OpenAI, Microsoft, Amazon, Alphabet (Google) і Meta, довелось взяти перед Білим домом зобов'язання щодо відповідального розвитку штучного інтелекту. Окрім інвестування в дослідження кібербезпеки, одне із зобов'язань цих гравців включає розробку попереджень, які б інформували користувачів, коли контент створено за допомогою ШІ. Ці компанії-розробники штучного інтелекту добровільно зобов'язалися перед Білим домом позначати (маркувати) свій контент (текст, зображення, аудіо та відео, створені ШІ) водяними знаками. Це пов'язано з тим, що попри те, що розвиток штучного інтелекту ще в зародковому стані, його вже активно використовують для створення дезінформації. Існують також занепокоєння, пов'язані з тим, що поширюються випадки використання цих технологій зі злочинною метою. Дані компанії також пообіцяли ретельно тестувати системи ШІ перед випуском, інвестувати в кібербезпеку та ділитися інформацією про те, як зменшити ризики у сфері штучного інтелекту. Цей крок покликаний зробити технологію ШІ безпечнішою.

Враховуючи ці проблеми, дослідник державної політики в Інституті майбутнього життя Карлос Ігнасіо Гутьєррес зазначив, що однією з великих проблем, які ставить штучний інтелект, є те, що на сьогодні «немає колегіального органу експертів, які б вирішували, як його регулювати, як це відбувається, наприклад, з Міжурядовою групою експертів зі зміни клімату».

Проте є розробники ШІ, які виступають активними провідниками ідеї принципово іншого підходу до створення штучного інтелекту. Вони вважають, що слід спочатку навчити відчувати машину, і тільки після цього – логічно мислити. Тільки так машина, не будучи людиною, може знайти якісь людські риси. А досягти цього можна лише надавши машині можливість спілкуватися з людьми, щоб вона могла дізнатися їх краще.

У НАТО також вивчають шляхи етичного використання штучного інтелекту, але в Альянсі не впевнені, що супротивник так само стане етичним користувачем ШІ. Тому в Альянсі вважають доцільним здійснення протидії загрозам, пов'язаним з штучним інтелектом. При цьому в НАТО наголошують, що ШІ-атаки можуть здійснюватися не лише проти критичної інфраструктури, а й для аналізу важливих на державному рівні даних.

Зростаюча складність військових мереж і цифрові «прориви» світових держав роблять штучний інтелект і пов'язані з ним комп'ютерні програми необхідними умовами розробки ефективних заходів із захисту національної безпеки та забезпечення оборонностійкості держав. З вибуховим ривком розвитку технологій ШІ, а також великою кількістю даних, які необхідно обробляти, постають додаткові вимоги щодо національної безпеки та швидкості реагування на імовірні загрози у сфері оборони держав. Тому автоматизація на основі технологій ШІ є ключовим елементом прийняття Пентагоном нової парадигми кібербезпеки – принципу нульової довіри. Такий підхід припускає, що мережі перебувають під загрозою, що вимагає постійної перевірки користувачів, пристроїв і доступу. Ця практика фактично повторює прислів'я – «довіряй, але перевіряй». Представники оборонного відомства встановили кінцевий термін до 2027 р. для впровадження рівня нульової довіри, який загалом налічує понад 100 різних заходів.

Насамперед ця так звана нульова довіра полягає у перегляді існуючих даних, у тому числі й за допомогою штучного інтелекту. Потрібно дістатися до місця пошуку аномальних даних, які виникають у мережі, щоб набагато швидше визначити, де є слабке місце. Адже сучасні літаки, системи зброї, інші технічні засоби – усі вони генерують критичні дані та інформацію. А цей величезний масив інформації постійно повинен бути надійно захищеним від стороннього втручання. Отже, штучний інтелект може бути як інтелектуальною зброєю, так і високотехнологічним інструментом забезпечення кібербезпеки у державі.

Міжнародне співробітництво у сфері розробки, впровадження і розвитку ШІ та встановлення чітких етичних принципів у цій галузі є критичними для запобігання використанню ШІ зі злочинною метою або у військових цілях державами-агресорами. Забезпечення безпечного та етичного розвитку ШІ потребує ретельного обговорення та ефективних захисних заходів на міжнародному рівні.

Отже, головна проблема у сфері ШІ нині полягає не в створенні ефективних систем штучного інтелекту – таких розробок у світі вже достатньо, а у відсутності дієвих підходів до створення ефективної системи контролю, насамперед, етичного характеру, над штучним інтелектом. Отже, безпека штучного інтелекту має бути пріоритетом в його розробці. Водночас слід розуміти, що без застосування систем штучного інтелекту неможливий подальший розвиток технологічного прогресу, тож розробка інтелектуальних машин має продовжуватися.

Більш детально про актуальні вектори та проблеми розвитку штучного інтелекту як інструментарію безпеки та інтелектуальної зброї майбутнього у книзі компанії Сідкон "Штучний інтелект та безпека". Книга присвячена проблемам розвитку штучного інтелекту як інструментарію безпеки та інтелектуальної зброї майбутнього. Також в книзі викладені напрацювання практичної спрямованості щодо потенціалу, сучасних трендів та перспектив інтегрування штучного інтелекту у різні сфери господарської діяльності і життєдіяльності суспільства та людини.