This is the Trace Id: 70ee311d16d5d4ce43da294ac6782353
Перейти до основного
Security Insider

Посібник Microsoft із забезпечення захисту підприємства на основі штучного інтелекту: початок роботи

Жінка користується сенсорним екраном.

Початок роботи з програмами на основі штучного інтелекту

Штучний інтелект (ШІ) трансформує бізнес-операції, відкриваючи шлях для впровадження інновацій і водночас створюючи нові ризики. Враховуючи тіньове використання ШІ (інструментів споживчого рівня, що застосовуються без нагляду), атаки з введенням підказок, а також постійне впровадження регламентів, як-от Закон ЄС про штучний інтелект, організаціям доводиться вирішувати ці проблеми, щоб безпечно використовувати штучний інтелект.

У цьому посібнику розглядаються ризики, пов’язані з використанням штучного інтелекту: витік даних, нові загрози й проблеми з дотриманням вимог, а також унікальні ризики використання агентів на основі ШІ. Він також містить рекомендації та практичні кроки, які слід виконати на основі Системи стандартів запровадження штучного інтелекту. Для глибшого розуміння та виконання практичних кроків завантажте посібник.

Штучний інтелект змінює правила гри, але лише якщо ви зможете гарантувати його безпеку. Розпочнімо роботу.

Оскільки організації впроваджують штучний інтелект, керівникам потрібно вирішити три основні проблеми:
  • 80% керівників називають витік даних головною проблемою. 1 Інструменти тіньового використання ШІ, що застосовуються без схвалення ІТ-фахівцями, можуть розкривати конфіденційну інформацію, збільшуючи ризики порушення вимог безпеки.
  • 88% організацій стурбовані тим, що зловмисники маніпулюють системами на основі ШІ. 2 Такі атаки, як введення підказок, використовують вразливості в системах на основі ШІ, що підкреслює необхідність запровадження упереджувального захисту.
  • 52% керівників визнають невпевненість у дотриманні вимог регламентів щодо використання штучного інтелекту. 3 Відповідність вимогам таких нормативних актів, як Закон ЄС про штучний інтелект, є важливим для зміцнення довіри й підтримки інноваційних ініціатив.

Агент на основі ШІ пропонує потенціал трансформації, але його автономія створює унікальні проблеми безпеки, які вимагають випереджувального керування ризиками. Нижче наведено основні ризики й стратегії, розроблені для їх усунення:

Ілюзії та непередбачувані результати

Системи агентів на основі ШІ можуть видавати неточні, застарілі чи неузгоджені результати, що призводить до операційних збоїв або ухвалення неефективних рішень.

Щоб зменшити ці ризики, організаціям потрібно впроваджувати процеси ретельного моніторингу для перевірки правильності та відповідності результатів, згенерованих штучним інтелектом. Регулярне оновлення навчальних даних забезпечує відповідність поточній інформації, а шляхи делегування в разі складних ситуацій дають змогу втручатися людині, коли це необхідно. Нагляд людини залишається важливим для забезпечення надійності та довіри до операцій на основі ШІ.

Надмірна довіра до рішень ШІ

Сліпа довіра до систем агентів на основі ШІ може призвести до вразливостей, коли користувачі діють, покладаючись на помилкові й неперевірені результати.

Організаціям слід запровадити політики, що вимагають перевірки людиною важливих рішень, на які впливає штучний інтелект. Навчання працівників обмежувати використання штучного інтелекту сприяє обґрунтованому скептицизму, зменшуючи ймовірність помилок. Поєднання аналітики штучного інтелекту з людським судженням через багаторівневі процеси ухвалення рішень зміцнює загальну стійкість і запобігає надмірній залежності.

Нові вектори атак

Автономність та адаптивність агентів на основі ШІ дають можливість зловмисникам використовувати вразливості, створюючи як операційні, так і системні ризики.

Операційні ризики: маніпулювання системами на основі ШІ для виконання шкідливих дій, як-от несанкціоновані завдання або спроби фішингу. Організації можуть зменшити ці ризики, упроваджуючи надійні заходи безпеки, зокрема виявлення аномалій у режимі реального часу, шифрування та суворий контроль доступу.
Системні ризики виникають, коли вражені агенти порушують роботу взаємопов’язаних систем, спричиняючи каскадні пошкодження. Відмовобезпечні механізми, протоколи резервування та регулярні аудити, узгоджені з такими системами стандартів кібербезпеки, як NIST, допомагають мінімізувати ці загрози й посилити захист від "змагальних атак".

Підзвітність і відповідальність

Агенти на основі ШІ часто працюють без прямого людського нагляду, що викликає складні питання щодо підзвітності та відповідальності за помилки чи несправності.

Організаціям слід установити чіткі рамки підзвітності, які визначатимуть ролі та відповідальність за результати, пов’язані з використанням штучного інтелекту. Прозора документація процесів ухвалення рішень на основі ШІ сприяє виявленню помилок і визначенню відповідальності. Співпраця з юристами забезпечує відповідність вимогам нормативних актів, а впровадження стандартів етики для системи керування штучним інтелектом зміцнює довіру й зменшує репутаційні ризики.

Працюючи з такими новими інноваціями на основі ШІ, як агенти, організаціям слід створити міцний фундамент, заснований на принципах нульової довіри – "ніколи не довіряй, завжди перевіряй". Такий підхід допомагає забезпечити автентифікацію, авторизацію та постійний контроль кожної взаємодії. Хоча досягнення нульової довіри потребує часу, запровадження стратегії поетапного підходу забезпечує стабільний прогрес і зміцнює впевненість у безпечній інтеграції штучного інтелекту.

Система стандартів запровадження ШІ корпорації Майкрософт базується на трьох основних етапах: Регулювання ШІ, керування ШІ і безпека ШІ.

Звертаючи увагу на ці області, організації можуть закласти фундамент для відповідального використання ШІ, одночасно зменшуючи критичні ризики.

Щоб досягти успіху, надавайте пріоритет людям, навчаючи працівників розпізнавати ризики, пов’язані зі штучним інтелектом, і безпечно використовувати затверджені інструменти. Посильте співпрацю між ІТ-фахівцями, командами відділу забезпечення захисту й комерційного відділу, щоб гарантувати застосування єдиного підходу. Забезпечте прозорість, відкрито повідомляючи про свої ініціативи щодо безпеки використання ШІ, щоб зміцнити довіру й продемонструвати лідерство.

Завдяки правильній стратегії, що ґрунтується на принципах нульової довіри, ви можете зменшити ризики, надати можливість упроваджувати інновації та впевнено орієнтуватися в умовах мінливого середовища штучного інтелекту.

Більше від Центру безпеки

Дослідження кіберзагроз і зміцнення захисту в епоху ШІ

Прогрес у галузі штучного інтелекту (ШІ) створює нові загрози й дає нові можливості для кібербезпеки. Дізнайтеся, як зловмисники використовують ШІ для все складніших атак, і перегляньте найкращі методи захисту від традиційних кіберзагроз і кіберзагроз із застосуванням ШІ.

Керівники відділу інформаційної безпеки використовують штучний інтелект: покращення стратегії захисту за допомогою аналізу загроз

Керівники відділу інформаційної безпеки, які використовуватимуть генеративний ШІ для системи безпеки, отримають три ключові переваги: покращені аналітичні висновки щодо кіберзагроз, пришвидшене реагування на них і допомога з ухваленням стратегічних рішень. Ознайомтеся з трьома прикладами сценаріїв і дізнайтеся, чому 85% керівників відділу інформаційної безпеки вважають, що дуже важливо використовувати штучний інтелект для захисту.

Звіт про цифровий захист Microsoft за 2024 рік

У звіті про цифровий захист Microsoft за 2024 рік розглядаються нові кіберзагрози з боку суб’єктів загрози на національному й державному рівнях і кіберзлочинців, надається нова аналітична інформація та рекомендації щодо підвищення стійкості й посилення захисту, а також досліджується зростання впливу генеративного ШІ на кібербезпеку

Підпишіться на новини про Захисний комплекс Microsoft