Як захистити код, згенерований ШІ, за допомогою самонавчальних агентів ШІ. Дослідження CrowdStrike
- Фахівці з обробки даних CrowdStrike провели дослідження з розробки нових інноваційних самонавчальних мультиагентних систем ШІ, які використовують можливості Red Teaming
- Цей новий підхід, представлений на конференції NVIDIA GTC 2025, покликаний мінімізувати вразливості в майбутньому потоці коду, розробленого агентами ШІ
- Незважаючи на те, що дослідження CrowdStrike все ще знаходиться на стадії підтвердження концепції, воно має значні перспективи в якості необхідного кроку на шляху до запобігання перетворенню незахищених вразливостей в більш серйозну проблему кібербезпеки.
Застосування надійних заходів безпеки до автоматизованої розробки програмного забезпечення – це вже не розкіш, а необхідність. Фахівці з обробки даних CrowdStrike розробили мультиагентну перевірку концепції на основі ШІ, яка використовує можливості Red Teaming для виявлення вразливостей в коді, розробленому ШІ-агентами. Хоча вона все ще знаходиться на стадії дослідження, ця передова технологія ШІ має потенціал для революції в сфері безпеки програмного забезпечення.
У нових, здатних до самонавчання, мультиагентних системах ШІ (MAS), кожен агент виконує різні ролі у сфері безпеки, і разом вони працюють, щоб посилити знання та дії один одного. CrowdStrike застосовує проактивне виявлення вразливостей та їх автоматичне використання для захисту автономних процесів генерації коду. Їх дослідницька група визначила, що застосування мультиагентного підходу дозволяє виявляти потенційні вразливості – до того, як ними скористаються зловмисники, забезпечуючи цілісність програмних систем і надаючи розробникам можливість зосередитися на найважливішому: створенні інноваційних і безпечних програмних рішень.
Оскільки код, розроблений агентами ШІ, стає все більш поширеним, самонавчальні МАС, як от ті, що були представлені аналітиками CrowdStrike на конференції NVIDIA GTC 2025, можуть стати ключем до запобігання потоку невиправлених вразливостей і викликів кібербезпеки.
