У 2025 році регулювання штучного інтелекту визначатиметься трьома ключовими аспектами: даними, робочими місцями та безпекою. Ці взаємопов’язані сфери стануть центральними у формуванні політики, оскільки уряди прагнуть вирішити складні виклики, які ШІ створює для суспільства. Особливу увагу буде приділено даним, оскільки вони матимуть значний вплив на безпеку ланцюжка постачання програмного забезпечення.
Еволюція специфікацій ML-BOM (Machine Learning Bill of Materials) стане важливим інструментом у забезпеченні прозорості та безпеки систем ШІ та машинного навчання. Оскільки регуляторні органи посилюватимуть контроль за такими системами, ключовими питаннями стануть право власності на дані, їх джерела та безпека. Організації повинні будуть розкривати, які дані використовуються для навчання їхніх моделей, надавати детальну інформацію про походження та відповідність цих джерел.
Ймовірно, нормативні вимоги передбачатимуть доказ законності володіння даними та їх відповідального отримання, щоб мінімізувати ризики, пов’язані з використанням несанкціонованих або низькоякісних джерел. Це спричинить розширення системи ML-BOM, яка включатиме не лише перелік компонентів, а й повну документацію про джерела даних, їх якість та відповідність стандартам.
Таким чином, нові правила, орієнтовані на дані, стануть основоположним елементом безпеки ланцюжка постачання програмного забезпечення. Організації будуть змушені застосовувати суворе управління та перевірку даних, як і для будь-якого іншого критично важливого компонента програмного забезпечення, щоб забезпечити відповідність новим вимогам і уникнути потенційних ризиків.