14 червня, Європейський парламент ухвалив свою остаточну позицію щодо проєкту тексту, який ляже в основу майбутнього закону, що регулюватиме правила в сфері штучного інтелекту (ШІ). 499 членів проголосували «за», 28 «проти» і 93 утримались. Про це повідомили у пресслужбі Європарламенту.
Спроба врегулювати ШІ на законодавчому рівні була ще у 2021 році, коли в ЄС розробили спеціальний Регламент, що передбачав чотири “зони” використання штучного інтелекту. Проте, сама ініціатива набула більшої актуальності після появи минулого року бота ChatGPT, що продемонстрував нові досягнення та можливі ризики в цій галузі. Про це повідомляє видання DW.
Правила безпечного та прозорого ШІ гарантуватимуть, що штучний інтелект, розроблений і використовуваний у Європі, повністю відповідає правам і цінностям ЄС, включаючи нагляд з боку людини, безпеку, конфіденційність, прозорість, відсутність дискримінації та соціальне та екологічне благополуччя.
Тепер законодавці розпочнуть переговори з 27 країнами-членами ЄС щодо остаточного варіанту закону. Тож набути чинності Закон може не раніше 2026 року, що змусить Євросоюз наполягати на укладенні добровільних тимчасових пактів з технологічними компаніями.
Схвалений Закон стане одним із перших офіційних у світі та регулюватиме ШІ відповідно до рівня ризику: чим вищий він для прав чи здоров’я людей, тим більше зобов’язань.
Відтепер розробники штучного інтелекту мають надсилати свої моделі на перевірку ще до того, як випустити їх на загал. Також діятиме повна заборона на штучний інтелект (ШІ) для біометричного спостереження, розпізнавання емоцій, інтелектуального контролю. Генеративні системи штучного інтелекту, такі як ChatGPT, повинні розкривати, що контент був створений штучним інтелектом. Системи штучного інтелекту, які використовуються для впливу на виборців на виборах, вважаються високоризиковими.
На думку законодавців, численні стартапи та молоді компанії віддаватимуть перевагу саме ринку ЄС, адже, за наявності законодавчого врегулювання ШІ, компанії зможуть адекватно оцінювати не лише вигоди, а й ризики використання таких систем.