
ШІ несе загрозу кібербезпеці.
Компанія OpenAI попередила, що можливості її передових моделей розвиваються швидше, ніж очікувалося. На думку розробників, майбутні покоління ШІ можуть отримати «високий» рівень ризику у сфері кібербезпеки, передає Іncrypted.
За даними OpenAI, нові версії моделей демонструють помітне зростання автономності та здатності виконувати тривалі операції — включно з атаками методом перебору. У звіті зазначається, що GPT-5 набрала 27% у вправі «захоплення прапора» в серпні 2025 року, а GPT-5.1-Codex-Max досягла вже 76% в аналогічному тесті минулого місяця.
Компанія вважає, що ця траєкторія розвитку збережеться і в майбутніх системах.
OpenAI підкреслює, що до нових моделей застосовується підхід, за якого кожна наступна версія розглядається як така, що потенційно досягла «високого» ризику. У класифікації компанії це другий за ступенем серйозності рівень — вище тільки «критичний».
В останньому випадку ШІ-модель вважається небезпечною для публічного використання.
Представник OpenAI Фуад Матін заявив, що ключовим фактором є здатність моделі довго працювати автономно. За його словами, атаки, засновані на тривалих автоматизованих спробах, простіше виявити в захищених середовищах. Однак зростання таких можливостей вимагає більш суворого аналізу і заходів захисту.
Компанія зазначає, що тренд на підвищення кіберможливостей стосується не тільки її власних моделей, а й рішень інших ШІ-розробників. На тлі цього OpenAI посилила участь у галузевих ініціативах з обміну інформацією про загрози, включно з Frontier Model Forum, створеним 2023 року.
Також компанія повідомила про формування нового консультативного органу Frontier Risk Council, який працюватиме з командами OpenAI з питань безпеки.
Додатково триває закрите тестування інструменту Aardvark — системи для розробників, що дає змогу виявляти критичні вразливості в програмних продуктах. OpenAI заявляє, що Aardvark уже виявив низку серйозних проблем безпеки у сторонніх команд.
Щоб не проґавити найважливіше, підписуйтесь на наш Telegram-канал.