[гучні справи]

ШІ несе загрозу кібербезпеці.

Компанія OpenAI попередила, що можливості її передових моделей розвиваються швидше, ніж очікувалося. На думку розробників, майбутні покоління ШІ можуть отримати «високий» рівень ризику у сфері кібербезпеки, передає Іncrypted.

За даними OpenAI, нові версії моделей демонструють помітне зростання автономності та здатності виконувати тривалі операції — включно з атаками методом перебору. У звіті зазначається, що GPT-5 набрала 27% у вправі «захоплення прапора» в серпні 2025 року, а GPT-5.1-Codex-Max досягла вже 76% в аналогічному тесті минулого місяця.

Компанія вважає, що ця траєкторія розвитку збережеться і в майбутніх системах.

OpenAI підкреслює, що до нових моделей застосовується підхід, за якого кожна наступна версія розглядається як така, що потенційно досягла «високого» ризику. У класифікації компанії це другий за ступенем серйозності рівень — вище тільки «критичний».

В останньому випадку ШІ-модель вважається небезпечною для публічного використання.

Представник OpenAI Фуад Матін заявив, що ключовим фактором є здатність моделі довго працювати автономно. За його словами, атаки, засновані на тривалих автоматизованих спробах, простіше виявити в захищених середовищах. Однак зростання таких можливостей вимагає більш суворого аналізу і заходів захисту.

Компанія зазначає, що тренд на підвищення кіберможливостей стосується не тільки її власних моделей, а й рішень інших ШІ-розробників. На тлі цього OpenAI посилила участь у галузевих ініціативах з обміну інформацією про загрози, включно з Frontier Model Forum, створеним 2023 року.

Також компанія повідомила про формування нового консультативного органу Frontier Risk Council, який працюватиме з командами OpenAI з питань безпеки.

Додатково триває закрите тестування інструменту Aardvark — системи для розробників, що дає змогу виявляти критичні вразливості в програмних продуктах. OpenAI заявляє, що Aardvark уже виявив низку серйозних проблем безпеки у сторонніх команд.

Щоб не проґавити найважливіше, підписуйтесь на наш Telegram-канал.


fb Ми в Twitter RSS

матеріали


fb Мы в Twitter RSS

хроніка