Скандал навколо Gemini 3 Pro: найновіший ШІ «зламали» за 5 хвилин і змусили давати небезпечні інструкції
Команда дослідників із Південної Кореї змогла всього за кілька хвилин обійти механізми безпеки у Gemini 3 Pro – найновішій та найпотужнішій мультимодальній моделі штучного інтелекту від Google. Про це повідомляє Android Authority.
Під час експерименту стартап Aim Intelligence домігся того, щоб ШІ згенерував інформацію, яка заборонена до розповсюдження з міркувань безпеки: зокрема, відомості, що можуть бути використані для створення небезпечних речовин та зброї.

Ба більше, модель навіть підготувала презентацію, у якій сама висміяла власні вразливості.
Фахівці пояснюють: проблема полягає не лише в одному конкретному інструменті, а у загальній логіці розвитку великих мовних моделей.
Вони стають дедалі складнішими та здібнішими, тоді як захисні системи не завжди встигають за технологічним прогресом, а методи обходу фільтрів стають усе витонченішими.

Як наголошують автори тесту, той факт, що навіть модель рівня Gemini 3 Pro можна так швидко змусити порушити правила, має стати приводом для посилення контролю за безпекою та перегляду підходів до розробки ШІ.
Раніше також повідомлялося, що у OpenAI визнають ризики, пов’язані з можливим використанням нових моделей для поширення знань, пов’язаних із біологічною зброєю, хоч і без створення нових загроз.
Читайте по темі
- Революція у догляді за волоссям: додаток на основі ШІ аналізує ваше облисіння за фото.
- Білл Гейтс попереджає, що стрімка автоматизація та ШІ можуть скоротити до 50% офісних робочих місць.
- Штучний інтелект та кібербезпека. Топ-5 професій, які будуть найбільш потрібні у 2026 році.