Штучний інтелект може «збожеволіти» та почати видавати помилки: у чому причина
Ґрунтовне дослідження проведене фахівцями компанії Microsoft Research спільно із Salesforce на результати якого посилається портал Windows Central довело, що штучний інтелект може «збожеволіти» від тривалого спілкування з людьми.
За інформацією джерела, аналіз понад 200 тисяч розмов із чат-ботами великих мовних моделей показує, що сумарний рівень помилок може зрости більш ніж на 100%, а користувачі регулярно скаржаться на «галюцинації» і неправильні відповіді ШІ.
Науковці стверджують, що навіть найрозумніші нейромережі нерідко «губляться» у розмові, коли завдання розбивається на природний діалог навіть з кількох реплік.
Під час експерименту експерти вивчили діалоги користувачів із провідними чат-ботами, включно із GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet та DeepSeek R1.
Взаємодія ШІ з людиною. Фото: get-investor
Автори дослідження припускають, що різке погіршення якості в довгих бесідах не означає, що моделі «тупішають» у буквальному значенні. Найпевніше, це вказує на обмеженість ШІ у правильній інтерпретації великого обсягу інформації під час діалогу.
❗️Можливі помилки та «галюцинації» ШІ можуть ввести людей в оману, особливо якщо користувач покладається на «бездушне створіння» як на джерело точної та критично важливої інформації.
Читайте по темі
- Опитування Hronikers і Active Group показало, як українці використовують ChatGPT при виборі ліків, чи довіряють ШІ та як часто практикують самолікування.
- Католицька церква запускає нову систему перекладу богослужінь у реальному часі, а для зручності довелося скористатися послугами штучного інтелекту.
- Microsoft проаналізувала понад 200 тисяч діалогів із Copilot і визначила професії з найвищою застосовністю ШІ. Комусь доведеться звільнитись, а комусь – трансфоруватись.