Техно

Штучний інтелект може «збожеволіти» та почати видавати помилки: у чому причина

Віктор Глухенький
125
Людина допомагає штучному інтелекту з роботою. Фото: BLIK.ua, згенероване засобами ШІ
Чат-боти на основі штучного інтелекту після тривалої взаємодії з людьми починають робити більше помилок та «тупішають» у процесі віртуальної розмови.

Ґрунтовне дослідження проведене фахівцями компанії Microsoft Research спільно із Salesforce на результати якого посилається портал Windows Central довело, що штучний інтелект може «збожеволіти» від тривалого спілкування з людьми.

За інформацією джерела, аналіз понад 200 тисяч розмов із чат-ботами великих мовних моделей показує, що сумарний рівень помилок може зрости більш ніж на 100%, а користувачі регулярно скаржаться на «галюцинації» і неправильні відповіді ШІ. 

Науковці стверджують, що навіть найрозумніші нейромережі нерідко «губляться» у розмові, коли завдання розбивається на природний діалог навіть з кількох реплік.

Під час експерименту експерти вивчили діалоги користувачів із провідними чат-ботами, включно із GPT-4.1, Gemini 2.5 Pro, Claude 3.7 Sonnet та DeepSeek R1. 

Взаємодія ШІ з людиною. Фото: get-investor

Автори дослідження припускають, що різке погіршення якості в довгих бесідах не означає, що моделі «тупішають» у буквальному значенні. Найпевніше, це вказує на обмеженість ШІ у правильній інтерпретації великого обсягу інформації під час діалогу. 

❗️Можливі помилки та «галюцинації» ШІ можуть ввести людей в оману, особливо якщо користувач покладається на «бездушне створіння» як на джерело точної та критично важливої інформації.

Читайте по темі