Здоров'я

Поради ШІ ледь не коштували жінці життя: точність медичних відповідей ChatGPT іноді падає до 35%

Юлія Шкурат
73
Абі. Фото: соцмережі
Жінка з Манчестера мало не постраждала через поради ChatGPT - алгоритми можуть бути впевненими, але небезпечними.

Чому поради ChatGPT можуть бути небезпечними?

Жінка з Манчестера на ім’я Абі протягом року використовувала ChatGPT для консультацій щодо здоров’я, але один із випадків ледь не завершився серйозними наслідками. Як повідомляють медики, алгоритм може давати впевнені, але хибні відповіді, що становить ризик для пацієнтів. Про це повідомляє BBC.

Важливо! У реальних розмовах точність медичних порад ШІ може падати до 35%, навіть якщо в лабораторних умовах вона значно вища.

Абі. Фото: соцмережі

Абі розповідає, що іноді чатбот дійсно допомагав.

«Це дає можливість спільно вирішувати проблему. Трохи схоже на розмову з лікарем», - зазначає вона.

Однак ситуація різко змінилася після падіння в горах. Жінка звернулася до чатбота через сильний біль у спині. Відповідь виявилася шокуючою.

«ChatGPT сказав мені, що я проколола орган і мені потрібно їхати у відділення невідкладної допомоги», - згадує Абі.

Після обстеження лікарі не підтвердили загрозу життю.

Чому експерти б’ють на сполох через ШІ?

Дослідження Оксфордського університету показало, що ефективність ШІ різко падає під час реального спілкування з людьми. Коли користувачі надають неповну інформацію, алгоритми часто помиляються або дають небезпечні рекомендації.

Професор Адам Махді пояснює, що у живих розмовах люди можуть пропускати важливі деталі. Це ускладнює роботу алгоритмів і призводить до неправильних висновків. У результаті дві третини користувачів отримують неточні або ризиковані поради.

Робот розглядає скелет людини. Фото: today.ua

Медики також наголошують на психологічному факторі. Через впевнений тон відповідей користувачі можуть сприймати їх як авторитетні. Це створює ілюзію надійності, навіть коли інформація є помилковою.

Компанія OpenAI підкреслює, що чатботи не повинні замінювати лікарів. Вони призначені лише для інформації та навчання, а не для постановки діагнозів. Абі після пережитого не відмовилася від технології, але змінила підхід. Вона радить перевіряти будь-які поради та не покладатися на них повністю.

Читайте по темі:

  • Чатботи зі штучним інтелектом викликають залежність: люди довіряють і повністю покладаються на технологію.
  • На Одещині лікарня купила підписку на ChatGPT: чи варто терапевтам шукати нову роботу і яка вартість забаганки.
  • ChatGPT занурює людей у депресію: що відомо про новий виклик епохи штучного інтелекту.