Огіркові смузі замість ліків: чому поради ChatGPT та Gemini щодо раку можуть бути смертельно небезпечними

Аватар Уляна Виноградова Уляна Виноградова
143
2 голоси
Огіркові смузі замість ліків: чому поради ChatGPT та Gemini щодо раку можуть бути смертельно небезпечними
ШІ. Фото: pixabay
Дослідження показало, що популярні чат-боти на кшталт ChatGPT, Gemini та Grok інколи видають сумнівні або потенційно шкідливі поради щодо лікування раку.

Штучний інтелект дедалі частіше використовується для пошуку інформації про здоров’я, однак нове дослідження попереджає, що його рекомендації можуть бути небезпечними, особливо у випадках серйозних захворювань. Про це йдеться у дослідженні, опублікованому у BMJ Open.

Науковці перевірили відповіді популярних чат-ботів — зокрема ChatGPT, Gemini та Grok — на медичні запити, пов’язані з онкологією.

Результати виявилися тривожними. У багатьох випадках штучний інтелект не давав чітких медичних рекомендацій, а натомість змішував доказову медицину з альтернативними підходами — такими як голковколювання або дієти й смузі, зокрема з огірків.

ШІ. Фото: pixabay

Дослідники зазначають, що така подача інформації може створювати хибне враження у користувачів, особливо у людей у вразливому стані або тих, хто шукає останню надію на лікування.

«У людей може скластися враження, що альтернативні методи мають реальну ефективність нарівні з медичним лікуванням», — йдеться в матеріалах дослідження.

Загалом майже половина відповідей ШІ була оцінена як проблемна — через неточності, недомовленості або потенційно шкідливі формулювання.

Фахівці наголошують, що штучний інтелект не може замінити лікаря, особливо у випадках онкологічних захворювань, і будь-які медичні рішення мають прийматися лише на основі консультації з фахівцями.

Читайте по темі