Огіркові смузі замість ліків: чому поради ChatGPT та Gemini щодо раку можуть бути смертельно небезпечними
Штучний інтелект дедалі частіше використовується для пошуку інформації про здоров’я, однак нове дослідження попереджає, що його рекомендації можуть бути небезпечними, особливо у випадках серйозних захворювань. Про це йдеться у дослідженні, опублікованому у BMJ Open.
Науковці перевірили відповіді популярних чат-ботів — зокрема ChatGPT, Gemini та Grok — на медичні запити, пов’язані з онкологією.
Результати виявилися тривожними. У багатьох випадках штучний інтелект не давав чітких медичних рекомендацій, а натомість змішував доказову медицину з альтернативними підходами — такими як голковколювання або дієти й смузі, зокрема з огірків.

ШІ. Фото: pixabay
Дослідники зазначають, що така подача інформації може створювати хибне враження у користувачів, особливо у людей у вразливому стані або тих, хто шукає останню надію на лікування.
«У людей може скластися враження, що альтернативні методи мають реальну ефективність нарівні з медичним лікуванням», — йдеться в матеріалах дослідження.
Загалом майже половина відповідей ШІ була оцінена як проблемна — через неточності, недомовленості або потенційно шкідливі формулювання.
Фахівці наголошують, що штучний інтелект не може замінити лікаря, особливо у випадках онкологічних захворювань, і будь-які медичні рішення мають прийматися лише на основі консультації з фахівцями.
Читайте по темі
- Поради ШІ ледь не коштували жінці життя: точність медичних відповідей ChatGPT іноді падає до 35%.
- Чатботи зі штучним інтелектом викликають залежність: люди довіряють і повністю покладаються на технологію.
- На Одещині лікарня купила підписку на ChatGPT: чи варто терапевтам шукати нову роботу і яка вартість забаганки.