ChatGPT переплутав отруту з їжею: жінка ледь не загинула через пораду ШІ
Про цей випадок розповіла блогерка Крісті, повідомляє LADbible. Її подруга надіслала чат-боту фотографію знахідки, щоб дізнатися, що це таке. ChatGPT впевнено заявив, що зображення нагадує листя моркви, аргументуючи це «дрібно розділеним та пір’ястим листям», яке є класичним для цього овоча.
Як штучний інтелект ігнорував очевидну небезпеку
Найстрашнішим у цій ситуації стало те, що жінка мала підозри й прямо запитала бота, чи не є ця рослина отруйним болиголовом. Проте алгоритм наполегливо заперечував небезпеку.
Навіть після отримання додаткових фотографій, де було видно характерні ознаки отруйної рослини, ШІ продовжував стояти на своєму. Він стверджував, що на стеблах немає фіолетових плям (ознака болиголова), хоча на знімку вони були чітко помітні.
Болиголов. Фото: aoplatforma.com
Перевірка через Google та ризик для життя
Сумніви розвіялися лише після використання іншого інструменту. Коли Крісті завантажила те саме фото в Google Lens, система миттєво ідентифікувала рослину як смертельно небезпечний болиголов. Цікаво, що при спробі перевірити зображення в іншому вікні ChatGPT на телефоні, бот також визнав отруйність рослини, що свідчить про нестабільність відповідей ШІ.
Блогерка наголосила, що сліпа довіра до технологій могла коштувати її подрузі життя, адже протиотрути від цього токсину не існує.
«Вона доросла людина, і вона знала, що потрібно запитувати більше, ніж сказав ChatGPT. А що, якби ні? Вона б буквально померла, протиотрути від цього немає», — підсумувала Крісті.
Читайте по темі
- Штучний інтелект залишив молодят неодруженими: суд скасував шлюб через втручання ChatGPT у церемонію.
- «Не дозволяйте близьким користуватися ChatGPT»: Ілон Маск зробив різку заяву після тривожних повідомлень.
- Вчені дослідили, коли ChatGPT дає найбільш точні відповіді: результати здивують.