Техно

Українців попередили, чим категорично не можна ділитись з ChatGPT: фахівці назвали топ-5 небезпечних тем

Олена Кобилянська
2224
Ілюстративне фото. Джерело: Freepik
Експерти розповіли, яку інформацію не слід обговорювати з ШІ. Не дивлячись на цілком неформальне спілкування з ботом GPT, певна інформація, яку надають користувачі, може бути використана проти них самих.

Навіть якщо чат-бот створює враження «дружньої» розмови, інформація, яку користувач вводить у діалог, може бути використана не так, як він очікує. Про це пише видання SlashGear.

Експерти застерігають: такі сервіси не є безпечним сховищем для особистих або конфіденційних відомостей. За оцінками, ChatGPT щодня обробляє близько 2,5 мільярда запитів.

Попри вбудовані механізми захисту, ризики витоку або неконтрольованого використання даних залишаються. Технології розвиваються, однак обачність усе ще є необхідною.

Фахівці назвали п’ять категорій інформації, які не варто передавати ChatGPT чи іншим «розумним» чат-ботам:

  • Персональні дані

Користувачі нерідко вводять повне ім’я, адресу, номери документів або контакти, наприклад, під час створення резюме.

Ілюстративне фото. Джерело: Freepik 

У разі витоку або несанкціонованого доступу до даних це може мати серйозні наслідки. Навіть якщо здається, що бот спілкується «як друг», така інформація може бути оброблена і використана інакше, ніж очікується.

  • Фінансова інформація

ШІ може допомогти з плануванням бюджету або загальними фінансовими порадами, однак вводити конкретні дані про банківські рахунки, кредитні картки, податки чи інвестиції експерти не радять.

Ілюстративне фото. Джерело: Freepik 

Після передачі таких відомостей неможливо відстежити, як вони використовуватимуться. Це створює ризики шахрайства, витоків персональних даних, фішингових атак і зараження пристроїв шкідливим ПЗ.

  • Медичні дані

Дослідження свідчать, що приблизно кожен шостий дорослий звертається до ChatGPT за порадами щодо симптомів або лікування щонайменше раз на місяць, а серед молоді цей показник ще вищий.

Ілюстративне фото. Джерело: Freepik 

Експерти наголошують, що ШІ не є лікарем і не замінює консультацію фахівця. До того ж, як і у випадку з фінансами, подальша доля медичних даних після їх введення залишається невідомою.

  • Робочі матеріали

Йдеться про документи, звіти, внутрішні стратегії компаній або інформацію, пов’язану з клієнтами чи непублічними проєктами.

Ілюстративне фото. Джерело: Freepik 

Хоча штучний інтелект може здаватися зручним інструментом для редагування або стислого переказу текстів, використання його для роботи з конфіденційними матеріалами несе додаткові ризики.

  • Незаконні запити

Запити, пов’язані зі злочинами, шахрайством або маніпуляціями, небезпечні не лише з точки зору безпеки, а й з юридичного боку.

Такі дії можуть призвести до блокування сервісів або правової відповідальності, оскільки платформи зобов’язані дотримуватися законодавства і можуть передавати дані на вимогу правоохоронних органів.

Ілюстративне фото. Джерело: Freepik 

Глава OpenAI Сем Альтман також застерігав, що листування з ChatGPT не має такого ж рівня правового захисту, як спілкування з ліцензованими фахівцями. У разі судових розглядів розробників можуть зобов’язати надати переписку користувачів.

Експерти радять уважно ставитися до того, якою інформацією користувачі діляться з ШІ, особливо якщо вона стосується особистого чи професійного життя.

Читайте також: