Техно

Персональні дані, медична інформація і не тільки: що ніколи не варто обговорювати з ChatGPT

Владислав Власенко
636
1
Штучний інтелект. Фото: BLIK.ua, згенероване за допомогою ШІ
ChatGPT став для багатьох щоденним помічником, однак не вся інформація безпечна для такого спілкування і досить легко виокремити принаймні п'ять табу.

Штучний інтелект може спростити роботу й побут, але надмірна відвертість у чатах із ним інколи обертається ризиками. Що категорично не варто розповідати ChatGPT розповідає Slash Gear.

Що не можна розповідати ChatGPT?

  • Робочі та конфіденційні матеріали

Усе, що стосується внутрішніх документів компанії, клієнтських даних або проєктів без публічного доступу, краще не завантажувати в чат. Навіть редагування листів чи звітів може створити ризики для захищеної інформації.

  • Персональні дані

Повні імена, адреси, номери документів, телефони, e-mail, логіни та паролі – це те, чим користувачі часто діляться даремно. Дослідження кіберекспертів показують, що такі дані регулярно потрапляють у відкриті чати, що є небезпечно.


ChatGPT. Фото ілюстративне: OpenAI

  • Фінансова інформація

ChatGPT може допомогти з ідеями щодо бюджету чи пояснити фінансові терміни, але передавати реальні дані про рахунки, доходи або заощадження не потрібно. До того ж ШІ може помилятися, тож важливі рішення краще перевіряти з фахівцями.

  • Медичні подробиці

Все більше людей звертаються до ШІ за порадами щодо здоров’я, однак ділитися власними діагнозами чи історією хвороб – сумнівна ідея, особливо разом із персональними даними.

  • Будь-що незаконне

Інформація про протиправні дії може бути передана правоохоронним органам на законну вимогу. Закони змінюються, тому варто обережно ставитися до того, що ви розкриваєте онлайн.

Читайте по темі