Персональні дані, медична інформація і не тільки: що ніколи не варто обговорювати з ChatGPT
Штучний інтелект може спростити роботу й побут, але надмірна відвертість у чатах із ним інколи обертається ризиками. Що категорично не варто розповідати ChatGPT розповідає Slash Gear.
Що не можна розповідати ChatGPT?
- Робочі та конфіденційні матеріали
Усе, що стосується внутрішніх документів компанії, клієнтських даних або проєктів без публічного доступу, краще не завантажувати в чат. Навіть редагування листів чи звітів може створити ризики для захищеної інформації.
- Персональні дані
Повні імена, адреси, номери документів, телефони, e-mail, логіни та паролі – це те, чим користувачі часто діляться даремно. Дослідження кіберекспертів показують, що такі дані регулярно потрапляють у відкриті чати, що є небезпечно.
ChatGPT. Фото ілюстративне: OpenAI
- Фінансова інформація
ChatGPT може допомогти з ідеями щодо бюджету чи пояснити фінансові терміни, але передавати реальні дані про рахунки, доходи або заощадження не потрібно. До того ж ШІ може помилятися, тож важливі рішення краще перевіряти з фахівцями.
- Медичні подробиці
Все більше людей звертаються до ШІ за порадами щодо здоров’я, однак ділитися власними діагнозами чи історією хвороб – сумнівна ідея, особливо разом із персональними даними.
- Будь-що незаконне
Інформація про протиправні дії може бути передана правоохоронним органам на законну вимогу. Закони змінюються, тому варто обережно ставитися до того, що ви розкриваєте онлайн.
Читайте по темі
- Photoshop і не тільки тепер буде в ChatGPT: що це означає для користувачів штучного інтелекту.
- Міккі Маус тепер зі штучним інтелектом: Disney та OpenAI підписали угоду про співпрацю – що це означає.
- Google інвестує до $93 млрд у штучний інтелект: нова стратегія компанії та ключове призначення.