Не стоит сообщать ему информацию о своём здоровье или финансовом положении.
Фото - OpenAI
Искусственный интеллект ChatGPT от OpenAI стал частью повседневной рутины миллионов пользователей: ежедневно в чат отправляется более миллиарда запросов,сообщает unian.net.
Но на фоне этого успеха усиливаются опасения по поводу приватности. ChatGPT уже получал запрет в Италии, и небезосновательно - всё, что вы вводите в чат, может быть использовано для обучения, просмотрено людьми или даже случайно показано другим пользователям.
OpenAI честно предупреждает: ваша информация будет использована для машинного обучения. Так что разумно воспринимать всё, что вы отправляете в чат, как потенциально публичную информацию. Поэтому Forbes назвал 5 вещей о которых не стоит рассказывать ChatGPT.
Незаконные и неэтичные запросы
Просить ИИ рассказать, как вскрыть банкомат, украсть пароль у соседа или манипулировать кем-то - это не просто аморально, но и может иметь последствия. Большинство ИИ-сервисов отслеживают подобные действия и, в случае серьёзных нарушений, могут передавать данные в правоохранительные органы.
К примеру, в Великобритании и ЕС запрещено использовать ChatGPT для получения информации о создании DeepFake видео с настоящими людьми.
Логины и пароли
ChatGPT не создан для того, чтобы вы ему рассказывали, как войти в ваш банковский аккаунт. Даже если ИИ подключён к сторонним сервисам - не вводите пароли. В истории уже были случаи, когда личная информация одного пользователя неожиданно всплывала в ответах другим.
Финансовая информация
Тот же принцип распространяется и на ваши банковские данные. Ни номера карт, ни CVC, ни номера счетов или документы, ничего из этого не стоит доверять чат-боту.
В отличие от платёжных платформ, у ChatGPT нет шифрования, двухфакторной защиты или гарантии удаления данных после обработки. Вся эта информация может быть уязвима для взлома, фишинга или утечек.
Конфиденциальные документы
Рабочие отчёты, клиентские базы, коммерческие предложения и, особенно, внутренние документы компаний - всё это должно оставаться вне публичного ИИ. Пример Samsung, где сотрудники загрузили в ChatGPT конфиденциальные материалы.
Медицинская информация
Даже если вы просто хотите уточнить симптомы помните: у ИИ нет медицинского образования, зато есть способность запоминать, агрегировать и обрабатывать информацию из разных чатов. А значит, ваши записи могут потом всплыть в другом контексте.
Для бизнеса, работающего с медицинскими данными, это может закончиться штрафами за нарушение законов о конфиденциальности. А для обычных пользователей - просто утратой личных границ.
Выводы
ИИ не хранилище, а мегафон. Всё, что вы ввели, теоретически может всплыть. Поэтому лучшее правило безопасности: не вводите ничего, что не готовы опубликовать на главной странице интернета.
Технологии ИИ развиваются быстрее, чем юридическая база и система защиты. Пока не появился реальный контроль, вся ответственность - на нас самих.
Ранее исследования создателей ChatGPT из OpenAI выявили, что общение с искусственным интеллектом повышает уровень одиночества. Для проведения исследований ученые наблюдали за почти тысячью человек в течение месяца.
Автор Иван Назаренко
Источник unian.net