Только самые интересные новости IT-технологий, Интернета, компьютерного и цифрового мира » Интернет технологии » Почему не стоит делиться личными данными с ChatGPT или другими чат-ботами на основе искусственного интеллекта
Про социальные сети и сервисы:
Возможно, это заинтересует:


    Рекомендуем:
Недавно на сайте смотрели:


60

Почему не стоит делиться личными данными с ChatGPT или другими чат-ботами на основе искусственного интеллекта





Нельзя отрицать, что ChatGPT и другие чат-боты на основе искусственного интеллекта станут отличными собеседниками, способными общаться с вами практически на любые темы.

Их разговорные способности также могут быть чрезвычайно убедительными; если они заставили вас чувствовать себя в безопасности, делясь своими личными данными, вы не одиноки. Но — новость! — вы не разговариваете со своим тостером. Все, что вы говорите чат-боту ИИ, может быть сохранено на сервере и всплывать позже, факт, который делает их изначально рискованными.

ChatGPT

Почему чат-боты так рискованны?


Проблема возникает из-за того, как компании, управляющие большими языковыми моделями (LLM) и связанными с ними чат-ботами, используют ваши персональные данные — по сути, для обучения более эффективных ботов.

Возьмем фильм «Терминатор 2: Судный день» в качестве примера того, как учится LLM. В фильме будущий лидер человеческого сопротивления Skynet, ребенок Джон Коннор, обучает Терминатора, которого играет Арнольд Шварценеггер, личным лозунгам, таким как «Hasta la vista baby», пытаясь сделать его более человечным.

Достаточно сказать, что он запоминает эти фразы и использует их в самые неподходящие моменты — что довольно забавно.

Менее забавно то, как ваши данные собираются и используются компаниями для обновления и обучения собственных моделей искусственного интеллекта, чтобы они стали более человечными.

Условия и положения OpenAI описывают его право делать это, когда вы используете его платформу. В них говорится: «Мы можем использовать данные, которые вы нам предоставляете, для улучшения наших моделей». Именно поэтому ChatGPT регистрирует все — да, все — что вы ему говорите. То есть, если только вы не используете новую функцию конфиденциальности чат-бота, которая позволяет вам включить настройку, чтобы предотвратить сохранение истории чата.

Если вы этого не сделаете, то такие данные, как ваша финансовая информация, пароли, домашний адрес, номер телефона или то, что вы ели на завтрак, являются честной игрой — если вы поделитесь этими данными. Он также хранит любые файлы, которые вы загружаете, и любые отзывы, которые вы ему даете.

В Условиях и положениях ChatGPT также указано, что чат-бот может «агрегировать или деидентифицировать Персональные данные и использовать агрегированную информацию для анализа эффективности наших Услуг». Это небольшое дополнение, но оно открывает возможность того, что что-то, чему научился чат-бот, впоследствии станет доступно общественности — действительно тревожная мысль.

Почему вас это должно волновать?


Справедливости ради, крайне маловероятно, что какая-либо компания, использующая чат-бота на основе искусственного интеллекта, намерена злоупотреблять личной информацией, которую они хранят. В последние годы OpenAI выпустила заявления, призванные успокоить пользователей ChatGPT относительно сбора и использования личных данных.

Например, в феврале этого года, когда Управление по защите данных Италии (DPA) обвинило компанию OpenAI в нарушении положений Общего регламента по защите данных (GDPR) Европейского союза, компания заявила BBC: «Мы хотим, чтобы наш ИИ узнавал о мире, а не о частных лицах».

А затем: «Мы активно работаем над сокращением объема персональных данных при обучении наших систем, таких как ChatGPT, которые также отклоняют запросы на предоставление личной или конфиденциальной информации о людях».

чат бот ChatGPT

Это может быть правдой, но это не гарантирует, что данные пользователя защищены от утечек. Одна из таких утечек произошла в мае 2023 года, когда хакеры использовали уязвимость в библиотеке Redis ChatGPT, что дало им доступ к сохраненным персональным данным из историй чатов.

Утечка личной информации включала имена, номера социального страхования, должности, адреса электронной почты, номера телефонов и даже профили в социальных сетях. OpenAI отреагировала, исправив уязвимость, но это было слабым утешением для примерно 101 000 пользователей, чьи данные уже были украдены.

И не только у людей возникают проблемы с конфиденциальностью в отношении чат-ботов на основе искусственного интеллекта. На самом деле, компании тоже изо всех сил стараются сохранить конфиденциальные данные компании в тайне на фоне громких утечек данных. Одна из таких утечек была обнаружена Samsung, когда выяснилось, что ее собственные инженеры случайно загрузили конфиденциальный исходный код в ChatGPT.

В ответ на это в мае 2023 года компания запретила использование ChatGPT и других генеративных чат-ботов ИИ в рабочих целях. Такие компании, как Bank of America, Citigroup и JPMorgan, с тех пор последовали ее примеру.

Осведомленность растет, но это только начало


В последнее время растет понимание опасности чат-ботов на основе искусственного интеллекта на уровне правительства и промышленности, что является многообещающим признаком ужесточения безопасности данных.

Большой шаг вперед произошел 30 октября прошлого года, когда президент США Джо Байден подписал Указ о безопасной, надежной и заслуживающей доверия разработке и использовании искусственного интеллекта — документ, в котором изложены основные принципы, регулирующие использование ИИ в США.

Один из приоритетных пунктов гласит, что «системы ИИ должны уважать конфиденциальность и защищать персональные данные». Однако пока неясно, как именно это будет реализовано, и это может быть открыто для интерпретации компаниями, занимающимися ИИ.

Немного противоречит этому тот факт, что в США до сих пор нет четкого закона, гласящего, что обучение ИИ на данных без согласия владельца является нарушением авторских прав. Вместо этого это можно считать добросовестным использованием — а это значит, что нет ничего надежного для защиты прав потребителей.

Пока мы не получим что-то более надежное, как личности, наша лучшая линия обороны — просто не делиться слишком много. Относясь к чат-боту ИИ как к алгоритму, которым он является, а не как к надежному другу, независимо от того, насколько он хвалит вашу прическу или выбор одежды, вы, по крайней мере, можете держать под контролем то, что он знает о вас с вашей стороны.

Теги: ChatGPT

Добавить комментарий

Имя:*
E-Mail:
Комментарий:
Вопрос:
Сколько будет: 17 минус 7 ? Ответ цифрой.
Ответ:*
Капча: *

Возможно, Вас заинтересуют похожие тематические статьи и рекомендации:

Темы, отмеченные пользователями:

8 ошибок, которые быстро убьют ваш SSD
SSD-накопители — это тонко настроенные, молниеносно быстрые устройства хранения данных, которые могут использовать преимущества высокой пропускной способности PCIe 5.0 лучше, чем даже самые быстрые видеокарты. Но, как и со всеми инструментами производительности, с ними нельзя обращаться плохо и ожидать, что они будут работать вечно.

Intel Arc дебютирует в обзоре оборудования Steam
Intel представил много новостей на этой неделе, некоторые из них плохие, а какие-то хорошие. Но если вы следили за игровыми устремлениями компании в течение последних нескольких лет, вы также можете заглянуть в Steam Hardware Survey, постоянный источник сочных тенденций в области оборудования. Там семейство графических процессоров Intel Arc GPU дебютировало в ноябре, и его использовали 0,19 процента геймеров Steam.

Покупаете кабель USB-C? Обратите внимание на эти 6 подводных камней
Прошло несколько лет с тех пор, как USB-C впервые появился на сцене. И хотя мы по-прежнему любим его реверсивность и то, насколько он стал мощным, мы также все больше осознаем потенциальные подводные камни вокруг этого мощного кабеля.