«Могут быть перехвачены злоумышленниками»: эксперт предупредил о рисках передачи личных данных нейросетям
Искусственный интеллект стал незаменимым помощником многих людей в работе, учёбе и повседневных делах. ChatGPT и другие нейросети обрабатывают миллиарды запросов ежедневно, а диалоги с ними, как правило, сохраняются и анализируются для совершенствования моделей. Однако не всю информацию можно сообщать чат-боту. В беседе с RT специалист Пермского политеха рассказал, какие данные нельзя передавать ИИ, кто может получить к ним доступ и стоит ли доверять ответам нейросетей.
- Сгенерировано с помощью ИИ
В Пермском национальном исследовательском политехническом университете объяснили, как нейросети, такие как ChatGPT, собирают информацию о пользователях, какие риски связаны с передачей данных таким сервисам и почему не стоит безоговорочно доверять ответам искусственного интеллекта.
Сегодня нейросети стали неотъемлемой частью цифровой жизни людей. По статистике, только ChatGPT ежедневно пользуются около 200 млн человек, а число запросов к чат-боту превышает 1 млрд в день. Нейросеть помогает в работе, учёбе, творчестве и повседневных делах. Однако доцент кафедры «Информационные технологии и автоматизированные системы» ПНИПУ, кандидат технических наук Даниил Курушин напоминает: в диалогах с нейросетями следует соблюдать осторожность.
Известно, что ChatGPT сохраняет все данные диалогов с пользователями в целях анализа и улучшения работы системы. Каждой беседе с ИИ присваивается уникальный ID, с помощью которого разработчики отслеживают контекст диалога и собирают данные, необходимые для совершенствования алгоритмов нейросети.
- Сгенерировано с помощью ИИ
«Разные интернет-сервисы заявляют о своей политике хранения данных пользователей по-разному. Например, DuckDuckGo утверждает, что «не собирает данные и не отслеживает пользователей», однако при более внимательном анализе можно заметить обратное. Доверять таким заявлениям следует с осторожностью, а проверить их зачастую сложно или даже невозможно — это может быть связано с коммерческой тайной», — подчеркнул эксперт Пермского политеха.
Даниил Курушин предупредил: общение с ИИ нельзя считать абсолютно безопасным. Данные из чата может собирать широкий круг третьих лиц, включая сотрудников спецслужб и мошенников. Хотя прямых доказательств такой практики нет, учёный рекомендует исходить из принципа наихудшего сценария: предполагать, что информация может быть перехвачена и использована против пользователя.
Эксперт отметил, что не стоит забывать и о цифровых ловушках, поскольку мошенники могут собирать данные не только через известные ИИ-сервисы.
«Конфиденциальные данные, доверенные ИИ, могут быть перехвачены злоумышленниками. Для достижения этой цели они могут задействовать и другие нейросети, помимо тех, которые вы используете, и создавать фишинговые чаты — мошеннические схемы в привычных для обывателя мессенджерах, социальных сетях или даже внутри игр и приложений», — рассказал учёный.
- Сгенерировано с помощью ИИ
Эксперт разъяснил, какие данные нельзя доверять нейросетям. В первую очередь это персональная информация: паспортные данные, номера телефонов, адреса. Не стоит разглашать и финансовую информацию, в частности банковские реквизиты. Также, общаясь с чат-ботом, не следует упоминать коммерческие и корпоративные тайны. Особенно опасно передавать сведения, связанные с государственной тайной. Разглашение такой информации может обернуться не только утечкой, но и серьёзными юридическими последствиями, вплоть до уголовной ответственности, подчеркнул Даниил Курушин.
Кроме того, даже простые повседневные разговоры с ChatGPT могут использоваться для сбора информации об интересах пользователей. Однако эти данные можно получить и другим путём.
«Такая практика широко распространена через системы интернет-поиска и социальные сети, поэтому представляет сравнительно меньший риск по сравнению с передачей конфиденциальных данных», — дополнил Даниил Курушин.
Он также подчеркнул: быть уверенным в том, что данные не попадут к третьим лицам, можно только тогда, когда используемые сервисы развёрнуты на оборудовании самого пользователя. Также необходимо правильно организовать сетевую инфраструктуру.
Кроме того, Даниил Курушин напомнил, что не следует считать предоставляемую нейросетью информацию по умолчанию достоверной. ChatGPT и другие нейросети стоит использовать прежде всего в тех сферах, где сам пользователь является специалистом и способен оценить качество и достоверность ответа. В остальных случаях надёжнее опираться на проверенные энциклопедические источники и мнение экспертов, пояснил собеседник RT.