IT-специалист предупредил о рисках работы с нейросетями
Данные, переданные большим языковым моделям, могут оказаться в руках мошенников или других злоумышленников.
Об этом напомнил IT-эксперт, главный редактор издания Runet.News Владимир Зыков, пишет портал News.ru.
Эксперт отметил, что, предоставляя личные или конфиденциальные данные нейросетям, пользователи фактически передают их «стороннему сервису, который может хранить, анализировать и использовать эти данные для улучшения своих моделей».
В частности, при использовании многих современных платформ информация из диалогов может сохраняться на серверах компании-разработчика, автоматически обрабатываться, а иногда и просматриваться сотрудниками для контроля качества работы системы или разметки контента.
«Поэтому любые сведения, которые человек вводит в чат-бот, потенциально выходят за пределы его личного устройства и могут быть использованы злоумышленниками», – подчеркнул Зыков.
По словам эксперта, всегда существует риск утечки из-за взлома или ошибки в настройке системы. В связи с этим, добавил он, необходимо «осторожно относиться к передаче нейросетям паспортных данных, номеров банковских карт, логинов и паролей, медицинской информации и корпоративных документов».
Помимо прочего, часто пользователи воспринимают ИИ как личного собеседника и начинают делиться с ним подробностями собственной жизни. Но любая такая информация «потенциально может стать частью цифрового следа <...>, который при неблагоприятных обстоятельствах может быть раскрыт или использован третьими лицами», подытожил собеседник издания.
Источник: «Татар-информ»
Следите за самым важным и интересным в Telegram-каналеТатмедиа
Читайте новости Татарстана в национальном мессенджере MАХ: https://max.ru/tatmedia
Нет комментариев