Россиянам рассказали, какие данные опасно передавать ИИ

Специалист Вехов: фотографии и голос опасно передавать ИИ
Shutterstock

Искусственному интеллекту не стоит присылать свои фотографии, портфолио, записи, голос, потому что эти данные могут использовать мошенники. Об этом в интервью радио Sputnik рассказал эксперт в области информационной безопасности, профессор кафедры «Безопасность в цифровом мире» МГТУ им. Баумана Виталий Вехов.

По его словам, нейросети способны смоделировать аудио и видео обращения для мошеннических действий. Он предупредил, что аферисты уже пользуются возможностями ИИ в даркнете.

«У нас же есть разные уровни искусственного интеллекта, и в даркнете до сих пор на, как мы их называем, вражеских сайтах, продаются и сдаются в аренду системы искусственного интеллекта, заточенные под совершение конкретных видов преступлений, связанных с наркотиками, торговлей органами, людьми, оружием, в том числе для совершения мошеннических действий», — заключил Вехов.

Доцент кафедры «Информационные технологии и автоматизированные системы» ПНИПУ, кандидат технических наук Даниил Курушин до этого рассказал «Газете.Ru», что ChatGPT сохраняет данные диалогов и присваивает каждому сеансу уникальный идентификатор, что позволяет разработчикам совершенствовать алгоритмы и исправлять ошибки. Но всегда существует риск, что информация может быть использована третьими лицами — от мошенников до спецслужб.

Ранее были названы две основные схемы доступа мошенников к личным данным россиян.