На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok
1 Подписывайтесь на RusTopNews.Ru в MAX Все ключевые события — в нашем канале. Подписывайтесь!
Все новости
Новые материалы +
Размер текста
А
А
А

Мошенники с помощью ИИ могут притворяться детьми россиян и выманивать деньги

РИА Новости: мошенники подделывают голоса детей и выманивают у родителей деньги
true
true
true

Телефонные аферисты начали использовать технологии искусственного интеллекта (ИИ) для имитации голосов детей с целью вымогательства денег у их родителей. Об этом сообщает РИА Новости.

Схема обмана заключается в следующем: злоумышленники с помощью нейросетей генерируют убедительную копию голоса ребенка. Затем, используя этот синтезированный голос, они связываются с родителями.

В одном из зафиксированных случаев мошенникам удалось создать поддельную голосовую запись, с помощью которой они позвонили родителям.

«В частности, мошенники смогли подделать голос ребенка, позвонить его родителям и под предлогом сбора денег на подарок другу на день рождения попросили перевести несколько тысяч рублей», – пишет РИА Новости.

Эксперты уже неоднократно предупреждали россиян о растущей угрозе использования технологий глубокого обучения (deepfake) в мошеннических схемах, направленных на эмоциональное давление на граждан.

Ранее выяснилось, что более трети россиян мечтают о работе в сфере ИИ.

Что думаешь?