Шахраї навчилися використовувати нейромережі, щоб підробляти голоси людей

image-13
Ілюстрація: biometricupdate.com

У Мережі активно розповсюджується нова шахрайська схема, ґрунтована на фальшивих голосових повідомленнях.

Про неї пише Forbes.

Спершу шахрай зламує акаунт іншої особи в месенджері або соціальній мережі, а після цього відправляє аудіофайл з проханням позичити гроші в особисті повідомлення друзям.

Для точнішого відтворення голосу власника акаунту, шахраї завантажують його голосові повідомлення до штучного інтелекту, дозволяючи нейромережі створити потрібний текст, який вимовляє голосом потерпілої особи. Отримане аудіо відправляється людям, які нічого не підозрюють, і вводить їх в оману.

Щоб не потрапити в аферу, експерти з кіберзахисту рекомендують не залишати голосові повідомлення у чатах: краще видаляйте їх відразу або налаштовуйте автоматичне самознищення.

Також рекомендується активувати двофакторну аутентифікацію для всіх своїх месенджерів і соціальних мереж.

Як альтернатива, можна обмежити використання голосових повідомлень або зовсім відмовитися від них.

Раніше ми розповідали, що гакери намагались начебто від імені «Укртелекому» шпигувати за комп’ютерами посадовців.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Реклама
Новини від партнерів

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: