Броят на Deepfake видеоклипове се увеличава с 900 процента всяка година

Броят на Deepfake видеоклиповете се увеличава с процент всяка година
Броят на Deepfake видеоклипове се увеличава с 900 процента всяка година

Според Световния икономически форум (WEF) броят на онлайн дълбоките фалшиви видеоклипове се увеличава с 900% всяка година. Няколко забележителни случая на дълбоки фалшиви измами направиха заглавията на новините със съобщения за тормоз, отмъщение и крипто измами. Изследователите на Kaspersky хвърлят светлина върху трите най-добри измамни схеми, използващи deepfakes, от които потребителите трябва да се пазят.

Използването на изкуствени невронни мрежи, задълбочено обучение и по този начин техники за дълбока фалшива измама позволяват на потребителите по целия свят да променят цифрово лицата или телата си, като по този начин създават реалистични изображения, видео и аудио материали, където всеки може да изглежда като някой друг. Тези манипулирани видеоклипове и изображения често се използват за разпространение на дезинформация и други злонамерени цели.

финансова измама

Deepfakes може да бъде обект на техники за социално инженерство, които използват изображения, създадени от престъпници, за да се представят за известни личности, за да привлекат жертвите в своите капани. Например, изкуствено създадено видео на Илон Мъск, обещаващо висока възвращаемост от съмнителна схема за инвестиране в криптовалута, се разпространи бързо миналата година, карайки потребителите да губят пари. Измамниците използват изображения на знаменитости, за да създават фалшиви видеоклипове като този, като съединяват стари видеоклипове и стартират потоци на живо в платформите на социалните медии, като обещават да удвоят всички плащания в криптовалута, изпратени до тях.

порнографски deepfake

Друга употреба на deepfakes е нарушаването на поверителността на дадено лице. Видеоклиповете Deepfake могат да бъдат създадени чрез наслагване на лицето на човек върху порнографско видео, което причинява голяма вреда и страдание. В един случай в интернет се появиха дълбоки фалшиви видеоклипове, в които лицата на известни личности бяха насложени върху телата на порно актриси в откровени сцени. В резултат на това в такива случаи се накърнява репутацията на жертвите на атаки и се нарушават техните права.

Бизнес рискове

Често дълбоките фалшификати се използват за насочване към бизнеса за престъпления като изнудване от ръководители на компании, изнудване и индустриален шпионаж. Например, използвайки гласов deepfake, киберпрестъпниците успяха да измамят банков мениджър в ОАЕ и да откраднат 35 милиона долара. Във въпросния случай беше необходим само малък запис на гласа на шефа му, за да бъде уловен, за да се създаде убедителен deepfake. В друг случай измамници се опитаха да измамят най-голямата платформа за криптовалута Binance. Изпълнителният директор на Binance каза „Благодаря!“ за среща в Zoom, на която никога не е присъствал. Той беше изненадан, когато започна да получава съобщения. Нападателите успяха да създадат deepfake с публични изображения на мениджъра и да го внедрят, като говорят от името на мениджъра в онлайн среща.

ФБР предупреждава мениджърите по човешки ресурси!

Като цяло целите на измамниците, използващи deepfakes, включват дезинформация и публична манипулация, изнудване и шпионаж. Ръководителите на човешките ресурси вече са нащрек за използването на дълбоки фалшификати от кандидати, кандидатстващи за дистанционна работа, според предупреждение на ФБР. В случая с Binance нападателите са използвали изображения на реални хора от интернет, за да създадат дълбоки фалшификати и дори са добавили техни снимки към автобиографии. Ако успеят да измамят мениджърите по човешки ресурси по този начин и след това получат оферта, те могат впоследствие да откраднат данни на работодателя.

Deepfakes продължават да бъдат скъпа форма на измама, която изисква голям бюджет и нараства на брой. По-ранно проучване на Kaspersky разкрива цената на deepfakes в тъмната мрежа. Ако обикновен потребител намери софтуер в интернет и се опита да го фалшифицира, резултатът ще бъде нереалистичен и измамата е очевидна. Малко хора вярват в нискокачествен дийпфейк. Той може веднага да забележи забавяне на изражението на лицето или замъглена форма на брадичката.

Следователно киберпрестъпниците се нуждаят от големи количества данни, за да се подготвят за атака. Харесвайте снимки, видеоклипове и гласове на човека, който искате да се имитира. Различните ъгли, яркостта на светлината, израженията на лицето играят голяма роля в крайното качество. За да бъде резултатът реалистичен, е необходима актуална компютърна мощност и софтуер. Всичко това изисква голямо количество ресурси и само малък брой киберпрестъпници имат достъп до този ресурс. Следователно deepfake все още остава изключително рядка заплаха, въпреки опасностите, които може да представлява, и само малък брой купувачи могат да си го позволят. В резултат на това цената на едноминутен deepfake започва от $20 XNUMX.

„Понякога рисковете за репутацията могат да имат много сериозни последици“

Дмитрий Аникин, старши специалист по сигурността в Kaspersky, казва: „Една от най-сериозните заплахи, които Deepfake представлява за бизнеса, не винаги е кражбата на корпоративни данни. Понякога рисковете за репутацията могат да имат много сериозни последици. Представете си видео, излъчено на вашия мениджър, който прави поляризиращи забележки по (очевидно) чувствителни теми. За компанията това може да доведе до бърз спад на цените на акциите. Въпреки това, въпреки че рисковете от такава заплаха са изключително високи, шансовете да бъдете хакнати по този начин са изключително ниски поради цената на създаването на deepfake и много малко нападатели могат да създадат висококачествен deepfake. Това, което можете да направите по въпроса, е да сте наясно с ключовите характеристики на deepfake видеоклиповете и да бъдете скептични към гласовите съобщения и видеоклиповете, които идват при вас. Също така се уверете, че служителите ви разбират какво е deepfake и как могат да го разпознаят. Например признаци като рязко движение, промени в тена на кожата, странно мигане или липса на мигане ще бъдат показателни.“

Непрекъснатото наблюдение на ресурсите на даркнет осигурява ценна информация за индустрията на deepfake, позволявайки на изследователите да следят най-новите тенденции и дейности на заплахите в това пространство. Чрез наблюдение на даркнет изследователите могат да открият нови инструменти, услуги и пазари, използвани за създаване и разпространение на дълбоки фалшификати. Този тип мониторинг е критичен компонент на дълбоките фалшиви изследвания и ни помага да подобрим нашето разбиране за развиващия се пейзаж на заплахите. Услугата Kaspersky Digital Footprint Intelligence включва този тип мониторинг, за да помогне на своите клиенти да бъдат една крачка напред, когато става въпрос за заплахи, свързани с deepfake.