Фахівці з кібербезпеки вже втрачають сон над тим, як виявляти та уникати глибоких фейків. Це нова кіберзагроза, яка може атакувати всіх без винятку, не лише компанії, але й окремих людей. За допомогою штучного інтелекту можна створювати надзвичайно реалістичні відео або зображення, в яких фальшиві герої діють у надзвичайно незручному контексті. Штучний інтелект здатний генерувати підроблені відео, на яких часто зображені обличчя знаменитостей або інші підроблені зображення. Ці глибокі фейкові відео викликають особливе занепокоєння через те, що вони можуть бути дезінформацією або шахрайством

У 2021 році ФБР попередило, що дипфейки та інший синтетичний контент загрожують безпеці. Такі прості інструменти, як-от Photoshop, можуть генерувати їх, але завдяки штучному інтелекту та машинному навчанню тепер зроблено величезний стрибок у якості. Сьогодні за допомогою штучного інтелекту фотографіями, відео та промовами можна маніпулювати для створення синтетичного контенту, який вводить в оману людське око. Діпфейки все більше імітують стиль, обличчя, голос і манери реальних людей.

Подібно до того, як штучний інтелект все більше вдосконалює свою здатність імітувати реальність, можливість створення цілком правдоподібних фейкових новин, шахрайства, маніпуляцій і шахрайства також покращується, що ускладнює відокремлення фактів від вигадки.

Deepfakes можна створювати за допомогою програмного забезпечення з відкритим вихідним кодом та інструментів штучного інтелекту, тому їх стало легше створювати та поширювати навіть аматорам з обмеженими технічними навичками.

Як використовуються дипфейки?

 Маніпуляція та дезінформація. Діпфейки часто створюють для навмисного поширення фейкових новин, маніпулювання громадською думкою або підриву довіри до джерел інформації. Вони становлять серйозну загрозу точній журналістиці та правді.

Шахрайство з видаванням себе за іншу особу. Злочинці використовують глибокі фейки, щоб видавати себе за цілі по телефону або під час відеодзвінків, щоб обманом змусити їх надіслати гроші або розкрити конфіденційну інформацію. Ці відеошахрайства стають все більш поширеними.

Помста порно. Deepfakes можна використовувати для реалістичного вставлення обличчя людини в порнографічні зображення та відео без її згоди.

Політична пропаганда. Діпфейки все частіше використовуються політиками та лобістами для створення оманливої ​​реклами, відео чи аудіокліпів з метою дискредитації політичних опонентів і впливу на громадську думку під час виборів.

Експлуатація знаменитостей. Deepfakes дозволяють автоматично створювати неправдиві оголені зображення знаменитостей без їхньої згоди та з порушенням конфіденційності.

 програми-вимагачі. Деякі банди програм-вимагачів почали використовувати глибокі фейки, щоб обманом змусити жертв завантажити зловмисне програмне забезпечення або розкрити облікові дані, видаючи себе за керівника компанії чи колегу у відеочаті.

Приниження і знущання. Deepfakes сприяють беззгодному обміну приватними зображеннями та принизливим/маніпулятивним вмістом, спрямованим на жінок, меншини та інші групи. Це зловживання сприяє переслідуванням в Інтернеті та створює небезпеки в реальному світі.

Шахрайство та крадіжка особистих даних. Створюючи фальшиві, реалістичні ідентифікатори, профілі, виступи чи інші засоби масової інформації від імені іншої особи, deepfakes можна використовувати для викрадення особистих даних, коштів або вчинення шахрайства зі страхуванням, шахрайства та інших фінансових злочинів.

Порушення конфіденційності. Будь-яке зображення особи, яка бере участь у приватних діях, таких як інтимні стосунки, медичні процедури, релігійні обряди тощо, може бути викрадено шляхом поширення цільових дипфейків.

 Знущання та переслідування. Deepfakes почали використовувати кібер-хулігани, тролі та онлайн-переслідувачі, щоб іншим способом посилити образи своїх жертв. Ніхто не застрахований від цих зловмисників і маніпульованих ними ЗМІ.

Порушення авторських прав. Deepfakes іноді використовується для автоматичного створення та розповсюдження вмісту, що порушує авторські права, наприклад підроблених трейлерів фільмів, порнографічних пародій або дубльованих/субтитрованих кліпів телевізійних шоу, фільмів і відеоігор без дозволу творців або власників авторських прав.

Це деякі з найбільш значущих і тривожних випадків використання дипфейків згідно з дослідниками, експертами та повідомленнями про випадки, що мали місце. У сукупності глибокі фейки створюють серйозні ризики для правди, довіри, конфіденційності, згоди, безпеки та інтелектуальної власності, що вимагає глобальної скоординованої відповіді.

Навіть хакери використовують дипфейки

Deepfakes також широко використовуються хакерами, які використовують їх як ще один інструмент для здійснення атак програм-вимагачів. Традиційно deepfake використовується під час риболовлі, щоб спонукати жертву натиснути на фейкову новину й таким чином ненавмисно завантажити зловмисне програмне забезпечення у свою комп’ютерну систему. Або використовується для шантажу жертви погрозами публічного оприлюднення нібито протиправної, але неправдивої поведінки з неминучим збитком репутації в разі несплати.

Цифрові криміналістичні методи потенційно можуть допомогти виявити дипфейки шляхом аналізу різних підказок, залишених у зображеннях, відео та медіафайлах.

Путін deepfake Джерело Вікіпедія

Кілька порад щодо виявлення дипфейків

Зовнішній вигляд дипфейків виглядає майже ідеально, але якщо звернути увагу на багато деталей, можна зрозуміти, що це підробка.

Перевірте додаткові деталі. Deepfakes часто мають невеликі недоліки в деталях або відсутні мікровирази, які зазвичай присутні. Шукайте невідповідності в освітленні, тінях або відображеннях, які здаються недоречними.

Проаналізуйте зоровий контакт і моргання. Фальшиві суб'єкти часто занадто часто або занадто мало контактують очима та моргають нерегулярно або неприродно. Справжні люди часто випадково моргають.

Шукайте тіні або розмитість. Глибокі підробки можуть мати тіні або розмиті краї на об’єкті, що робить його схожим на погано скомпоноване зображення.

Перевірте наявність проблем із переходом. Коли об’єкт deepfake рухається або проходить повз, рамки навколо людини можуть зникати або з’являтися інші артефакти, що вказує на те, що його вставлено.

Шукайте сплески візуальної інформації. Deepfakes може мати раптове збільшення деталей або пікселізацію в певних областях, які помітно виділяються з решти зображення.

Порівняйте з іншими кадрами. Якщо є інші відео чи зображення тієї самої особи, зверніть увагу на відмінності у зовнішньому вигляді, звуку чи стилі, які не збігаються. Deepfakes, як правило, надмірно імітує атрибути суб’єкта.

Зверніть увагу на помилки кадрування. Знімок або композиція можуть раптово змінити кути або залишити частини людини відрізаними від краю кадру неприродним чином.

Контролюйте якість і синхронізацію звуку. Якщо є аудіодоріжка, послухайте, чи немає відмінностей у тоні, темпі чи гучності, що не відповідає звичайному стилю суб’єкта. Крім того, аудіо та відео мають бути ідеально синхронізовані, чого часто не виходить у deepfakes.

Пошук атрибутів машини. Деякі дослідники виявили, що глибокі фейки можуть містити пікселі, розмиття або кольорові артефакти по краях, які нагадують пікселі на цифровому екрані. Але це трапляється не завжди, тому це не єдина підказка.

Скептично ставтеся до шокуючих заяв. Діпфейки часто створюють, щоб шокувати, обурити або створити трафік/кліки. Ставтеся дуже сумнівно до будь-яких тверджень, які, здається, спрямовані на те, щоб викликати сильну емоційну реакцію, а не інформувати.

Це деякі методи, які дослідники рекомендують для виявлення дипфейків і синтетичних носіїв. Але надійного методу ще немає, тому дотримання фактів і здоровий скептицизм залишаються такими ж важливими, як ідентифікація

Як запобігти дипфейкам

Щоб зменшити ймовірність піддатися атаці deepfake, пропонується обмежити публікацію фотографій і відео в соціальних мережах, щоб запобігти маніпуляціям ними. Ось кілька порад, як захистити себе та свою родину від глибоких фейків.

Почніть із того, що будьте обережнішими щодо публікації особистих фотографій/відео в соціальних мережах. Чим більш викривальний або викривальний контент існує в Інтернеті, тим більше ви вразливі до дипфейків. Обмежте надмірне поширення зображень і відео, коли це можливо. Також уникайте позначення місць або деталей, за якими можна ідентифікувати ваше місце проживання. Deepfakes іноді використовується для злочинних цілей, таких як переслідування, побиття або переслідування.

Що стосується запитів друзів у соціальних мережах, будьте обережні з небажаними запитами друзів або повідомленнями з вкладеними посиланнями. Ніколи не натискайте на посилання та не завантажуйте вкладення від невідомих або підозрілих відправників. Вони можуть містити зловмисне програмне забезпечення, яке використовується для зламу ваших облікових записів або камер. Використовуйте лише приватні профілі. Переконайтеся, що опублікований вміст бачать лише схвалені друзі та родина.

Слідкуйте за ознаками того, що ваші зображення публікуються та/або діляться невідомими обліковими записами або в незвичному контексті. Якщо ви отримуєте переслідування, погрози або спроби вимагання за участю маніпульованих засобів масової інформації, негайно зверніться до органів влади.  

Це деякі рекомендації, щоб захистити себе, родину та суспільство від загрози дипфейків. Головне – обмежити доступ до інформації, яка може бути використана проти вас, усвідомлювати ризики, спостерігати за ознаками зловживання та вживати заходів для створення захисту на індивідуальному рівні. Завдяки пильності та запобіганню ви можете значно зменшити свою вразливість до глибоких фейків.

Безкоштовні інструменти виявлення deepfake з відкритим кодом

Існує кілька безкоштовних інструментів виявлення deepfake з відкритим кодом, зокрема:

1. Криміналістика обличчя: це набір інструментів для виявлення deepfake, який включає кілька методів виявлення, зокрема аналіз руху голови, виявлення зміни обличчя та виявлення невідповідності освітлення та тіней.

2. Глибокі відеопортрети: це інструмент виявлення deepfake з відкритим кодом, який використовує машинне навчання для аналізу руху та зовнішнього вигляду людей у ​​відео.

3. Фокс: це інструмент із відкритим кодом, який допомагає захистити зображення від використання для створення глибоких фейків, додаючи до них нечутний шум.

4. OpenFaceSwap: це інструмент із відкритим вихідним кодом для створення та виявлення змін облич у зображеннях і відео.

Ці інструменти можуть використовувати дослідники, розробники та інші, зацікавлені у виявленні глибоких фейків. Важливо зазначити, що хоча ці інструменти можуть бути корисними, вони не є безпомилковими та можуть не виловлювати всі випадки маніпуляцій медіа. Також важливо використовувати ці інструменти відповідально та етично та враховувати потенційний вплив на конфіденційність і свободу слова.

Як юридично санкціонувати діпфейк?

В даний час Європейська комісія готує пропозицію щодо європейського регламенту про штучний інтелект, в якому в ст. 52 абзац 3 визначає дипфейк як «систему штучного інтелекту, яка генерує або маніпулює зображеннями або аудіо- чи відеовмістом, який сильно нагадує існуючих людей, об’єкти, місця чи інші об’єкти чи події, і який може хибно здаватися людині автентичним або правдивим».

В Італії італійський орган із захисту персональних даних опублікував на своєму інституційному веб-сайті a посібник з предмета, можна завантажити у форматі pdf.

Наразі існують деякі закони та нормативні акти, які можуть застосовуватися до дипфейків, але всеосяжних законів, які конкретно стосуються дипфейків, ще не прийнято. Деякі з відповідних законів:

Закони про наклеп: Створення та розповсюдження дипфейків, які навмисно поширюють неправдиву інформацію про когось таким чином, щоб завдати шкоди його репутації, потенційно може бути наклепом. Закони про дифамацію різняться в різних країнах, але спрямовані на захист людей від зловмисної брехні, яка шкодить їхній репутації.

Закони про конфіденційність: глибокі фейки, які передбачають використання чийогось зображення, подоби чи конфіденційності без згоди, можуть порушувати закони про конфіденційність, наприклад втручання в конфіденційність шляхом надання неправдивих свідчень.

Закони про авторські права: зміна обличчя у захищеному авторським правом вмісті, наприклад у фільмах, телешоу, книгах тощо. без авторизації може порушувати авторські права. Деякі дипфейки по суті є римейками або неофіційними переосмисленнями інтелектуальної власності.

Закони про кіберзлочинність: у рідкісних випадках зловмисне розповсюдження дипфейків переслідується відповідно до загальних законів, як-от проти кіберпереслідувань, кіберзалякування або розповсюдження непристойного вмісту. Але ці закони не були розроблені спеціально для діпфейків.

Юридичні проблеми, пов’язані з дипфейками, все ще розвиваються, тому в майбутньому закони можуть змінитися. Однак на даний момент існує можливість переслідувати найшкідливіші дипфейки, посилаючись на вже існуючі закони.

помилка: Вміст захищено !!
Кнопка "Зателефонувати зараз"