Як Авіатор рекламують за допомогою технології deepfake

Стрімкий розвиток штучного інтелекту (ШІ) та технології deepfake відкрив нові можливості для маркетингу та реклами, але водночас спричинив тривожну тенденцію: несанкціоноване використання образів знаменитостей для просування азартних додатків, зокрема й популярної гри Aviator, яка стає дедалі популярнішою. За останні півроку з’явилося кілька повідомлень, в яких висвітлювалося, як використовуються технології глибокої підробки для створення переконливої, але шахрайської реклами за участю відомих знаменитостей, які підтримують Aviator та інші подібні азартні платформи.

Як Авіатор рекламують за допомогою технології deepfake

Розуміння технології Deepfake

Технологія Deepfake використовує алгоритми штучного інтелекту та машинного навчання для створення високореалістичних відео, аудіо чи зображень, які виглядають справжніми, але насправді є повністю сфабрикованими. Ця технологія може накладати обличчя людини на інше тіло, імітувати її голос і навіть генерувати абсолютно нові кадри, які виглядають автентично. Хоча глибокі фейки мають певне позитивне застосування у сфері розваг та медіа, їхнє зловживання в рекламі, особливо в індустрії азартних ігор, викликає серйозне занепокоєння.

Випадок з Aviator та знаменитостями

Aviator, гра в стилі авіасимулятора, яка набула значної популярності в колах любителів онлайн-ігор, стала мішенню для неетичних маркетологів, які використовують діпфейки для просування гри. У соціальних мережах циркулювала підроблена реклама за участю таких знаменитостей, як MrBeast, Акшай Кумар та Вірат Кохлі, яка вводила аудиторію в оману, переконуючи її, що ці люди підтримують гру Aviator.

MrBeast і гральний додаток

У жовтні 2023 року MrBeast, один із найвпливовіших ютуберів із мільйонами підписників, публічно засудив фейкове відео, на якому він нібито рекламує азартний додаток. Ролик був майстерно створений з використанням передових технологій штучного інтелекту для імітації зовнішності та голосу MrBeast, що створювало враження, ніби він справді схвалює додаток. Реклама неправдиво стверджувала, що користувачі можуть виграти значні суми грошей, граючи в азартні ігри, спокушаючи глядачів завантажити додаток і робити ставки (Vegas Slots Online).

MrBeast звернувся до соціальних мереж, щоб попередити своїх шанувальників про шахрайство, закликаючи їх бути обережними і ставлячи під сумнів, чи готові соціальні медіа-платформи протистояти зростаючій загрозі підробок зі штучним інтелектом. Його заява висвітлила ширшу проблему того, наскільки легко можна зловживати такою технологією, особливо в секторі азартних ігор, де довіра та авторитет мають вирішальне значення для залучення нових користувачів.

Дилема Акшая Кумара з фейками

Боллівудський актор Акшай Кумар став ще однією жертвою зловживань, пов’язаних із глибоким фейком. У серпні 2023 року в соціальних мережах почало поширюватися відео, на якому Кумар нібито схвалює азартний додаток, пов’язаний з грою Aviator. Підроблене відео було створене шляхом зміни звуку та рухів губ у справжньому відео, на якому Кумар рекламує свій фільм «OMG 2». Підроблене відео ввело глядачів в оману, змусивши їх думати, що актор схвалює гру Aviator – твердження, яке Кумар і його команда швидко спростували (ФАКТИЧНО).

Цей інцидент підкреслює витонченість технології глибоких фейків і легкість, з якою вона може бути використана для маніпулювання контентом у недобрих цілях. Команда Кумара подала до суду на творців «глибокого фейку», але шкода його репутації та потенційна шкода для глядачів, які нічого не підозрювали, вже була завдана.

Більше того, ми перевірили вірусне відео на детекторах глибокої підробки відео, і вони визначили його як потенційно глибоку підробку.

Вірат Кохлі та реклама гри Aviator

В іншому тривожному випадку в мережі з’явилося підроблене відео, на якому зірка індійського крикету Вірат Кохлі рекламує гру Aviator. У відео було використано технологію штучного інтелекту для зміни кадрів із законного інтерв’ю з Кохлі, щоб створити враження, ніби він схвалює азартний додаток. Ця глибока підробка була особливо переконливою, оскільки для відтворення голосу Колі було використано технологію клонування голосу, що надало шахрайській рекламі ще більшої достовірності (ФАКТИЧНО).

Як і інші знаменитості, які стали мішенню, Колі нічого не знав про просування гри Aviator і не брав у ньому участі. Глибока підробка не лише ввела в оману фанатів, але й становила значний ризик для тих, хто міг піддатися спокусі завантажити та використовувати додаток на основі фальшивого схвалення.

Вплив підробленої реклами

Використання підробок для реклами азартних додатків, таких як Aviator, має далекосяжні наслідки. У споживачів така реклама створює хибне відчуття безпеки та довіри, що спонукає їх взаємодіяти з платформами, яких вони б інакше уникали. Асоціація зі знаменитістю, якій довіряють, може бути неймовірно переконливою, особливо в умовах, коли до азартних додатків часто ставляться скептично.

Більше того, така реклама може призвести до фінансових втрат і навіть юридичних проблем для користувачів, які стають жертвами шахраїв. Оманливий характер реклами означає, що користувачі можуть не зрозуміти, що їх вводять в оману, доки не стане надто пізно, коли вони вже можуть втратити гроші або скомпрометувати свою особисту інформацію.

Для знаменитостей, яких це стосується, неправдива реклама є серйозним вторгненням у приватне життя та атакою на їхній особистий бренд. Ці люди побудували кар’єру на своїх публічних образах, і несанкціоноване використання їхньої зовнішності в такий оманливий спосіб може зашкодити їхній репутації та призвести до втрати довіри серед їхніх шанувальників.

Правові та етичні виклики

Поширення технологій глибокого підроблення в рекламі викликає значні правові та етичні питання. Наразі бракує комплексного законодавства, яке б регулювало зловживання технологією «глибоких підробок», особливо в контексті реклами. Хоча деякі країни почали впроваджувати закони, спрямовані на стримування поширення «глибоких фейків», правозастосування залишається проблемою, особливо коли порушники перебувають у різних юрисдикціях.

Крім того, стрімкий розвиток технологій штучного інтелекту означає, що виявляти «глибокі фейки» стає дедалі складніше. Це створює нагальну потребу для цифрових платформ, таких як соціальні мережі та сайти для обміну відео, розробляти більш досконалі інструменти для виявлення та видалення підробленого контенту до того, як він може завдати шкоди.

Висновок

Використання технології deepfake для реклами азартних додатків, таких як Aviator, є тривожною тенденцією, яка висвітлює темний бік досягнень у сфері штучного інтелекту. Хоча сама технологія є нейтральною, її застосування для створення оманливої реклами є явним зловживанням, яке створює ризики для споживачів, знаменитостей і цілісності рекламної індустрії.

Оскільки глибокі фейки стають все більш поширеними, для цифрових платформ, законодавців та громадськості вкрай важливо зберігати пильність. Підвищення обізнаності, посилення правової бази та більш досконалі інструменти виявлення мають важливе значення для боротьби зі зловживанням технологією «глибоких підробок». Тим часом споживачі повинні проявляти обережність і скептицизм, коли стикаються з рекламою в Інтернеті, особливо з тією, що містить схвалення відомих особистостей.

Для тих, хто зацікавлений дізнатися більше про наслідки технології глибоких фейків, такі авторитетні джерела, як Popular Science та Factly, пропонують детальну інформацію про останні події в цій галузі, що швидко розвивається (FACTLY) (Популярна наука).

Про автора
Ernest Shpilevoy
Експерт / Автор статті
Експерт в індустрії азартних ігор та беттінгу. Раніше був професійним футболістом, але завершив кар'єру після травми. Працював у великому виданні з 20-річною історією у сфері гемблінг-новин. Його хобі - риболовля та ставки на спорт, а також час від часу він грає в казино.
Share
Send this to a friend