Как Aviator рекламируется с помощью технологии deepfake

Стремительное развитие искусственного интеллекта (ИИ) и технологии deepfake открыло новые возможности для маркетинга и рекламы, но в то же время привело к тревожной тенденции: несанкционированному использованию образов знаменитостей для рекламы азартных приложений, включая набирающую популярность игру Aviator. За последние полгода появилось несколько отчетов, в которых рассказывается о том, как технология deepfake используется для создания убедительной, но мошеннической рекламы с участием известных знаменитостей, поддерживающих Aviator и подобные игорные платформы.

Как Aviator рекламируется с помощью технологии deepfake

Понимание технологии Deepfake

Технология Deepfake использует алгоритмы искусственного интеллекта и машинного обучения для создания очень реалистичных видео, аудио или изображений, которые кажутся настоящими, но на самом деле являются полностью сфабрикованными. Эта технология может накладывать лицо человека на другое тело, имитировать его голос и даже генерировать совершенно новые кадры, которые выглядят подлинными. Хотя глубокие подделки имеют ряд положительных применений в сфере развлечений и СМИ, их неправомерное использование в рекламе, особенно в игорном бизнесе, стало вызывать серьезную обеспокоенность.

Случай с Aviator и знаменитыми подделками

Aviator, игра в стиле crash, завоевавшая большую популярность в кругах любителей онлайн-гемблинга, стала мишенью для неэтичных маркетологов, использующих для продвижения игры deepfake. Рекламные фейки с участием таких знаменитостей, как MrBeast, Акшай Кумар и Вират Кохли, распространяются в социальных сетях, вводя аудиторию в заблуждение, что эти личности поддерживают игру Aviator.

MrBeast и приложение для азартных игр

В октябре 2023 года MrBeast, один из самых влиятельных ютуберов с миллионами подписчиков, публично осудил фейковое видео, в котором он ложно изображал, что рекламирует приложение для азартных игр. Ролик был продуман, в нем использовались передовые методы искусственного интеллекта, чтобы сымитировать внешность и голос MrBeast, создавая впечатление, что он действительно поддерживает приложение. В рекламе ошибочно утверждалось, что пользователи могут выиграть значительные суммы денег, играя в азартные игры, заманивая зрителей скачать приложение и сделать ставки (Vegas Slots Online).

MrBeast обратился к социальным сетям, чтобы предупредить своих поклонников о мошенничестве, призвав их быть осторожными и задавшись вопросом, готовы ли платформы социальных сетей справиться с растущей угрозой глубоких подделок ИИ. Его заявление подчеркнуло более широкую проблему того, как легко можно злоупотребить подобными технологиями, особенно в секторе азартных игр, где доверие и надежность имеют решающее значение для привлечения новых пользователей.

Дилемма Акшая Кумара с deepfake

Актер Болливуда Акшай Кумар стал еще одной жертвой злоупотребления deepfake. В августе 2023 года в социальных сетях появилось видео, на котором, как оказалось, Кумар одобряет азартное приложение, связанное с игрой Aviator. Видео deepfake было создано путем изменения звука и движений губ в настоящем видео, где Кумар рекламирует свой фильм «ОМГ 2». Манипулированное видео ввело зрителей в заблуждение, заставив думать, что актер поддерживает игру Aviator, что Кумар и его команда быстро опровергли (FACTLY).

Этот инцидент подчеркивает изощренность технологии deepfake и легкость, с которой она может быть использована для манипулирования контентом в неблаговидных целях. Команда Кумара подала судебный иск против создателей подделки, но ущерб его репутации и потенциальный вред для ничего не подозревающих зрителей уже был нанесен.

Более того, мы подвергли вирусное видео глубокой проверке с помощью детекторов поддельных видео, и они определили, что оно может быть глубокой подделкой.

Вират Кохли и реклама игры Aviator

Еще один тревожный случай – в сети появилось фейковое видео, на котором звезда индийского крикета Вират Кохли рекламирует игру Aviator. В видео использовалась технология искусственного интеллекта, чтобы изменить кадры из реального интервью с Кохли, создав впечатление, что он поддерживает приложение для азартных игр. Этот фейк был особенно убедительным, поскольку в нем использовалась технология клонирования голоса Кохли, что придавало мошеннической рекламе еще большую аутентичность (FACTLY).

Как и другие знаменитости, Кохли не знал и не участвовал в продвижении игры Aviator. Фальсификация не только вводила в заблуждение фанатов, но и представляла значительный риск для тех, кто мог поддаться искушению скачать и использовать приложение на основе ложного одобрения.

Влияние рекламы deepfake

Использование подделок для рекламы азартных приложений, таких как Aviator, имеет далеко идущие последствия. Для потребителей такая реклама создает ложное чувство безопасности и доверия, заставляя их обращаться к платформам, которых они в противном случае могли бы избегать. Ассоциация со знаменитостью, которой доверяют, может быть невероятно убедительной, особенно в условиях, когда к азартным приложениям часто относятся скептически.

Более того, эти глубоко фальшивые рекламные объявления могут привести к финансовым потерям и даже юридическим неприятностям для пользователей, ставших жертвами мошенников. Обманчивый характер рекламы означает, что пользователи могут не понять, что их вводят в заблуждение, пока не станет слишком поздно, а к этому моменту они уже могут потерять деньги или скомпрометировать свою личную информацию.

Для знаменитостей реклама deepfake представляет собой серьезное вторжение в частную жизнь и атаку на их личный бренд. Эти люди построили карьеру на своей публичной персоне, и несанкционированное использование их образа таким обманчивым способом может нанести ущерб их репутации и привести к потере доверия среди их поклонников.

Правовые и этические проблемы

Рост использования технологии deepfake в рекламе поднимает серьезные юридические и этические вопросы. В настоящее время отсутствует всеобъемлющее законодательство, направленное на борьбу с неправомерным использованием технологии deepfake, особенно в контексте рекламы. Хотя некоторые страны начали вводить законы, направленные на ограничение распространения deepfake, их применение остается сложной задачей, особенно когда нарушители находятся в разных юрисдикциях.

Кроме того, стремительное развитие технологий искусственного интеллекта приводит к тому, что глубокие подделки становится все труднее обнаружить. В связи с этим цифровым платформам, таким как социальные сети и сайты обмена видео, необходимо разработать более совершенные инструменты для выявления и удаления поддельного контента до того, как он сможет причинить вред.

Заключение

Использование технологии deepfake для рекламы азартных приложений, таких как Aviator, – тревожная тенденция, которая подчеркивает темную сторону достижений ИИ. Хотя сама технология нейтральна, ее применение для создания обманчивой рекламы – это явное злоупотребление, которое представляет риск для потребителей, знаменитостей и целостности рекламной индустрии.

Поскольку подделки становятся все более распространенными, цифровым платформам, законодателям и общественности крайне важно сохранять бдительность. Повышение осведомленности, укрепление правовой базы и более сложные инструменты обнаружения необходимы для борьбы с неправомерным использованием технологии deepfake. А пока потребителям следует проявлять осторожность и скептицизм, когда они сталкиваются с рекламой в Интернете, особенно с рекламой, которую поддерживают знаменитости.

Для тех, кто хочет узнать больше о последствиях технологии deepfake, авторитетные источники, такие как Popular Science и Factly, предлагают подробную информацию о последних событиях в этой быстро развивающейся области (FACTLY) (Popular Science).

Об авторе
Ernest Shpilevoy
Эксперт / Автор статьи
Эксперт в индустрии азартных игр и ставок. Раньше был профессиональным футболистом, но завершил карьеру после травмы. Работал в крупном издании с 20-летней историей в области новостей азартных игр. Его хобби - рыбалка и ставки на спорт; также он иногда играет в казино.
Share
Send this to a friend