Дипфейки у нас под рукой: Microsoft играет с огнем?
03.05.2024
Last updated
03.05.2024
Last updated
НЕДАВНИЕ ДОСТИЖЕНИЯ В ТЕХНОЛОГИИ ДИПФЕЙКОВ, ПРИМЕРОМ КОТОРЫХ ЯВЛЯЕТСЯ НОВЕЙШАЯ СИСТЕМА ГЕНЕРАТИВНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА MICROSOFT, ВЫЗЫВАЮТ ГЛУБОКУЮ ОБЕСПОКОЕННОСТЬ ПО ПОВОДУ ПОДЛИННОСТИ ЦИФРОВОГО КОНТЕНТА.
Недавние достижения в технологии дипфейков, примером которых является новейшая система генеративного искусственного интеллекта Microsoft, вызывают серьезные опасения по поводу подлинности цифрового контента. Благодаря возможности создавать убедительные видео из одного изображения и аудиоклипа, эти сложные инструменты размывают грань между реальностью и выдумкой.
Система VASA от Microsoft, сокращенно от «visual affective skill», открывает новые горизонты в цифровом манипулировании, позволяя пользователям создавать реалистичные видео из изображений человека, дополненные индивидуальными эмоциями и выражениями. Благодаря своей способности обрабатывать различные входные сигналы, он выдает выходы, характеризующиеся точной синхронизацией кромок и плавными движениями.
Несмотря на то, что технология обещает захватывающий опыт в таких сценариях использования, как игры, она также представляет значительные риски в руках злоумышленников. Дипфейки с искусственным интеллектом уже создают опасный прецедент, поскольку участились случаи, когда мошенники выдают себя за влиятельных людей и мстят дипфейк-обнаженной натурой.
Исследование, проведенное iProov, показало, что большая часть опрошенных не может сказать, является ли видео дипфейком или в нем участвует реальный человек. На международном уровне 71% участников указывают на то, что не знакомы с термином «дипфейк». Чуть менее трети потребителей во всем мире утверждают, что осведомлены о технологии дипфейков. Кроме того, 43% признались, что не могут отличить подлинные видео от дипфейков.
Появление реалистичных дипфейков подчеркивает настоятельную необходимость в надежных механизмах аутентификации для защиты от дезинформации и обмана. Решение Proof of Humanity Protocol (PoH) предлагает своевременный ответ на эту растущую угрозу, обеспечивая надежную основу для проверки подлинности цифровых удостоверений.
В ландшафте, чреватом манипуляциями с искусственным интеллектом, PoH служит барьером против распространения дипфейков и ботов, гарантируя, что взаимодействие в децентрализованных экосистемах основано на доверии и прозрачности. Подтверждая, что пользователь действительно является человеком на цифровых платформах, PoH дает людям возможность восстановить контроль над своими данными и бороться с распространением вредоносного контента.
По мере развития технологии дипфейков возникают все более сложные задачи для обеспечения целостности в Интернете и безопасности пользователей. Сотрудничество между заинтересованными сторонами отрасли становится важнейшей стратегией для смягчения потенциальных неблагоприятных последствий.
Одним из ключевых аспектов этой стратегии является повышение цифровой грамотности и осведомленности пользователей. Рассказывая людям о существовании и потенциальных рисках дипфейков, они могут лучше отличать подлинный контент от манипулируемого и научиться использовать инструменты и технологии, которые позволят им выявлять дипфейки. Такие решения, как PoH, должны будут принимать упреждающие меры для обеспечения безопасности пользователей в Интернете, связывая наши цифровые личности с нашими реальными личностями.
Хотите узнать больше о том, как PoH может защитить пользователей в Web3? Присоединяйтесь к нашему списку ожидания, чтобы первыми узнать, когда мы запустим нашу тестовую сеть.