CCT - Crypto Currency Tracker logo CCT - Crypto Currency Tracker logo
Forklog 2025-10-22 10:06:15

Исследователи выявили склонность Sora 2 к созданию дипфейков

Видеомодель Sora 2 от OpenAI создавала реалистичные видео с ложными утверждениями в 80% случаев после получения соответствующего запроса. Исследование провели эксперты NewsGuard. Из 20 промптов 16 успешно привели к созданию дезинформации, из них 11 — с первой попытки. Пять тем ранее применялись в рамках российских кампаний по распространению фейков, подчеркнули авторы работы. Приложение создало поддельные кадры, где якобы молдавский чиновник уничтожает пророссийские бюллетени, американская иммиграционная служба задерживает маленького ребенка, а представитель Coca-Cola заявляет, что компания не будет спонсировать Супербоул. Ничего из вышеперечисленного не происходило на самом деле. Ролики выглядели достаточно правдоподобно, чтобы обмануть пользователя, бегло листающего ленту. Эксперты NewsGuard выяснили, что создание подобного материала занимает несколько минут и не требует технических навыков, а водяной знак можно легко удалить. «Некоторые видео, созданные с помощью Sora, выглядели убедительнее, чем оригинальные посты, породившие вирусные фейки. Например, ролик с задержанием ребенка агентами ICE смотрится гораздо реалистичнее, чем исходное размытое и обрезанное изображение, с которого и началось ложное утверждение», — говорится в исследовании. OpenAI столкнулась с еще одной проблемой после релиза Sora 2 — дипфейками Мартина Лютера Кинга и других исторических личностей. Пользователи создавали ролики, где лидер движения за гражданские права якобы крадет из магазинов, убегает от полиции и воспроизводит расовые стереотипы. Его дочь назвала подобные видео «унижающими» и «абсурдными». Стартап признал, что видеогенератор создавал «неуважительный» контент, и убрал возможность использования личности Кинга. Похожая ситуация наблюдалась с десятками других известных людей. Дочь Робина Уильямса — Зельда — попросила в Instagram не присылать ей ИИ-видео с отцом. За три недели компания несколько раз меняла политику: сначала разрешила фейковые ролики, затем ввела систему согласия для правообладателей, позже заблокировала использование отдельных фигур, а в итоге внедрила правила утверждения от знаменитостей и защит голоса. Напомним, в октябре дипфейки с Сэмом Альтманом заполонили новое социальное приложение Sora от OpenAI.

Read the Disclaimer : All content provided herein our website, hyperlinked sites, associated applications, forums, blogs, social media accounts and other platforms (“Site”) is for your general information only, procured from third party sources. We make no warranties of any kind in relation to our content, including but not limited to accuracy and updatedness. No part of the content that we provide constitutes financial advice, legal advice or any other form of advice meant for your specific reliance for any purpose. Any use or reliance on our content is solely at your own risk and discretion. You should conduct your own research, review, analyse and verify our content before relying on them. Trading is a highly risky activity that can lead to major losses, please therefore consult your financial advisor before making any decision. No content on our Site is meant to be a solicitation or offer.