Несколько недель назад компания Open AI представила нейросеть Sora, способную по текстовому описанию генерировать реалистичное видео продолжительностью до одной минуты с разрешением 1920×1080 пикселей. Теперь компания HarrisX провела опрос, предлагая взрослым американцам отличить сгенерированное II видео от настоящего. Оказалось, что большинство респондентов ошиблось у 5 из 8 предлагаемых в рамках опроса роликов.
В опросе, который проходил в период с 1 по 4 марта в США, участвовали более 1000 американцев. Авторы исследования сгенерировали четыре высококачественных ролика с помощью нейросети Sora, а также выбрали четыре небольших видео, снятых на камеру в реальном мире. Респондентам в случайном порядке показывали эти видео, а их цель была определить, снят ролик человеком или его сгенерировал II. Мнения участников опроса разделились, но в 5 из 8 случаев большинство респондентов дали неправильный ответ.
Это исследование указывает на то, что создаваемый с помощью генеративных нейросетей контент становится все более реалистичным и отличить его от реального все труднее. Именно поэтому в разных странах стали чаще звучать призывы к власти по поводу необходимости законодательного регулирования этого сегмента. Среди прочего предлагается обязать пользователей нейросетей замечать генерируемый контент соответствующим образом, чтобы он не вводил других в заблуждение и не мог стать источником дезинформации.
Алгоритм Sora еще недоступен широким массам, но уже сейчас он вызывает серьезную тревогу в обществе, особенно в индустрии развлечений, где развитие технологий генерации видео влечет массу негативных последствий, например, для киностудий. Более того, все чаще поднимается вопрос о том, что подобные алгоритмы Sora могут использоваться для создания фейковых видео с участием политиков и знаменитостей, что может привести к самым непредсказуемым последствиям.
Если вы заметили ошибку, выделите ее мышкой и нажмите CTRL+ENTER.