Удивительное свойство Sora, о котором нигде не говорят

Злата Понировская
3/18/2025
Вот уже три месяца как всем подписчикам GPT Plus доступна безлимитная генерация видео, правда, с ограничениями по размеру видео и количеству одновременно производимых операций. Возникает вопрос: а что, собственно, делать с этим богатством?
Злата Понировская
AI Adoption Facilitator. Главный специалист по связям с AI в Пражской медиашколе, опытный продюсер и руководитель образовательных программ.

Ожидания vs Матрица

Ожидания от Sora были высокими. До релиза нам казалось, что создание видео сведётся к тому, чтобы его придумать. Когда дошло до дела, оказалось, что генерации дороги и нестабильны, кадры «прыгают», референсные изображения теряются, стиль не держится. Тут возникло ощущение, что Sora просто уступает другим whatever-to-video моделям, для которых уже сложились не всегда простые, но более или менее надежные рабочие процессы (workflows).

Пример Workflow из курса AI-Movie:
Cначала разрабатываем сториборд в Midjourney, а потом генерируем по готовым кадрам в Runway добавляя инструкции “оператору” в промпт.
Рис. 1. Изображение: Midjourney 6.1 - Видео: Runway - 

В этих процессах изображения и/или текстовые промпты направляют генерацию видео продолжительностью в несколько секунд, которое тут же передается на цифровой монтажный стол. Развить результат практически невозможно — после первых нескольких секунд в видео перестает происходить что-либо новое, а начинается наоборот, постепенная деградация картинки. Однако, когда мы взяли и понесли свои референсы и инструкции в Sora, предварительно внимательно ознакомившись с документацией OpenAi, которая подтвердила, что это правильно, то оказалось, что глупая модель даже с этим не справляется, и мы вернулись к своим прежним инструментам. 

Композитинг

На выходных я решила дать ей второй шанс, и, при ближайшем рассмотрении выяснилось, что  — Sora да, все-таки делает нечто абсолютно уникальное, а именно — пытается придумать, как соединить два отрезка видео так, чтобы избежать монтажной склейки.

На предыдущем этапе похожим образом влиять на монтаж мы могли только в программах вроде After Effects. C помощью композитинга, который позволяет не просто «монтировать» кадры друг за другом, а создавать совершенно новые сцены, которые невозможно было снять на камеру, достраивая недостающее из подручных средств и избегая монтажных склеек. 

В генераторах изображений мы встречаем похожую идею в инструментах inpainting и outpainting, с помощью которых можно заменить деталь в готовом изображении или  дорисовать его.

Нейросеть для Композитинга

Предлагаю так и называть – нейросеть, которая делает композитинг. К тому же у нее, как и в After Effects есть таймлайн, а значит, можно бесконечно (т.е. без ограничения по таймингу) сводить и смешивать отдельные видеофрагменты.

Концепция, давно знакомая специалистам по медиа, — поиск средств развития нарратива вне “постановочных” сцен, и без применения монтажа  — в области генеративного AI совершенно не обсуждалась. А жаль, похоже Sora, поместив композитинг в основу генерации, обращается именно к этой идее.

Проблем на этом пути, конечно же, возникает множество. Так, в частности, склейка выходит органичной, прямо скажем, не всякий раз. Это раздражает, но тут безусловно есть что-то очень человеческое: между кульминационными/яркими моментами жизни всегда находится гигантский объем чего-то не укладывающегося ни в какой последовательный нарратив.

Технические советы

На тот случай, если мне удалось временно хоть немного реабилитировать Sora, вот пара технических советов, по работе с ее (потенциально) бесконечным таймлайном.

1.

Размещайте фрагменты на таймлайне, оставляя между ними пространство (оно же — время и фреймы) для генерации перехода. 

В пространство, предназначенное для перехода можно написать короткий промпт, чтобы облегчить модели задачу. Но при этом, во-первых, не стоит полагаться на подсказки, а главное — не нужно вдаваться в детали никогда кроме самой первой генерации. (По мнению OpenAi – нужно, но пока что практика этого не подтверждает.)

2.

Смешивайте видео, используя разные варианты функции Blend — от назначения направляющего видео (Sample) до полного смешения (Mix or Custom).

 

3.

Наконец, последний совет, не относящийся, на самом деле, к композитингу: всю эту машинерию гораздо проще заставить работать, если у вас есть стилизующий пресет, — что-то вроде системного промпта или, скорее, интегрированного технического задания для оператора, художника-постановщика и осветителей, вместе взятых. 

Пошаговый гид для эффективной работы в Sora: превращайте изображения в анимацию, комбинируя разные видео, создавайте плавные и выразительные сцены, используя Storyboard и уникальную функцию Blend.

Рекомендуемые курсы

Цифровая нирвана, побег из ЧВК «Вагнер» и предложение, от которого вы не можете отказаться: что показала Системная карта новых моделей из линейки Anthropic Claude 4

Как ведут себя современные AI-системы, когда никто не смотрит.

26/5/2025

Трансформация мышления на курсе AI-Коллега

Как диалог с нейросетями помогает преодолевать ограничения мышления, глубже понимать сложные вопросы и совершить настоящий прорыв в саморазвитии.

19/5/2025

GPT с памятью как внешний модуль мышления

5 практических сценариев, как превратить GPT в карту собственных идей, теневой дневник исследователя, критика, собеседника «вопреки» и навигатора по незаданным вопросам.

12/5/2025
AI-Movie
Онлайн-курс для самостоятельного изучения. Идеальный курс для всех, кто хочет раскрыть свои режиссерские таланты и начать снимать фильмы с помощью простых AI-инструментов.
Купите - и сразу учитесь!
AI Film
Для всех, кто хочет раскрыть свои режиссерские таланты, научиться визуальному сторителлингу и снимать фильмы с помощью AI-инструментов, сосредоточившись на креативных процессах кинопродакшна.
Присоединиться
Подпишитесь на наш канал в Telegram!
И узнавайте первыми о новых курсах и стипендиях
Нравится? Поддержите нас!
Будем рады вашим донатам на любую сумму