Анон, давай обсудим генерацию видео не по промпту или изображению, а по видео образцу. Будем честны, движения персонажей в обычном АИ-видео часто очень далеки от совершенства. Даже генерации с начальным + конечным кадром не особо помогают, так как смысл движения лежит где-то посредине между ними.
Так почему бы не брать готовые видео из фильмов/вебм + видео или изображения персонажей и просто вписывать новых персонажей в старое видео? Многие последние модели это умеют. Точно знаю что WAN 2.6 может. Только вот, хули это так неудобно делать? Надо накатывать ComfyUI у себя на компе и потом через их API блять еще платить за доступ к их модели. Это не только дорого, но и совершенно неудобно. Ну нахуя мне ComfyUI на ноутбуке без видеокарты?
>>1488206 WAN 2.1 VACE это ControlNet для видео, но это не для ноутбуков без видюх, хоть и бесплатно. Генерация видео (локальная) это воообще не для слабых компов.
>>1495721 > но это не для ноутбуков без видюх, хоть и бесплатно Так это не проблема. Можно арендовать сервер с видюхой и залить туда модель, сейчас серваки со старым железом за копейки сдают.
Проблема в том что качество генерации не особо хорошее по сравнению с онлайн моделями. Чем больше генерации и меньше информации об исходном видео, тем ниже качество. Вон, у тебя классные видосы получились, но на них только от силы 30% генерация, остальное осталось от исходника.