только вкатился в ван2.1 а тут 30сек/ит на 4060ти 16гб посоветуйте норм воркфлов чтоб не 15 минут аутировать а хотя бы 5 я сам пробовал поискать но пока поел говна мб свап блок поможет там написано модель вся не лезет
>>1305349 Вкатывайся в 2.2 сразу. Качай видосы из предыдущего треда и перетаскивай в комфи. Должен быть установлен VideoHelperSuite. Ну или просто зайти в custom_node/WanVideoWrapper/example_workflows от Киджая.
Ну что вы, вановцы? У кого-то нормально получилось с новыми лайт лорами что-то генерить на 4 шагах? У меня ниже 6 качество страдает (типа зернистость появляется на видео). И, как в прошлом треде говорили, только с лоу лорой, а на хае старая лайт лора стоит от вана 2.1
>>1305862 Я уже на 8 перешел лол. И цфг хоть полторашку. Ждать дольше, но в 2 раза больше времени тратится иначе на бестолковые генерации годные лишь на удаление, в итоге вообще просто просранное время.
пока сижу еще на 2.1, заметил что лайт лора сильно меняет лицо в i2v, причем каусвид хоть и в слоумо был, но персонаж всю генерацию оставался похожим, кто знает чем фиксить?
Чет потыкался в 2.2 5B и какая-то ерунда получается. Промпта оно почти не слушает, в аниму не умеет нифига, так еще и ограничение по времени всего 5 секунд на 3090. Чем это лучше того же фреймпака?
>>1306758 И, кстати, почему фреймпака до сих пор нет в шапке, если это лучший на сегодня вариант генерации видео? Зато комфи зачем-то есть, в котором хуй разберешься
>>1306767 >И, кстати, почему фреймпака до сих пор нет в шапке, если это лучший на сегодня вариант генерации видео Никому не нужный кал с 3.5 лорами на цивите > Зато комфи зачем-то есть, в котором хуй разберешься То что ты не смог разобраться в комфи отлично показывает что ты не разбираешься в том что сейчас лучший вариант генерации видео (а это ван 2.2)
>>1306866 > Никому не нужный кал с 3.5 лорами на цивите
Толку от этих лор, если базовая модель нифига не работает?
> То что ты не смог разобраться в комфи отлично показывает что ты не разбираешься в том что сейчас лучший вариант генерации видео (а это ван 2.2)
Вот только фреймпак мне выдаёт нормальные видосы любой длины, а с ваном мало того, что ограничений куча, так еще и качество где-то на уровне плинтуса.
>>1306893 Да нафиг мне твоя порнуха? Вот тебе картинка анимешная, санимируй мне её ваном так, чтобы девочка встала, подошла к камере и улыбнулась в неё. Сможет он в такое без тонны артефактов? Да нихуя подобного.
>>1307488 >Вот тебе картинка анимешная, санимируй мне её ваном так, чтобы девочка встала, подошла к камере и улыбнулась в неё. Сможет он в такое без тонны артефактов? Да нихуя подобного. Ну давай, найди к чему доебаться. И заодно покажи пример с фреймпака
Отцы вановцы, объясните почему происходит такая штука: когда я генерю следующее видео (сид конечно же рандом) и к примеру на 70% перелопачиваю промпт на другой, меняю камеру и другие детали, то всё равно это новое видео очень похоже на предыдущее. Словно модель использует какой то свой буфер в целях экономии ресурсов или пытается угадать мои желания, ну или сохраняет какие-то значения. Починить это можно чаще всего только вообще закрыв комфи и перегрузив модель или целиком изменить промпт и сэмплер. На некоторых генерациях картинок в старом форже тоже помню подобное попадалось и это сильно бесило. Отчего это зависит вообще? Из не SD моделей где такого почти не встречалось - Хрома, она при повторной генерации может часто вообще совершенно иную картинку делать, прекрасно понимая любые изменения промпта. Это от модели зависит или нет? Пробовал разные энкодеры и пока что выяснил что от энкодера точно не зависит. Попадается и в обычном ван2.1 релизном и в ускоренных лайт вариантах для low cfg
>>1307546 Не, я точно не любитель навороченой наркомании, совершенно стандартный воркфлоу почти как в шаблонах комфи на их вики, в нем только нужные лоадеры, powerлора для лор, ван2видео, ksampler, videocombine, вот прям вообще ничего лишнего. Пробовал разные воркфлоу с цивитая и везде эта штука попадалась. Мыслей как это победить без полного перезапуска комфи и перезагрузки модели пока нет, может пакостит какая то хитрожопая буферизация или оптимизация со стороны то ли питонового бэкенда то ли самого комфи.
Объясню на примере как это у меня выглядит. Допустим загружаем стандартный шаблон wan2.1 t2v и все указанные там модели, пишем стандартный промпт из комфи про бегущую по снегу лису. Сид рандомный. Правильно ли я понимаю что при каждом нажатии Run лиса может меняться, быть больше меньше бежать в разных направлениях с разной интенсивностью и будет меняться угол обзора? Вот у меня, к примеру хоть 10 раз ничего не меняя Run нажмешь и все 10 видео будут крайне незначительно отличаться, лиса будет бежать примерно одинаково в ту же сторону, возможно слегка фон будет иным, но не сильно, т.е. всё выглядит так что sid нифига не рандом, а работает как вариационный с незначительным отклонением.
>>1307539 Красава анон, хорошо приложил фреймпакодауна, уверен что фреймпак обосрется с такого реквеста, ну оно и сразу было понятно, нормальные люди бы пример с фреймпака приложили к картинке дабы продемонстрировать "величие" фреймпака.
Спустя тысячи полторы генераций вернулся к тому из за чего собственно начал. Мечте анимировать данный пик. Блядь, как же просто напихать кума и вытряхнуть во все дыры простую бабу на фото, не то что с артами. Вроде что-то получается, но совсем или не совсем то что хочется. Плюнул в итоге и сделал костыльную склейку. Обожду до новой видюхи, я ебал столько ждать всякий кал, как тут модно говорить.
>>1307541 +1, тоже не могу разобраться с этой хуетой. Если разберешься, маякни. Я пробовал даже cfg поднимать с 1 до 3.5, один хуй, мало толку. Подозреваю что этой ржавой хуйне надо писать неебически подробный промпт с описанием движения каждой молекулы в кадре.
>>1307750 В любом случае там будет лапша, вот мой ВФ для генерации 4 последовательных видео для ван 2.1, если 2.2 будет - считай все на 2 умножать надо как минимум.
Но это если для каждого видео отдельные лоры подставлять, если просто последовательно на одних лорах генерировать то только правая часть понадобится.
>>1307633 Справедливости ради, хуйня же. Фреймпак хорош в idle-анимациях и быстро генерит до 2 минут. Всякие танцы и еблю, если хочется долгое, лучше генерить там, 100% проверено. Но это ситуативно очень, в большинстве случаев лучше генерить короткие ролики, а ван2.2 с промптом работает отлично, фреймпак куда слабее в этом плане, ибо модель старая и файнтьюн сам по себе экспериментальный, главное там работа атеншена. =) Это же пруф оф концепт, по сути.
Правда, нахуя юзать фреймпак не в комфи — тоже не очевидно.
>>1307759 Видеокарта влияет только на разрешение и количество кадров. Хоть на 6 гигах генерь, хули.
И, да, я специально проверял — генерил и фреймпаком, и ваном на 6 гигах. =) У фреймпака тоже выгрузка модели в оперативу, и тоже объем врама влияет только на разрешение (а количество кадров уже без разницы за счет механики контекста).
———
Но вообще, ИМХО, он троллит, а всерьез фреймпак даже не запускал.
>>1307854 Есть хоть один пример айдл анимации с этого фреймпака, ну хотя бы 30 секунд. Только и разговоров о том что он хорошо в ней, а по факту 2 ролика всего было когда он вышел и все, качество роликов при этом было отвратительное на уровне хуньюаня.
>>1307541 используешь teacache? может быт из-за него.
>>1307759 >Отлично, а теперь давай так, чтобы это на обычной карте с 24 Гб VRAM можно было сделать. лоооооол, у меня первое видео из этого поста >>1306893 сделано за 6 минут на 3070 с его 8 ГБ (если разгоняться, можно и за 3 минуты).
>>1307859 Я кидал в прошлых тредах. И кучу не кидал. Люди просто не хотят видеть, потому что это рушит их маня-мирок. Но сейчас, де-факто, она не нужна, канеш. Следование промпту > 2-минутной идл анимации. Плюс, лайтв2х слишком геймченджер. Пусть хуньюан вдвое быстрее вана, но 16 степов против 4… ну ты понял.
Типа,это для очень сильно любителей, для узких задач. При всей моей любви к фреймпаку, я его не запускал уже месяца два, с момента первой лоры-ускорялки.
Если бы к вану еще приделали атеншн фреймпака и дообучили на 2 минутах — цены бы ему не было. Но это мечты.
Сам спрашивал про длинные видео сам и отвечаю. Как раз после моего поста выложили такой ВФ https://civitai.com/models/1851648/wan22-highspeed-freelengthloop-processing-i2v-workflow-for-your-scenario Компактный и красивый, в котором даже ллм подтянули если надо (можно выключить). И интересная штука используется для того, чтоб вф понимал сколько тебе надо видео сделать, какой длины в секундах и какой промпт в каждом видео. В промпте пишется например 5| твой промпт. На следующей строке 3| и твой промпт и так далее.
>>1307756 ночью сидел пытался с этой хренью разобраться, да просто генерил туеву хучу мелких видосов 208x208 с разными параматреми, всё очень на похоже на ваше предположение. т.е. часто наблюдалась определенная зависимость количества описания деталей и последующего изменения в последующих результах (при одинаковом cfg), т.е. условно если не описать что 'негритянка лежит на черном диване с фиолетовой подушкой' то модель всегда будет рисовать какую то одинаковую морду на базовом белом диване одинаковой формы и размера. Странно что некоторые модели почти нечувствительны к такому и очень хорошо 'фантазируют' без каких-либо деталей, а вот у других моделей подобная хуета не редкость. Тут должен появится эксперт по бэкэнду моделей чтобы объяснить почему так работает :) Конечно можно сидеть спокойно на i2v уже со своими готовыми исходниками, но иногда требуется что-то с нуля сделать в t2v и вот там эта хуета сильно мешает креативу.
>>1308314 > 'фантазируют' без каких-либо деталей я еще с самого выхода в опенсорс вана заметил, что например на спейсе в хагге у них выходили куда более детальные видосики, и как я предполагаю, там у них просто под капотом стояла ллм-ка, которая ревайзит промп и добавляет деталей и описаний. У них даже в заметках на gitхабе где-то была ссылка на нейкую хрень, для помощи в генерации промптов, но так и не уделил внимания. Во нашел заметку https://github.com/Wan-Video/Wan2.1?tab=readme-ov-file#2-using-prompt-extension
>Конечно можно сидеть спокойно на i2v да в том то и прикол, что у меня и на i2v бывает вариативности ноль, со сменой сида, например, в каждом следующем видео одни и те же движения в тех же направлениях..
>>1308212 >показатель прогресса какой блядь прогресс, сука, уже 2 месяца одно и то-же настоебавшее говно! У вас там с фантазией хуёво совсем? Или своего нихуя нет, подрезал вф у китаёз и давай клепать... Нету меры - нет мозгов.
>>1308351 в одинаковую сторону подумали, я как раз на основании вчерашних экспериментов запланировал в воркфлоу кастомные ллм добавить, для того чтобы 'побогаче' промпты стали
>>1307541 >>1307756 >>1308314 Ван тут причем? Это обычнейшее поведение любой лоры, сильно ограничивать базовый стиль модели, пока руками не начнешь лезть всё править. Хотите креатива юзайте ван без ускорялки
>>1308469 в базовых шаблонах как раз никаких ускорялок, при этом отсутствие 'фантазии' у модели встречалось постоянно, но кстати в wan2.2. намного лучше с этим, сейчас провожу тесты с маленькими промптами и она довольно часто меняет и фон и персонажей и положение просто при нажатии run без каких либо изменений в промпте или в параметрах сэмплеров, а лоры вообще не при делах, я накидал ради интереса ускоряющих лор, по прежнему всё довольно разнообразно, так что тут дело видимо все же в самих моделях и как они внутри себя обрабатывают данные
челики, я что-то не одупляюсь, решил для теста скачать t2v wan2.2 fp8 scaled модельки, сунул обычные юнет ноды вместо ггуф-овских и в результате получаю какую-то хуету, типа той, как если лепить 4-8 степа без ускорялок, т.е. молоко... ЧЯДНТ ? т.е. я тупо поменял модели с ггуф на фп8 и по логике же всё должно быть заебок? фп8 брал у комфи на хагге
>>1308843 Я все еще жду брандспойты с кефиром и горлоеблю, уже целых 8 часов анон ничего не выкладывал, у меня аж ломка началась, я весь трясуся. Анон, не издевайся, выложи хотя-бы скрин своего в очередной раз переработанного (улучшенного в тысячу раз) форкфлоу, ну нельзя же так издеваться! Имей совесть...
>>1308865 Бля это забавно >>1308035 Глянул твой ворк и увидел пачку из 5 других лор по мимо ускорялки, но реально снижение веса на high лоре увеличивает мувмент.
>>1307798 >>1307901 Ван на 14В требует 80 Гб VRAM, вы нафига троллите? На моей 3090 он вылетает с ООМ даже не начав генерацию.
>>1307854 > Видеокарта влияет только на разрешение и количество кадров. > Хоть на 6 гигах генерь, хули. > И, да, я специально проверял — генерил и фреймпаком, и ваном на 6 гигах. =)
Вот только у Вана всего два разрешения - 480р и 720р, никаких других вариантов нет. Модель на 5В и вовсе умеет только 720р. Сколько там кадров влезет в 6 Гб, десять? А тут якобы чел запустил 14В модель и ей сгенерил видео на 5 секунд на 4090. Пиздеж же очевидный.
> Но вообще, ИМХО, он троллит, а всерьез фреймпак даже не запускал.
Фреймпаком я как раз пользовался. Его результаты меня не то чтобы впечатлили, но для некоторых задач сойдет. Просто было интересно понять, почему все так фанатеют от Wan, если он по всем параметрам проигрывает... Не, я допускаю, что имея доступ к H100 можно получить неплохие результаты, но для домашнего использования он не годится.
>>1307855 До дома доберусь - попробую, если не забуду. Только будет это ХЗ когда, так что тебе проще самому сделать.
Блин конечно теперь такой нестабильный подход к генерациям. 2 вида ускоряющих лор 21 и 22, которые на удивление все работают с новой версией модели 22. Их все можно между собой миксовать, раскидывать веса и прочее, применять их можно по отдельности на разные модели, как high так и low. Старые лоры тоже ведут себя по разному в зависимости от этого, так ещё и переход от high на low можно дозировать. Просто пиздец какой-то. Не чувствую обещанного comfy
Еще отключи в NVIDIA настройку которая мешает выгружать модель в RAM. Даже с моделью в подкачке, при подключении лоры на генерацию за 4-6 шагов, выходит норм.
Что в словах > This command can run on a GPU with at least 80GB VRAM. тебе не понятно? Если ты знаешь какой-то секрет - так расскажи, я только спасибо тебе скажу.
>>1308935 Почему wan 2.2 можно запускать на 12ГБ VRAM: Модель Wan 2.2 оптимизирована для локального запуска даже на видеокартах с 8–12ГБ VRAM, причём 12ГБ уже вполне хватит для большинства сценариев. Это стало возможно благодаря использованию более компактных весов (квантизация) и продвинутой архитектуре типа Mixture of Experts, где разные модули отвечают за «скелет» движения и детализацию отдельно. За счёт квантизации и оптимизированных алгоритмов модель уже не требует фермерского железа – достаточно даже обычной RTX 3060 или 4060.
Что такое lightx2v: Это лёгкий inference-движок для видео-генерации, который работает с различными моделями (включая Wan2.2), поддерживает T2V (text-to-video) и I2V (image-to-video), и реализует быстрые алгоритмы генерации. Lightx2v позволяет сильно ускорить вывод и экономить VRAM: вместо стандартных 20 шагов генерации можно уменьшить до 6, не теряя сильно в качестве. А квантованные версии моделей (например lightx2v-rank32) используются для оптимальной работы на слабом железе.
Про квантизацию: Квантизация — это тупо сжатие весов модели: вместо 32-битных чисел они превращаются в 16 или 8 бит. Модель становится меньше, быстрее грузится и жрёт меньше VRAM, а разница в качестве если и есть, то минимальная. Благодаря квантизации теперь даже жирные модели типа Wan2.2 можно прогнать локально, а не через облако или арендованный A100.
>>1308940 Вместо того, чтобы срать нейропортянкой с очевидными сведениями, мог бы просто сказать "чекни lightx2v". Вот эту штуку я не видел, и в шапке её нет. И на том спасибо. Установка, правда, какая-то геморная... Но ладно, разберусь.
>>1308955 >Объясни. fp8 модели, позволяющие запускать ван на видюхах с 24 гб врам и меньше появились спустя неделю после выхода вана, ты или дурачок или троллишь, я хуй знает. полистай треды, тут и с 12 гб генерят видео и с 8гб видюхами, да не в 720p но 480p тянет спокойно с оффлоадом в оперативу, мин 5 генерить будет с ускорялкой я думаю, владельцы этих видюх скажут точно если надо
>>1308955 Ну как бы да, тут если хочешь нормальную генерацию себе локально, надо немного руками поработать. Всё современное оно такое: либо ковыряешься сам, либо платишь за облако. Без погружения и самостоятельного разбора вообще никуда, особенно с open-source штуками типа lightx2v — там каждый апдейт как квест.
Короче, если хочется «кнопку — и всё работает», лучше даже не начинать. А если реально разобраться хочется, придётся покопаться, ну и гуглить по-любому. Зато потом будешь знать, как оно всё внутри устроено.
>>1308960 У меня выше был вопрос - как эти кванты скормить референсному коду из репы? На него никто не ответил. Чел выше насрал выхлопом нейроты, из которого полезного ровно одно слово - lightx2v. И за это спасибо. И если бы мне его дали сразу, не было бы этого всего срача.
>>1308964 Я не совсем корректно выразился. Не столько "геморно", сколько "мокрописечно". Всего два варианта независимой установки, или докер, или конда, оба мне не подходят. Буду ковыряться, значит.
>>1308955 >очевидными сведениями bruh, ты два сообщения выше спрашивал элементарную базу, все уже 1000 раз обсосано в прошлых тредах, почитай немного...
>>1308970 Мини когда заебись, буквально за 3 строки ставится вся параша, если хочешь вкурить тему, то так будет даже лучше
>как эти кванты скормить референсному коду из репы Буквально нахуя? Чтобы что? Не заебался не поработал? Есть варианты инференса для людей, нахуя тебе эти качели?
>>1308970 >Всего два варианта независимой установки, или докер, или конда, оба мне не подходят. Буду ковыряться, значит. Я хуй знает через что ты там собрался пердолиться, но с ваном все работают через comfyui, как его поставить без особого пердолинга на ютубе полным полно гайдов
>>1308974 Никакой "элементарной базы" я не спрашивал.
Репозиторий LightX2V на гитхабе появился 24 марта 2025 года. Я понимаю, что по меркам современных моделей ИИ это ебать как давно и почему его в шапке нет до сих пор?, но лично я об этой штуке впервые услышал только сейчас. Квантованные модели Wan я видел, но код из официальной репы с ними, очевидно, не работает, а куда еще их приткнуть я понятия не имею, и НИКТО мне об этом даже не попытался сказать. Начали кидаться говном вместо того, чтобы потратить минуту времени и дать ссылку. Почему-то решили, что я не знаю, что такое квантование... Блядь, дебилы ебаные.
>>1308976 > Мини когда заебись, буквально за 3 строки ставится вся параша, если хочешь вкурить тему, то так будет даже лучше
Не, мне не нравится конда. Ну вот такой я ебанутый. Я и pip-то с трудом переношу.
> Буквально нахуя? Чтобы что? Не заебался не поработал? Есть варианты инференса для людей, нахуя тебе эти качели?
Буквально потому, что никаких других вариантов инференса мне никто не подсказал вот до этого >>1308940 сообщения.
>>1308979 Нет, я лучше сдохну, чем этот ебаный комбайн буду ставить. Он меня еще по генерации картинок люто заебал, выкинул его нахуй и сижу на фордже. Если LightV2X можно юзать без этой дряни, буду юзать его без этой дряни.
>>1308993 >Нет, я лучше сдохну, чем этот ебаный комбайн буду ставить. Он меня еще по генерации картинок люто заебал, выкинул его нахуй и сижу на фордже. Если LightV2X можно юзать без этой дряни, буду юзать его без этой дряни. Нельзя, увы. Придется тебе терпеть без видео и смотреть как другие генерят их в 2 клика за минуту.
>>1308994 В документации описано два способа standalone-установки и использования. Оба мне не подходят, но как минимум это означает, что его можно юзать независимо. В общем-то, в докер-файле все нужное описано, нужно просто проделать аналогичные действия в обычном venv.
БАМП вопросу >>1308701 закинуф опять ггуфы, все норм, нипанимаю.
а ещё подскажите хорохую модель апскейлера (для простой ноды апскейл с моделью), желательно 2х Я юзал BSRGANx2, чет шакалит, 4хClearRealityV1 получше, но ч4 излишек.
>>1309019 Короче стало ясно, что весь мувмент умирает от низкого cfg на high модели, а лора не сильно это все дерьмо спасает, подъем на любое значение выше 1 - увеличивает скорость гена на этом этапе в два раза. Если поднимать все же cfg на первом семплере, но делать не 10 степов, а 5 (подмешивая лору примерно на .25) и добивать это дело low noise моделью на cfg 1, то получается весьма живенько
Лол кто там пиздел, что скайнет близко? Мне сгенерировал klingai вот такой пиздец, когда я хотел аниме опенинг с порриджами Я взял нормальный промпт, а мне выдали такой кал. High-energy shonen anime opening, dynamic sakuga, cel-shaded, speedlines, smear frames, dramatic lighting, night city ambience, crisp lineart, vibrant colors, J-rock 160 BPM. Main character: use REF_HERO as reference — youthful “zoomer” face, round glasses, open mouth expression, meme vibe but stylized as anime protagonist. Scene 1 (under Japanese credits): interior, late night desk with pens/markers. Over-the-shoulder shot: the hero quickly draws and shades a poster; close-up on strokes and marker squeak. He raises the finished poster toward camera — use REF_POSTER exactly for the poster art (keep the text as on the image). Soft paper flutter, lens bloom. Japanese credits in white vertical type (ゴシック体) slide from top. Hard whip-pan transition on drum fill. Scene 2: villains appear one by one, each on a beat, low-angle reveals with name cards in Japanese:
Clock-Hands Villain — tall, slender, face like a clock dial, metallic gauntlets shaped as long clock hands; ticking SFX; cold silver highlights.
Beer Keg brute — squat barrel body with steel hoops, tap-fists, foam bursts when he punches.
Trash-bin ninja — urban green bin with hood-like lid, throws trash-shuriken, gritty alley dust. Finally, their boss steps from shadow — it is the same character as on REF_POSTER; the poster flies past and lands at his feet. All three underlings align behind him. Hero clenches fist; wind blasts, speedlines; freeze-frame standoff, logo splash, particles. Camera: dolly-in, whip-pan, quick push-ins on beats, 24 fps anime timing. Subtitles/credits: Japanese vertical names at screen edges, do not cover faces. Keep tone heroic, not comedic. Ultra-clean edges, no photorealism, anime TV-opening look.
Negative prompt: photorealism, CGI plastic skin, oversaturation, extra limbs, deformed hands, text warping on poster, glitch faces.
Эта поебота никогда не заменит реальную съемку. Просто потому, что для генерации связанного видео ресурсы растут экспоненциально. Когда делается склейка - по сути новая генерация, то покадровый контекст перестает быть связанным, начинаются логические нестыковки, меняется форма объектов и т.д. Я ещё не видел ни одного видео дольше 20 секунд, которое не содержало бы артефактов. Минута, максимум две - это вычислительный потолок для нейрохуйни в динамических сценах без заментных для глаза артефактов. В статике может минут на 5 выжмут. Пруфмивронг
>>1310254 Автомобиль никогда не вытеснит лошадь; Мобильный телефон никогда не заменит стационарный; Компьютеры никогда не заменят бумагу. И т.д. Придумают перма/сперма память типа лор или прочей залупы, будут клепать нейро игры, нейро фильмы, нейро что-угодно, прогресс не остановить, просто ты взял текущее состояние, а именно зародыш и выставляешь ему требования, потерпи и удивишься
>>1310254 >Когда делается склейка - по сути новая генерация, то покадровый контекст перестает быть связанным, начинаются логические нестыковки, меняется форма объектов и т.д. Принципиально, это вполне можно вылечить просто двигая контекст, так, как сие происходит с текстовыми моделями. Т.е. примерно так: рендерим 5 секунд, отбрасываем самую раннюю секунду и рендерим еще одну - с учетом оставшихся 4-х. Повторяем. А детали персонажа держит лора.
Как понять что я скачал... На помойном цивите, естественно, это уже удалили. Попытался даже сопоставить историю просмотров и время загрузки, но тоже не находит удаленной лоры. У вас нет её с подгруженной метой? Алсо, как через PowerLora вызвать синхронизацию меты сразу для всех файлов и папок, а не дрочить их по одной? Видать, через скрипт, но как?
>>1310725 Вот это самая большая проблема с лорами, триггерные слова хотя бы вшивались куда то где их достать можно было, а то дофига вот таких называторов "C400_XDkass_kka" и понимай как хочешь что это такое и инструментов нет, благо хотя бы можно посмотреть для какой модели лора.
>>1310264 Ага. Только вот: Термоядерный синтез соснул. Космос соснул. Топливные элементы соснули. Квантовые компьютеры соснули. Нейроморфные чипы соснули. Самое близкое и что видели вживую все - VR соснул, а какие надежды были. С нейронками сейчас никаких границ не видно, но кажется, что их скрывает не ослепляющее сияние светлого будущего, а пердежный туман хайпа. Короче физика всех поставит на место.
>>1310900 >Э не браток, вот тебе пример как раз с движением контекста В виду, допустим, ты кидаешь реф на место, и +\- у тебя окружение соответствует референсу. На лоКАЛе это же можно с помощью васи делать (бэкграунды я там не проверял). Так же простой способ обойти ограничение - зеленый экран. А помещение можешь потом отрендорить. Но я б конечно не стал фильмы с нейрокалычем снимать. В индустрии Джо Сталины стоят в очередь за миску чипсов и они делают строго как им скажешь, максимум надо рольнуть 1-2 раза, а не 90 000 на фильм.
>>1310264 Удобно выбирать удобное. Чё-как там клауд гейминг, чмонь? Стадия небось бабки щас лопатой гребет, датацентр третий в техасе строят? На фоне дефицита гпу это же золотая жила! Ой, как в США нет нормальной скорости в интернете? Как в РФ два кабеля на 70% территории? А что случилось?
>>1310909 >триггерные слова хотя бы вшивались куда то где их достать можно было Ты не поверишь... В лорах вшита метадата в начале файла. И триггеры там. >инструментов нет Открой hex-редактором
>>1308870 Движение между склейками не сохраняются, также то что за пределами кадра тоже не сохраняется. Если с движениями еще можно решить, для этого нужна модель которая бы принимала на вход не один последний кадр, а несколько, ну как это делал VACE или skyreels v2. То сохранение истории всего контекста это наверное нужна вообще другая архитектура модели, с возможностью отвязать контекст от изображения, или учитывать все предыдущее видео для генерации нового кусочка, сделать такое брутфорсом наверное не получится из-за оом, нужны именно какие-то алгоритмы чтобы модель на вход брала все видео, частями его анализировала и учитывала для генерации нового.
>>1310922 +\- не равно такое же, будут вещи плавать при повороте камеры, ии начнет путаться что куда подставлять, ему надо как то давать 360 градусов карту окружения, тогда возможно он будет пытаться сохранять окружение, правда его надо сперва научить ею пользоваться. Видел подход в блендере на скорую руку мастерят окружение выставляют камеру и персонажей и делают промежуточные кадры потом прогоняют через нейросеть и получаются относительно неплохие, консистентные видео, даже без тренировки лор (но тут модели персонажей нужны, что нифига не легче)
Вообще там одни сложности, консистентность персонажа даже с лорами остается под вопросом стоит ему немного уменьшится на кадре. Чем ближе он к камере тем лучше качество и детализация - чем дальше тем больше в мыльную парашу превращается, такое даже на вео3 видно.
Склейка тоже нифига не простое дело даже при последовательной генерации ии воспринимает последующую генерацию как новую, и если скажем там по позе персонажа не будет очевидно что он делает сетка может запутаться. Опять же на том видосе >>1308870 очень хорошо эти видно после того как он пинает мусор, отходит назад и останавливается в позе где не понятно они идет вперед или назад, по факту он заканчивает движении назад. Но тут наступает следующая генерация с промтом "идет вперед" и он не закончив шаг назад сразу шагает вперед.
И таких нюансов куча, не говоря уже что потом часами надо остматривать досконально весь нагенерированный материал. Там в культовых фильмах под старину самолеты и современные часы умудряются проглядеть, а тут ии нагенерить может целую кучу подобных артефактов на квадратный сантиметр экрана.
В общем слишком много сложностей при в целом не очень понятных профитах.
>>1311213 >игровые движки и кино это немного разное ну и движки уже используют в кино, в том же мандалорце задник на анрил энджн, да и 3д генерация сейчас уже начинается. А потом все скомбинируют и всё...нужны только денежные заинтересанты всего этого.
>>1311083 >так вот же по факту зачатки ИИ игр Хуйчатки. Они не могут просто видео стримить, стадия умерла, а ты предлагаешь стримить+генерить на скороварке. Ебанутый?
>>1311301 ты еблан сам себе напридумывал что-то, а меня спрашиваешь. где я тебе написал, что это будет для простых смертных транслироваться? Суть в том, что это реализуемо, тупень ты неотесанный. На данном этапе ты корпам нахуй не нужен. Да и стадия - это просто удобный для случай. Передавай привет соне\майкам\нвидии и боже упаси вкшечке
>>1311303 ну а что, когда человечество придумало колесо, в ту же секунду не появились автомобили и велосипеды. Придумав реактивный двигатель, они сразу же не улетели в космос. Всему своё время. Я канешн понимаю, что современный тупой скот взрощенный на фортнайте и тиктоке хочет всё здесь и сейчас, но он может пойти нахуй и подождать. Люди раньше добираясь из пункта А в пункт Б детей из пиздюков в охотников выращивали)
>>1311287 Там используют движки для рендеринга сцен, а в данном случае нейросетка заточена чтобы генерировать игру, разные цели и задачи. Такое можно использовать ситуативно только, в паре сцен, целый фильм не снимешь.
>>1311325 Ты говоришь с позиции сейчас. А там тебе не тридесцену нарисовать. Нет даже инфраструктуры чтоб видео стримить, понимаешь? Только на её развитие уйдет лет 200. Когда-нибудь - да. Но сейчас это как в 17 веке глядя на фейерверк говорить что ты в космос на нём улетишь.
>>1311312 >Суть в том, что это реализуемо, тупень ты неотесанный. Я за последние три дня сгенерил где-то 2 часа суммарно нейровидео. За полгода - можешь себе представить. На кого-ты сявку разеваешь, ебань? Сделал три пятисекундных ролика в веоговне и потёк? Ебало подвали, в отличии от тебя я понимаю технические ограничения трансформеров.
>>1311326 да нахера вы мне всё это рассказываете? вы тут ей богу как трамваи однорельсовые. Калькуляторы когда-то тоже могли только в сложение и вычитание.
>>1311330 >лет 200 ебать, алло, 100 лет назад люди не знали что такое реактивный двигатель, про космос только слышали, а уже Вояджер 1 уже 47 лет 8 месяцев 25 дней летит в космосе.
Я уже на встройке проца могу дум3 пройти на максималках. Алё. Пиздец вы.
>>1311333 >а уже Вояджер 1 уже 47 лет 8 месяцев 25 дней летит в космосе. Чё как там база на луне? Сколько ОС вокруг Земляшки? Какие планы там на отечественный космотуалет?
>>1311345 >шел бы ты нахуй петушок То есть ты в двойне тупорылый.
>но про другие ты конечно же промолчал Так ты ебло тупое, вконтакт забрал мейлсру, а другое - это локаизация серваков нвидии в РФ. Ты где про это слышишь? Кто этим пользуется? Там очереди небанутые, цены тоже. Лаги моё почтение. Клаудгейминг помитмо прочеего, если ты не в курсе, добивали майнеры.
Скачал этот ваш фрейпак снова, но чуда не случилось, на 6 гигах как не работал так и не работает, ООМ даёт. Я думал за это время они там пофиксили его. Тут бегал гуру фреймпака, рассказывай, как лечить?
>>1311425 Кал там, есть уже ван 2.2 с ускорялкой, там и физика и понимание промпта и консистентность. Лучше 4 раза по 5 сек генерить чем идлепак на хуйняне.
>>1311452 >ван 2.2 Да знаю я что он есть, юзаю. Просто тут недавно один за фреймпак топил, вот и решил снова прочекать. Как обычно 30+ гигов хуйни накачал и не стартует.
Может кто шарит, есть ссд на 500гб, когда на нем в районе 100гб свободных, комфи и другие приблуды для генераций начинают оч долго грузить модели, примерно раз в 10 медленнее, чем если есть 130+ гб свободного места, сам комп тоже дико лагает, при этом скорость самой генерации такая же,игры и тд все без лагов идут также, как то можно это пофиксить кроме покупки доп ссд/освобождения места? Вроде памяти то дохера еще свободной