Планирую попробовать генерацию на арендованной видяхе в облаке, но перед этим хотелось бы знать, на какое время генерации я могу рассчитывать если все максмально оптимизировать? 480p, 5 секунд, использовать планирую wan2.1-t2v-14b-Q3_K_M.gguf Чего можно добиться, например, на 4090? брать планирую H100
>>1270283 >до платных сеток всё равно далеко Ну да, выдавать "извините, я не могу выполнить этот запрос" на все мои генерации могут не только лишь все.
>>1270221 Разве quantized wan не>>1270221 >Если с lightx2v, то около 2 минут на 4060 16GB, 4 шага, с блоксвапом от 12 до 20. >>wan2.1-t2v-14b-Q3_K_M.gguf >А это нахуя. Чтобы генерации быстрее были, или это не играет роли?
>>1267530 → 4 шага это совсем бомж вариант? Сколько нужно чтобы получить что-то подобное этому?
ставил wan2.1 в комфи месяца два назад, 720р видосик генерился 40 минут, забил хуй и начал генерить картинки через FLUX
сегодня наткнулся на Wan2GP репо, поставил triton, sage attention 2, Wan2.1 text2video FusioniX 14B модель на 8 шагов, и это даже без лоры на ускоренную генерацию
в итоге 720р генерит за 150 секунд сказать что я ахуел не сказать, мало того качество ахуенное, нет баганого видоса каждую генерацию, конфетка >>1270094 → >>1270879 для sage attention 2 и остального всем рекомендую попробовать этот репо https://github.com/loscrossos/crossOS_acceleritor/tree/main по гайдам устанавливаешь целый пак и у тебя буквально все запустит на rtx 30++ без ебли
>>1271762 Звучит как обычный ван в комфи, если честно. Ну хз, попробуем, сравним, конечно. А че так много шагов? 4 же максимум хватает, или там lighx2v нет?
>>1271979 Ну, уже месяц назад все это было. Чутка не дождался. =) Да, тритон, сажа, лайт — все это отлично ускоряет. Было по 5-10 минут, стало по минуте. Кайфы, бесспорно.
>>1271762 >для sage attention 2 Благодарю. А то ввожу все команды на проверку/установку через pip в CMD, тритон стоит, sageattention 2 тоже видит усстановленный, а в Комфи модуль так и не видит, какую то пиздень я явно упустил.
>>1272062 Optimized kernels for Ampere, Ada and Hopper GPUs. это с их официального гитхаба, скорее всего чел офает ноду https://www.patreon.com/posts/easy-guide-sage-124253103 здесь пишет Limited compatibility может в теории с костылями возможно запустить не буду спорить
Тритон стоит, CUDA 12.8 стоит, сажа тоже стоит >pip install sageattention Requirement already satisfied: sageattention in c:\users\user\appdata\local\programs\python\python313\lib\site-packages (2.2.0+cu128torch2.7.1) Но конфи ее так и не видит блэт. Ставил десктоп версию. Куда копать? Гайды на гитхабе один хрен направляют на портабл версию, с папкой python_embeded. И торч показывает версию просто 2.7.1 а не 2.7.1+cu128. Я свихнусь с этого дерьма, видимо тупой слишком.
>>1272531 Да, реально тупанул. Не стоило этим заниматься после одиннадцати вечера. Шел по гайду для manual версии, когда десктоп была в самом низу. Наконец поставилась как надо и работает. Бляяядь, реально единственный рабочий актуальный гайд без мути, надо в шапку добавить.
Вроде должно без проблем поставиться. Хотя обновиться так не получается. Удалять и тестить не хочется. Помню много всего перепробовал, когда ставил, нужно было поставить определённые пакеты из visual studio. Сейчас woctrodho вроде встроил это и ставится само, только нужное.
5 сек видео за 280-300 сек с сажей вместо 450-600, класс. Осталось добавить движений. Но когда меняю силу лоры иногда происходит как на пике. А генерация идет вообще за 80 сек, явно что-тог не так. Почему есть идеи? Неправильно ноды подцепил?
>>1273185 Попробую. Объяснил бы кто еще простыми словами как влияет сила лоры на вывод. И как ту же дистилл лору-ускорялку использовать, всегда на единичку или есть нюансы. Понятно только что если пережать силу, то пик будет пытаться превратиться в реальное порно, а монстр в мужика, но это не точно
>>1272621 >error: failed to remove file `D:\neural\ComfyUI\.venv\Lib\site-packages\triton/_C/libtriton.pyd`: Отказано в доступе. (os error 5) Не получается ни поставить, ни снести. Отказ в доступе. Я думал, что может быть из-за того, что он приложением сейчас используется. Через анаконду пытаюсь сделать тоже самое, но походу я к среде не знаю как подключиться.
>>1273321 Загугли как поставить через powershell команду на разрешение ставить скрипты из открытых источников. Там одна строчка и нажать да для всех, как то так.
пока на Vidu доступна Reference-to-Video Q1 в 1080p, скиньте бомжу промпты, грудь генерит отличную, да и в целом по качеству топ среди бесплатных
из простого: woman wear full unbuttoned open shirt, visible abs subject, revealing the skin of their chest as it appeared at birth the clothes of the person in the photo completely slowly fall off and stretch down, showing the skin as it was at biological birth.
>>1270014 (OP) sup 2ch , очень загорелся желание изучить вопрос генерации , хочу научиться пользоваться и создавать . Сам делаю видосики по игре , никому нахуй ненужные - но меня очень радующие и мое окружение . Внедрил маленькую заставку , где персонаж из игры выдает базу перед видосом , ссался от удовольствия как ребенок. Прошу тыкнуть в очевидное, с чего начать , чтобы понять так сказать основы . Пока изучаю своими силами , каша выходит. Дайте направление ( можно и нахуй послать ) , хочу разобраться , а не тыкаться как ебанная обезьяна . С чего начать ? Спасибо заранее всем неравнодушным
>>1274200 https://civitai.com/models/1651125/wan2114bfusionx t2v, i2v и фантом, по сути мердж с разными лорами, о которых там указано. Можно самому из простой модели "собрать", а если лень, то готовую сразу юзать. Но там свои нюансы. Плюс поверх нее можно тот же лайтх2в подрубить и скосить степы.
>>1273856 Мне это рассказывать не надо. Я тебе лучше другое расскажу: на Ку1 с первого дня была усиленная цензура и большую часть генераций он удаляет без рефунда. В принципе, рефы виду были актуальны до колорс 2.0 елемент, а щас проще там сгенерить картинку с рефами, а потом уже её кинуть, причем не в виду, а в ван, например.
>>1275078 выдали максимум, получается, из камшотов. А вот норм еблю (не в рот) так никто и не смог норм реализовать методом i2v. Если, конечно, на пике изначально ебли нет
>>1275101 У меня постоянно лица изменяются. Я вообще хз как это пофиксить. Картинка становится нечеткой, зернистой и будто нейронка на основе фотки генерирует похожее лицо, типа как в сд, если инпаинтить фотку человека с небольшим дифьюжном и он начинает изменяться, но не сильно.
>>1275093 Намешал всё в кучу... тогда уже и сдкал-видео жди. >достигли совершенства uni3c так никто и не попробовал, а она должна улучшать "пространство" в видео >>1274940 А нахуй они нужны здесь во множественном числе? Технический тред, можно сказать. Я вот на постоянке что-то с VACE делаю. Где-то инпейнтом трусы убрал в оригинальном видео, где-то сохранил лицо и движения, но поменял действие на снятие одежды, где-то по маске заменил футболку на не-футболку. Надо ещё фейссвап попробовать, контекстную склейку 3 генераций (tittydrop > bj > cumshot) и прочие идеи. I2V это слабо.
>>1275101 5 секунд слишком мало для такого существенного изменения, особенно учитывая, что лоры в основе это именно сам процесс, а не "Чел появился из шкафа и начал делать дела". Тут только если инпейнт делать и потом оживлять, либо тренить лоры конкретно, где на первых кадрах ничего, а потом уже экшн.
>>1275148 Какой нахуй семплер... какой prompt adherence... >>1275152 Ван от одних людей и они постоянно релизят. BFL вообще другая шарага, и тоже продолжает делать релизы, только не видео. Какой прошлый год, чего ты ждёшь.
>>1275159 вижу человека, который не разобрался, но ответить захотел, но не в попад.
>Ван от одних людей и они постоянно релизят. Что ты этим хотел сказать? Что они релизят? Ну да, разные разновидности и вариации wan(x)2.1, а я же указал, что "ждём" от них следующей модели, как бы эволюции, революции, как у других, типа клингов\виду\етс... Потому и цифры поменял.
>BFL вообще другая шарага Ну ты же не увидел в первой строчке многоточия и то, что другой строкой начинается новое предложение, совсем с другим контекстом. "ещЁ" - "Так же".
>тоже продолжает делать релизы, только не видео. >Какой прошлый год, чего ты ждёшь. https://bfl.ai/up-next
>>1275212 >Извини. зачтено. А так, этой страничке BFL в следующем месяце уже год будет. Они "анонсировали" это Еще когда у всех текли слюни на превьюшки СОРы. В моменте с флаксом, все уже мечтали. Но за это время столько всего вышло, а они всё нет. Не удивлюсь, если на "годовщину" выпустят.
Во всех этих "новинках" больше всего беспокоит потенциальная скорость генерации. Могут сделать многое, но запрос либо к железу станет уж совсем заоблачным, либо ждите 30 минут, чтобы узнать впитала ли модель ваш запрос. Ван с lightx2v это прямо глоток свежего воздуха на фоне всех релизом на данный момент.
Удалось поставить sageattention на 2060, но разницы в генерации я не вижу. Как было 400 секунд, так и осталось. Я их вставил правильно? После лоры и перед сэмплером.
>>1275243 Ну если качество будет на голову выше то можно и подождать. Но я в целом с тобой согласен, после 1 минуты генерации 5 секундного ролика с дрожью вспоминаю как по 10 минут эти же 5 секунд генерил. К хорошему быстро привыкаешь.
Аноны, еще ничего нормального не придумали чтобы можно было в одном воркфлоу сделать три+ 5 секундных видео и склеить их, НО чтобы промпт и лоры можно было подгружать отдельно ко 2 и 3 видео?
Сделал тупо дублированием семплера с подгрузкой на каждом шаге заново модели и промпта только уже с новыми лорами, на 3 загрузке вываливаюсь за пределы 64 гигов оперативы. Я так понимаю он хранит ранее выгруженные текст энкодеры и прочую фигню ранее загруженную и при новом проходе не выгружает а просто новый запихивает, может можно как то рам почистить перед 3 шагом, есть такие ноды?
>>1276509 Просто продублируй три раза воркфлоу, но для второго и третьего используй VACE с каким-то количеством начальных кадров из последней генерации.
>>1276527 Это лениво, последние кадры подгружать, заново запускать, охото за одну генерацию получить готовый 15 секундный ролик с еблей и эпичной концовкой.
На смешивании или имитации под нейронку кстати можно сейчас музыкантам срубить бабла. Делать так, чтобы зрителю было непонятно что это. Но только надо не грубо делать, а с творческим подходом, себя например можно снимать реальными, но под фильтрами, немного омолодив и улучшив, сделав стройнее, а одежду иногда можно делать сгенерированной, так же и улицы, например улица реальная, но с помощью генерации стилизована под музон, так же и музон, играть реальный, но идеи риффов, компоновки, брать из генераций с музыкальных ИИ.
Короче для музыкантов сейчас самое то чтобы косить бабло на неопределенности, создавая зрителю эффекты например нейро-генерации, а на самом деле снимая реальное видео, слегка изменённое фильтрами и эффектами.
>>1276881 Я видел да, которые полностью нейроночные, но тут походу и себя снимают музыканты, под фильтрами обработки, есть и живое видео. В этом и суть что на этом можно раскрутиться и заработать, при таланте конечно, если правильно смешивать ИИ-видео и реальное видео и ИИ-музыку и реальную-музыку.
Если вдруг кто тоже столкнется с такой проблемой на VACE, я закостылил решение проблемы >>1269380 → >на 300 кадров начинает блюрить зону инпейнта через использование context_options на 121 кадр. Похоже, на большем количестве кадров могут начаться проблемы.
Короче, видос походу полностью ИИ, а компиляция походу не от музыкантов, не коллаборация как написано в описании канала, и не "официальное видео", а просто какой-то школьник клепает такие ролики.
Если бы делали музыканты, то хотя бы снимали себя в таких моментах без лица, где они играют на гитаре, не оставляя такого позорного палева.
Палево в видео в основном на пальцах гитаристов, на несовпадении музыки с видео при игре на струнах, несовпадение вокала на музыке и видео когда рот открывается не в такт словам в песне, ну и бабы с такими нереальными талией и грудью.
А так-то если найти актрису, приодеть её в таком же стиле, накрасить её также, и наложить фильтры разные, сделать потом пост-обработку, то она будет выглядеть также как и генерация ИИ, и это можно было бы хорошо обыграть в видео, чтобы зритель путался. А не запутывать враньём про "официал видео" и "мы коллаборация музыкантов".
>>1276881 >проснулся Я купился на описание "официал видео" и "мы коллаборация музыкантов". Музыканты бы все косяки нейронки повырезали бы, и заменили своим видео.
Я думал музыканты наконец-то проснулись и уже въехали в тему и начали делать с помощью ИИ творчество грамотно смешивая реальность с генерацией в некоторых пропорциях. А это всё ещё школьники балуются.
Новый лайт, вроде получше с лорами работает, ниже два видоса на одном и том же сиде, первый со старым лайтом, второй с новым. Тесты ограничились этими двумя видосами, так что может все и не так однозначно
>>1278476 Потестил I2V rank64 - Годнота, значительно больше движения. Прямо WIN дня. Масляные плавные движения пропали, появилась резкость, ощущение, будто бы более чувствительно реагирует на промпт.
>>1278650 Подкачка как и рам вроде только для выгрузок модели и обработки видео в конце происходит, а если у тебя так не хватает памяти на саму генерацию то соси хуй
>>1278754 Не знаю как другие, а лично я ставлю 0.8 чтобы не пережаривало картинку на 5 шагах. С 1 будет пережарено, а 4 шага выглядят слишком artificial
У кого то получилось на линуксе карту охладить? Походу реально для ии только винда Если не ограничивать мощь карты то на линухе 78 градусов нахуй, а если ограничивать то генерация на 35сек дольше чем на винде
>>1276509 Ну че ёпта, я сделал! Взял воркфлоу без KJ нод и все нормально, я думаю при желании можно продолжать и до минуты. И приемлемо по скорости учитывая что тут торча нет.
>>1278823 У тебя же по любому 3090 после майнинга или другого васяна у которого темп под 85 это "детская" Я бы держал на уровне 70 жертвуя 20 секундами
>>1278866 >на i2v там фиксили вообще непонятно, 0 изменений я когда еще лору плюс подгрузил, в терминале ошибка как раз сыпала с этим diff_m, потипу той, когда неправильную лору подгружаешь. С т2в да, что-то пока не могут.
>>1278878 > >на i2v там фиксили вообще непонятно, 0 изменений > я когда еще лору плюс подгрузил, в терминале ошибка как раз сыпала с этим diff_m, потипу той, когда неправильную лору подгружаешь. Ну, эта ошибка ни на что не влияет, по факту.
>>1279070 >Оригинал из видео Оригинал из фото >ты до сих пор не сделал vace extend... Мне лень даже больше одного видоса было пилить для теста, о чем ты...
>>1279105 Да, да, а теперь съеби. Каждый раз в голос с ебланов типа тебя. Правильно вам тензор прикрыли, там лошпет даже сам осознал что нах он пасть свою раскрыл.
>>1279220 первая птичка вообще дематериализуется на 64, самое нормальное поведение на 4, новая птичка не прилетает, а старая птичка улетает и панда следит за ней.
>>1279255 Ты неправильно мыслишь. Этот промпт вообще не отработал. Очевидно, там было про прилёт птицы. Остальные только обосрались. На другом сиде уже совсем другое могло быть, дебильным пример. Ну, вообще удивительно, что киджай хоть что-то показал, а не молча загрузил файлы.
>>1279360 Ты пробовал? Я пробовал, выдает реально парашу, я потому и удивляюсь нахуй вы его ставите, если оно не дает прирост на горячем ране. Но это было давно, с тех пор не трогал.
>>1279424 браток у тебя там диптрот и камшот какбы взаимоисключающие лоры, к тому же у тебя воркфлоу I2V, а ты грузишь lightx T2V, а еще у тебя входящее изображение 512х512, а ты его зачем то растягиваешь до 512х640
>>1279755 >Первый раз? это походу ты первый раз видишь лычку LTXV и начинаешь наяривать. Все уже давно поняли что оно хуета. По крайней мере в версиях 0.9.х. Пока они как минимум нормальную анатомию людей не запилят, будут жрать кал сообщества.
Больше всего горит что ты не можешь понять что сгенерится пока не сгенеришь, тестить промпты пиздец больно, если на t2v ещё видно что шиза на превью то на i2v не видно нихуя Складываем это с hd видосами которые у меня занимают 12 минут
>>1279936 Ну, как бы, да, но: 1. Будет ли опенсорс? 2. Минорные улучшения или другая модель? 3. Будут ли работать ускорялки или ждать по 10 минут опять?
Короче, новость-то крутая, но сильно радоваться локальщикам пока рано. =)
>>1279961 >Ну поменяется циферка на 0.1 деление и что хуй в очко
>>1279968 да погоди, пусть оно вообще выйдет, уже там вопросы задавать будешь) Может это просто вброс. А насчет опенсосрса, я думаю основной посыл именно в этом. Мало кого сейчас интересуют закрытые модели.
>>1279964 Preview method: Auto и taew2_1 в папке вае, хз нужен ли он. На 2 шаге уже видно. Жаль, что нельзя стопнуть мгновенно, не дожидаясь завершения шага. Ещё бы какую-то порезанную vae для гипертестов. На 1.3B декод занимает в 2-4 раза больше времени самой генерации. Хочу за 3 секунды генерить.
>>1280041 Никаких кроме того, что 200 гигов пропадут с указанного диска, не будешь ловить OOM, но это все равно медленно шопиздец.
Заметил, что лора экстракт от киджая работает незначительно, но быстрей, чем официальная лора, но и результат на том же сиде, том же ранке - разный. Пока не понятно в лучшую или худшую сторону. Заметка номер два, при использовании конвертированных лор от хуняна происходит переход в режим слоумо, аналогично, если применять неподходящие аттеншг лоры (t2v на i2v воркфлоу и наоборот)
бля, подскажите как это NAG (из пака kjnodes) правильно юзать в нативном комфи воркфлоу. Ему отдельный негатив нужно подсовывать? Куда саму ноду втыкать, или похер порядок (модел ин - аут). Сука.
>>1280558 да я так и делал по сути. Я просто не пойму то, что в оф.ноде NAG там есть отдельный ксеймплер, и там есть два негатива на вход, причем один специально под nag-negative. Вообще по сути при cfg 1 обычный ксемплер дожен игнорить негатив, а для nag (kj) подается специфический негатив (типа убрать то да сё - нежелаемое, как я понял), ибо в обычном негативе обычно пишется та китайская лабуда с отрицанием артефактов, жпег и прочего. Хуйпайми. На ведре с 2060 тестить тяжко.
>>1280539 Для нативного воркфлоу лучше юзать ноду из https://github.com/ChenDarYen/ComfyUI-NAG Там есть отдельный KSAMPLER с нагом, там 3 кондишна на вход 1) Позитив (юзаем как обычно) 2) Негатив обычный (Можно хоть пустоту хоть conditioning zero out от позитива взять с cfg 1 там хоть насрать можно, импакт будет нулевой) 3) Наговый негатив, туда уже пишем нормально
Собственно в примерах в папочке с данной нодой все лежит по уму, для работы с ускорительными лорами нужно взять соответствующие параметры из примеров
>>1280576 во, я примерно про то и писал выше >>1280573 Просто не хочется опять в каждый вф сувать не родной ксемплер. Но принцип понятен. В общем и целом. Другой вопрос, а нужно ли оно вообще?.
>>1280595 Честно? Я 12гб нищук и это замедляет ген и толком нихуя не дает, на уровне просто другого сида. Лучше просто плотнее насрать позитивом и добавить веса токенам.
>>1280598 >это замедляет ген ну я сейчас заметил, правда 28с или 31с итерация при 5 шагах не такая потеря) Я просто на эту шляпу обратил в вф на 1 кадровой генерации картинки с помощью вана, наверное там актуальней. Сейчас хочу копнуть в сторону нунчака, правда тоже хуйпойми что это, просто слышал. И еще какую-то хуету увидел - Radial attention. Чесна заебали все эти креаторы, каждый день хуйню высирают, пойди разберись во всем этом хламе.
>>1280610 > Radial attention. Пока работает только с первой сажей, но я как понял у тебя 20 серия по этому наверное имеет смысл попробовать >Чесна заебали все эти креаторы, каждый день хуйню высирают, пойди разберись во всем этом хламе. Зря ты так, по сути единственная пища в мире АИ, если бы не lightx2v вообще бы нафиг не сидел тут, по 5 минут ждать - ну его нахрен
>>1280142 Как этим пользоваться? Воркфлоу в нодах киджая. Ну хуй знает, вроде быстрей чем с обычным light. Выглядит иначе, как будто чуть хуже слушает промпт, где-то жиденько, где-то резко как на 1.3B. С первого шага уже всё видно. Дайте шанс калу, попробуйте.
>>1280623 >20 серия по этому наверное имеет смысл попробовать я уже вообще понял, что мне это не надо, ибо выжимать из 2060-6гб уже нечего. Пару секунд не сделают погоды. Вот если была бы хуйня, которая дала бы поместить аналогичное кол-во кадров в бОльшее разрешение при той же скорости, было б хорошо. А так буду ждать следующий год и выход 18гб версий 5070 или 24гб 5070ти.
>>1280680 >цены будут просто адовые да мне пездец не везет. Полтора года назад проебал возможность взять 4090 за полцены от ~150к на фантики ММ. А буквально недавно на озоне проебал 5060ти за 41к. Для побаловаться за этот прайс самое то. Сейчас у меня в радиусе 100км на авито одна 3090 геймрок от палита за 54к без гарантии. Сомнительно. Вся надежда, что будущие модели будут более лояльны к железу. Но если провести аналогию с сд1.5 - сдхл - флак, то хуем по лбу просто)
>>1280681 >Вся надежда, что будущие модели будут более лояльны к железу. Лучше оставить данные влажные фантазии, LTXV уже примерно показал, что генерации в целом могут быть легковесными и быстрыми, но вряд ли вы хотите их видеть
>>1280692 >у них есть потенциал, но они ебут мозги как с sd 3.0, где баба на траве это треш, а голая тем более) Трясуны в общем. Ты идиот? Они голытьбу генерят из коробки. Проблема в том, что этот кал буквально неуправляемый. У них даже на оф.сайте тебе выдают по четыре гена за раз, потому что удачи не словить зум на прыщ или вообще рыгающего кота.
>>1280717 >Проблема в том, что этот кал буквально неуправляемый. Не ну такой голотьбе рандомно включенный порно ролик даст пососать. Короче пока это хуйня без задач и чет сомневаюсь, что у них будет прогресс. Хотя мб я и не прав
>>1280727 Я черепиКАЛ оттуда качество сравнимое с ку1. Но умолчу сколько тонн говна я пересмотрел. И анимация там в целом слабая, на уровне идлекала фреймпака, иначе полный расколбас.
>>1280987 >а объем памяти некритично Это при условии что у тебя модель полностью влезает в видеопамять. Если ты юзаешь ггуф или оффлоадишь это уже потеря в скорости.
>>1280993 Нет. При 100% оффлоде в DDR4 ты теряешь 50% скорости (т.е., вдвое медленнее работает). Это звучит совершенно некритично, если сравнивать с LLM, где разница в десятки раз между видяхой и оперативой.
Так что, еще раз: Для видео-нейронок чип сильно роляет, а объем памяти некритично. 4070ти (12 гб памяти) на 10% быстрее 3090 (24 гб).
Брать прямо сейчас 3090 — затея так себе. Да, можно, безусловно, и это выйдет дешевле и сейчас. Но какого-то выигрыша в скорости не будет, а то и медленнее получится. Так что, автор вполне может выбирать.
>>1278707 Это ангел боли. Не советовал бы с ней шуточки шутить. Может и наказать, жестоко наказать. Придёт в твоё обиталище и уведёт в дом казённый лет на 20.
Подскажите, какие подводные камни могут быть при установке отсюда? https://pinokio.co/ Не хочу ебаться с установкой, а запустить сразу. Или запуск через пинокио - кастрированная версия, с которой ничего толком сделать будет нельзя?
>>1281500 > 24 врам > хотя бы на х1.5 апскейлят Самому же больно такое писать. =)
Но, окей, апскейл это аргумент. Тем не менее, не такой, чтобы всерьез отказываться от современной видеокарты ради авито-3090. Думаю, человек сам решит, хорошо, что этот аргумент приведен.
>>1281690 Нет. Желательно, чтобы 480 или выше где-то было. Даже 480х272 генерится более-менее терпимо. После 640x640, как мне показалось, лучше пересаживаться на 720p модель.
>>1282000 >Тем не менее, не такой, чтобы всерьез отказываться от современной видеокарты От врам же ещё разрешение и длительность зависит. Нельзя просто выгрузить всё в рам иначе все бы уже 4к видосы пилили
Понял, что все таки при использовании GGUF моделей и GGUF текстовых энкодеров лучше отключать CUDA System Memory Fallback. Ловил внезапные снижения скорости думал и гадал в чем же дело. GGUF сам по себе все равно юзает оперативную память даже при отрубленном CUDA System Memory Fallback, но теперь исключены теневые переходы сторонних процессов в RAM. OOM не ловлю, а внезапные провалы по скорости ушли
пинокио поставит тебе комфи и будет лишней прослойкой, проще поставить https://docs.comfy.org/installation/comfyui_portable_windows тоже с настройкой ебаться не надо, скачал, запустил update_comfyui_and_python_dependencies.bat, после запустил run_nvidia_gpu.bat - все готово
>>1270014 (OP) сука ты блядская одни платные сайты в шапке хуй соси буду я платить ага ебанутые дождусь как колаб сделают тогда или фри но сигн сайты пздц вы терпилы потешные баринов кормите
Есть толковое видео, которое объясняет популярным языком как вся эта магия работает? Я имею в виду не как этим пользоваться, а как под капотом происходит генерация.
>>1282698 >Радиал только с первой сажей пока что работает Не уверен насчет этого. >а и там требование в разрешению, каждая из сторон должна делиться на 128 без остатка Это не проблема, я разные разрешения юзал, отличные от рекомендованных, и особых изменений в качестве не замечал
Аноны, с 4060 Ti 16 что-нибудь локальное выйдет? Где можно взглянуть, что на них наделал анон, а то при выкладке видосов не подписано на чём он сделан.
>>1282858 Поясняю. Ггуф режет скорость. Если у тебя чуть-чуть вылезает за макс врам то достаточно скажем блоков 5 свапнуть и потеря в скорости будет минимальной.
>>1282858 Ухудшить качество или не ухудшать качество. Хм, действительно заставляет задуматься. >>1282827 Ну, речь про те, что сделаны локально в любом из этих тредов. Единственная сеть, которая медленно работала - HiDream, но я на отъебись запускал, наверняка вылезала за пределы и замедлялась. Всё остальное летает. Проблемы будут только с некстгеном, через год-два.
>>1282865 >Ухудшить качество или не ухудшать качество. Хм, действительно заставляет задуматься. Весомый аргумент, интересно даже стало лоб в лоб сравнить тот же сид q4km и fp8
там киджайчик выпустил 256 ранковую лору лайта: lightx2v_T2V_14B_cfg_step_distill_v2_lora_rank256_bf16.safetensors lightx2v_I2V_14B_480p_cfg_step_distill_rank256_bf16.safetensors ебло от этого не распухнет?
и еще одна, нужна пояснительная бригада: lightx2v_14B_T2V_cfg_step_distill_lora_adaptive_rank_quantile_0.15_bf16.safetensors шта это такое? кушать?
Почони, а почему может ухудшаться качество картинки в видео по сравнению с первым фреймом? Использую модель 480р gguf K_S Q5, блок свап на 5, торч компайл, сейдж,light лору на 0.7 ну и две обычные лоры.
господа, а в чем прикол того, что при i2v при сопоставимых моделях\параметрах (модель\разрешение\лоры\степы...) генерация идет медленнее процентов на 50%. Возможно это на тухлом моём железе, или у "всех" так? И нахуя нужен clip_vision как таковой и нужен ли он вообще? В фантоме и вайсе он не юзается. Как я понимаю, оно читает картинку (депромпт) для дальнейшего сопоставления с промптом. А оно надо при и2в?
Аноны, а есть ли шанс сделать луп зацикленный не используя flf2v? Делаю обычный ворк используя firts last frame ноду, но обычной модели i2v, первым и последним кадром вставляю тоже самое изображение, чтобы произошел цикл. Получается действительно зацикленное видео, но беда в том, что происходит искажение последних 3-4 кадров (яркая вспышка или подобных артефакт). Как фиксить без излишнего пердолинга?
Объясните ламеру, пожалуйста. Локальные нейросети насколько более гибкие, чем через сервис (сайт или чо)?
Возможно ли сделать так: Снять на видос актёра в определенной позе, выполняющим определенные движения. Потом скормив это видео + фотку любого другого человека и получить копию своего видоса, но уже с человеком с фотки, без косяков, абсолютно реалистично выглядящую?
Если да, то это делается локально на своем специальном компе для нейрогенерации или через обычные сервисы на сайтах?
То есть ЦЕЛЬ: получить как можно более реалистичное видео с определенным лицом с фото, наиболее точно и реально копирующим движения со снятого тобою видео.
Для понимания контекста - хочу делать реалистичные черно-белые видео с историческими лицами (фотки начала 20-го века), результат должен быть максимально реалистичным. И таких видосов надо минимум десятки наделать.
>>1283861 Это t2v или i2v? Если первое и без лор, ну ладно, окей, ожидания все равно не стоит, а если второе, то сут удивления, не ясна На цивите буквально первая лора: https://civitai.com/models/1434650 Или ты хочешь писик и сисик и чтобы из коробки и за 5 секунд?
>>1283862 >насколько более гибкие, чем через сервис сервис залочен на уровне запроса + можно (наверное) улететь в бан, если ты избыточно откровенен в своих желаниях Локальная генерация тебя лочит на уровне понимания модели и клипа, а писать можешь чего угодно
>получить как можно более реалистичное видео с определенным лицом с фото, наиболее точно и реально копирующим движения со снятого тобою видео. Понятно, бабам из порно хочет лица одноклассниц вставлять, ладно шучу, если тебе нужно менять только лицо в исходнике - это одно, если тебе нужно создать новое видео вдохновленное исходником + замена лица это другое. Первое делается условно просто любым фейссваппером на базе inswapper_128 лучше пока не придумали, а точнее придумали, но людям в руки не отдают. Второе сложнее, нужно использовать более жирные модели типа wan vace, где можно использовать дополнительные контролирующие модели, что будут анализировать твой видос и использовать его детали, линии, глубину итд как референс. Потом все равно придется сделать faceswap, как и в первом варианте. Короче достаточный пласт знаний тебе нужно будет освоить для реализации своей затеи, за 5 секунд вряд ли раскуришь.
>>1283897 Да брось, перехваливаешь, тема видосов для локалок считай только зародилась с появлением семейства моделей wan, до этого все было крайне плохо и долго. Сейчас опять же с появлением адекватных дестил лор и возможности не ждать по пол года на генерации люди активизировались. Если знаешь английский язык можешь пойти на площадки civitai там люди выкладывают готовые воркфлоу, возможно даже по твоим задачам. Если ты никогда локально не генерил - я бы начал с чего по проще типа базовой текст в видео генерации. Так же есть два неплохих сабреддита: https://www.reddit.com/r/StableDiffusion/ https://www.reddit.com/r/comfyui/ Не скажу, что это прям истина в последней инстанции, но просто банально больше людей с разными способностями и подходами, можно чего позаимствовать
>>1283847 Ты путаешь 4 степа и 30 на ване. Это щас ван топовый, а раньше генерил в 5-8 раз медленнее. Ну и у фреймпака все еще есть 120 секунд плавной генерации с фиксированным размером контекста.
Но по сути, лайтх2в топич и сделал ненужным фреймпак пока что. Надеюсь, когда-нибудь их соединят (технику контекста).
>>1283897 Здесь и можно. Ну, кроме шуток, реддит, телеграм-чаты (какой-нибудь LDT), да здесь. Все кусочками, цивитай, гитхаб, хаггингфейс, новости чекать.
Забавно что на квантованной модели свап блоки за долю секунды ставятся, т.е нет смысла их не юзать или что? На качество не влияют, на скорость тоже, а врам освобождают будь здоров
>>1284119 >Из киллер фич поддержка 24фпс из коробки Психбольной в курсе, что 24 фпс можно раздуть из 16 фпс, без необходимости испольовать >>1284121 вот это позорище?
>>1284119 >>1284121 >>1284159 Ну skyreels v2 чуть более молодая модель у неё есть свои плюсы и минусы, но без нативного дистила пока не хочется портить впечатление, ибо это скорее всего не то что задумывал автор. Skyreels v2 больше подходит для кинематографичных сцен, детализации лиц, эмоций, к сожалению пока сообщество не настолько активно клепает лоры, но думаю будет официальный дистил - будет интерес. ВАН реально неплохо раздувается в 32 фпса через интерполяцию, это разумеется не «из коробки», но тоже ничего, особенно учитывая скорость инференса
>>1284206 Скажи это базовая пикча + референс лица (чтобы в процессе лицо не «утекало»), либо все это чистая t2v генерация на референсах? Можно ли на базовых нодах собрать без kijai nodes?
>>1284218 > Скажи это базовая пикча + референс лица (чтобы в процессе лицо не «утекало»), либо все это чистая t2v генерация на референсах Это дефолт i2v с исходными пикчами с сдхл, магреф это i2v модель, лицо там не утекает > Можно ли на базовых нодах собрать без kijai nodes? Можно, берешь любой i2v ван натив воркфлоу и меняешь настройки/добавляешь лоры
>>1284284 Магреф это i2v модель с референсом, можно юзать как обычную i2v (но если писать промпт сильно отличный от исходника то инпут имедж может меняться), можно обрезать фон и писать свой, можно пихать батчи.
Какие нейросети имеют большую вседозволенность при создании видео? Например чтобы можно было генерировать драки, сражения и т.д.? Или лучше нейросеть на компе поднять?
>>1284568 Там 5 сек. да и дело не в лоре, а в говнопромпте. Вот там дебс выше пытался в зомби выстрелить - это можно сделать промптом, но он его пишет не правильно.
>>1284578 Промпт супер всратый, даже стыдно такое постить.
nude woman, penis. sex. обветренные губы женщины и грустный вид start: камера резко отдаляется. middle: женщина раздвинув ноги занимается сексом с мужчиной, она скачет на его пенисе вверх и вниз. with her legs spread having sex with a man end: женщина содрогается в экстазе
Бля, а расскажите мне как вы гении из "честных" фпс собираетесь делать НЕ КРАТНЫЕ изначальному числу фпс? Вот реально стало интересно как вы себе это представляете.
Чтобы делать наиболее реалистичные видео - надо пользоваться сервисами, а не локальными? Локалки технологически отстают, я так понимаю? Их преимущества в том, что нет цензуры и нет ограничений в запросах?
>>1284817 Если есть ресурсы это тупо бесплатно, а так да, можно всякое NSFW генерить, хочешь медвежат с зайчиками и всякие красивости, пожалуйста онлайн генерации, будет красиво, быстро, качественно, платно
>>1284821 Я компьютерные игры в жанре визуальной новеллы собираюсь создавать. Фотореалистичные видео нужны. Думаешь, для этого нужна комбинация локалка + подписки?
>>1284937 Смотря какой сюжет, какой контент, для NSFW точно локалки, а если просто сюжет и милая история, то можно и на онлайне, но по ценникам я хз, чую в этом деле дохуя траев нужно, чтоб получилось как надо
> дохуя траев нужно Да. Вот потому и спрашиваю. Основное делать на локалке, потом доправлять в сервисах. + еще править руками в редакторах Видосов нагенерить надо сотни. Я чувствую себя так же, как и в 2017-м (крипта). Новая эра настаёт. Надо оседлать волну.
>>1284959 Если карточка есть или бабки, я бы наверное в локале сидел, как минимум это интересно и познавательно, сидишь на 5 сайтах и жмешь Ф5 по кд "А вдруг че новое вышло"
>>1284973 Я как раз только локально, честно SFW меня не особо интересует (киньте в меня камень), но у меня карта говно 4070ти 12гб врам, по этому все радости не особо доступны, а с новыми релизами так вообще хз, может в полном пролете
Люди-нищуки или может кто так знает, кто-нибудь, где-нибудь, не натыкался на возможность погенерить в облаке на 4060/5060ти 16гб или что-то из нищенского 3060 12гб, 4070(ти), 5070(ти), 5080.... Хочется потестировать... Ибо где натыкался, там либо А\H100, 3090/4090, A10.... Такое не нужно, там везде 24гб. Ну или всякие не интересные T4/2080/3080..... Иммерс и селектел не предлагать... Ась?
>>1284990 ХЗ ниже q4km это пиздец там качество наверное, а когда только половина модели в vram помещается ты наверное с членом в руках засыпаешь, но дело твоё, если нравится - то никаких проблем, вот можешь парню подсказать чё к чему
>>1284988 Чо за законы? Ты про порно? Ну закинь в какой-нибудь анонимный filesharing... Хз. Ты контакт свой в тг или еще где-нибудь можешь дать? Проконсультироваться надо.
>>1285005 >>1284988 У тебя дискорд есть? В дискорд мне закинь в личку gxxvhyf_06628 . Меганизкая вероятность, конечно, что тебя кто-то будет искать. Либо просто напиши в дискорде, без примеров работ твоих. Я тебе заказ свой опишу.
>>1285002 >>1285005 думаю с годик не более, можно расслабляться как сейчас, а потом всё... возьмутся за "нас" с "вами". После того как наиграются с ютубами, стимами, мессенджерами, криптой. Будем вспоминать это время как сейчас интернеты конца 90 и до плюс-минус середины 10х годов. Так просто мысли.
>>1285008 Сорри, не пользуюсь, да и работа и так у меня имеется. МБ кому из анонов интересно повзаимодействовать >>1285011 Сидим пердим локально и лучше наверное не постить ничего особенно с реальными людьми, в плане клубнички
>>1285011 Ну цивит точно в блок улетит, тут без вариантов вообще, я честно хз как он до сих пор жив, у меня danbooru не открывает, а там ваще пиздец в 100 раз хлеще
>>1285013 Ты можешь щас уделить какое-то время генерации локально у себя на компе? Мне надо понять, какие результаты показывает локалка, чтобы сделать выбор (видеокарты у меня нет пока что никакой). Любой из этих картинок выбери. ----------------------------------------------- Требования: люди на видео должны сидеть\лежать почти неподвижно и смотреть на вас (в камеру) так, будто слушают то, что вы им говорите. У вас разговор. Главное требование - максимальная реалистичность. Никакой шизы, форма лица не должна меняться и тд. Моргнуть может, чуть чуть двинуть рукой, пальцами и тд. Выглядеть должно абсолютно реально. Длительность - чем дольше, тем лучше. Секунд 30 и выше будет отлично. В сцене на улице (2 человека) должно быть так же, только легкое движение воздуха (так как улица) должно слегка иногда покачивать листья деревьев, халаты должны немного совсем чуть чуть развеваться у них. Предметы не должны двигаться, менять форму и тд. Не должно всякого сюрреализма происходить. ----------------------------------------------- Если кто-то другой сгенерит локально (или не локально) - укажите нейросеть, конфигурацию компа и сколько времени понадобилось для достижения этого результата.
>>1285014 >слышал там нативно хотят инференс ускорить и даже снизить требования Бляяять. И на что ты надеешься, на деградацию? Выйдет обосанная 8б модель чтоб нищуки смогли запустить
>>1285033 >Мы ждём слишком многого >Холдеры гта 6 это вообще кто? Ноунейм британцы/индусы? >Надо ждать пока юнити/анриал енжин включатся и выкатят опенворлд, тогда заживём
У меня настолько нет гора в ване что я уже думаю в эти китайские символы в негативе пробрались враги которых даже переводчик не палит. Типа будь максимально соевым, кровь нини, мозги нини, а переводчик выдаёт "эта от третьей ноги братан отвечаю"
>>1285022 Надеюсь на магию оптимизации хотя бы последние два поколения gpu, снижение количества параметров ни в коем случае! И так достаточно дебильных нейронок, пройденный этап >>1285033 Ага конечно, щас корпы себе в репутационный убыток сделают модель, что сможет в «женщина лежит на траве» и попадет под все анальные кары, просто так чтобы было >>1285051 Если ты юзаешь lightx2v с cfg 1 без NAG - в негатив можешь даже насрать, разницы не будет никакой, у меня он вообще отрублен через conditioning zero out
>>1270283 >Да всё хуйня, до платных сеток всё равно далеко. Даже мараться не хочется в этом говне Пиздец соекал говна платный, так даже простейшие вещи типа мордобоя не может сгенерить, в голос с этого сойбоя с бабками.
>>1285344 > А в чём смысл шаманить с блоками лор? Некоторые лоры могут конфликтовать друг с другом и выдавать артефакты, некоторые могут альтерить лица. Отключение некоторых блоков иногда может решить эту проблему, например у мпс.
>>1285290 Благодарю. Это локально? Какая конфигурация? Какая нейросеть? В целом, его внешность изменилась, эффект старой плёнки не нужен, мультяшность, дышит слишком мощно, смотрит так, будто готов убить.
>>1285499 >Большую часть времени занимает не генерация а ебучий свап/подгрузка моделей. У меня такая хуйня была только на bf16 модели, пока я не переключил fp16 fast на просто f16. А вообще это должно происходить только один раз, перед первой генерацией, дальше только если ты меняешь какие-то параметры по типу лор. И то вроде кижай выкатил ноду чтобы при смене лор не происходила подгрузка, но я еще не тестил. В нативе точно не должно быть ничего такого.
>>1285522 >перед первой генерацией, дальше только если ты меняешь какие-то параметры по типу лор Ну вот. А ты весь день только одну позу и один промпт используешь? Лору сменил и грузи всё заново
>>1285538 >И то вроде кижай выкатил ноду чтобы при смене лор не происходила подгрузка, но я еще не тестил. >В нативе точно не должно быть ничего такого.
>>1285491 локально, wan2.1. Ты еще учитывай изначальное качество фото, там большинство аспектов нейросети приходится догадываться что это такое. То еще очень хорошо получилось, вот другие варианты.
>>1285611 Ну я делал уже. И сам, и другой человек делал. У меня получилось отлично (через онлайн), у другого тоже (но он спец, не спрашивал локально ли, или онлайн, скорее всего онлайн - спрошу, мб ответит). За какое время ты добился лучшего результата? (тот, что изначально скинул). Конфиг скинь, пожалуйста.
>>1285715 Там ограничение было на немемберов (бесплатно же сижу). Вроде с 4-й попытки отправляло меня ждать очереди. + еще думал над промптом и тд. Мб меньше .
UPD: ща посмотрел. 3-ей попыткой сделал околоидеально, оказывается. Через 10 минут после 1-й попытки. Потом еще 3 попытки за 50 минут на этом и другом сервисе (пока регался, пока очередь и тд). То есть довольно быстро получил результат. За 10 минут результат на бесплатном аккаунте лучше, чем у чела с локалкой выше.
>>1285736 Делай тогда онлайн, никто не призывает тебя изучать или трогать локалки особенно, если тебя не устраивает результат. Онлайн для твоих задач подходит - значит годно
>>1285614 Воркфлоу в видео, или ты про какой конфиг говоришь? Если железо то rtx3090. 58 секунд на генерацию, с 5й генерации получилось, старую пленку я не писал, нейросеть сама додумала. Вообще, если промпт писать хороший то должно лучше получаться, я так за 2 минуты набросал в общих чертах.
>>1285949 >>1285948 Ну красава. Сколько электричества тратит? 1080 не получится делать на твоём железе? На Хуньяне. Я тот же.
Set your quality settings based on available VRAM: 45 GB+ VRAM: Maximum quality (1024x576) 32 GB VRAM: Medium quality (768x432) 24 GB VRAM: Basic quality (512x288)
Если эту карту в нормальном работоспособном виде можно найти за 50к, то было бы интересно попробовать.
>>1285946 >за 50-60к Я брал за 60, но у себя в мухосрани с рук живого человека, за то не из под майнера. А вообще много вариантов и за 45-50 взять было, но доставкой и хз что там придет.
>45 гигов VRAM Ща никому такое не надо, Hunyan уже престаревший кал, wan топчик сейчас. Тут и в 6 гигов врам впихивают пережатые модели. Но там скорость и качество падают конечно.
>>1285950 Это другой анон писал. Я юзаю ComfyUI_windows_portable, он дает больше возможностей для экспериментов, но для старта и wan gp подойдет, а вот если захочется большего то можно и в ComfyUI перекатиться и лапшу дрочить.
>>1285950 проверил в wan gp на rtx 5090, 1080p показывает что будет рендерить 30 мин с 15 gb vram. но обычно рендерят 720р а потом апскейлят >>1285952 за електричество хз, ват 350 при рендере
Лучше результат, чем что? Ты фотки эти >>1285016 по моим требованиям оживил? Я автор этого поста: >>1285015 Ну я вот думаю, покупать мне или пользоваться сервисами этими.
Возможно, воспользоваться вот этой услугой: https://immers.cloud/prices/ Потестить удалённо разные видеокарты и таким образом решить. Не знаю подробностей, только что узнал о подобном.
>>1286193 1) Необходимо проверить, что используешь корректные lightx2v лоры i2v t2v для соответствующих моделей 2) При использовании t2v лор на i2v генерациях так же с высоким шансом ловишь слоумо, иногда можно перебить, если добавить лору с быстрым датасетом не отключая остальные 3) Некоторые лоры обучены на слоумо, к примеру walking bounce где тянучка медленно идет в камеру
>>1286219 >При использовании t2v лор на i2v генерациях так же с высоким шансом ловишь слоумо Так там блять 5 разделов с этим ваном, не все ещё указывают на какую версию лора
>>1286433 У меня ровно наоборот получалось. Какие-то разрешения, приближающиеся к 720p, получались лучше на 480p модели. Понимаю, что дело в настройках, скорей всего.
https://github.com/kijai/ComfyUI-GIMM-VFI?tab=readme-ov-file Как пользоваться этим? Как я понял нужны 2 изображения с началом и концом кадра из видео, но как их достать, каждый раз руками вырезать? Ещё почему то нет самого видео, что за бред, из чего интерполяция идёт тогда
>>1286549 Не пользовался, но на видео же детально показано (и наверняка воркфлоу вшит) - загрузка кадров - их прокидка в interpolate. У него грузятся из папки, ты можешь сразу из видео доставать. Всего две ноды - загрузка модели и сам интерполейт. >interpolation factor 4 Больные люди. Может эта сетка и ебет, а я не прав, но прошлые сетки гадили видео, добавляя всего один кадр между, а тут аж три пытается.
Ебать как же я полюбил свою видеокарточку после этой прожарки ебаными видео... Это надо же, выдавать в новинках честные, недоступные 60фпс на постоянке, в реал тайме, пока видео в хд еле пердит 10 минут
>>1286549 >>1286582 Вся интерполяция идет не от видео, а от кадров. На workflow ее ставят перед сборкой видео - пока на выходе после рендера еще отдельные кадры, так что ничего руками брать не надо - просто скармливается выход WAN рендера после vae decode - там пока еще только куча картинок а не видео. Интерполяция достраивает кадры между ними. И только потом все собирается в видео.
>>interpolation factor 4 >Больные люди. Может эта сетка и ебет От количества достроенных кадров очень мало зависит итог по качеству. Там каждый достроенный кадр делается отдельно - как N позиция между стартом и финишем. Если представить что на картинке просто линия с шаром, и мы имеем два кадра - старт с финишем - шар в разных концах этой линии, то при интерполяции шар будет двигаться по прямой от одного края до другого. Даже если линия кривая - это процессу не важно, шар все равно будет в интерполированных кадрах ровно по прямой двигаться. И будет их там 1 или 3 - все равно. Просто шар будет либо в одном кадре по центру между краями линии, или в трех - на равных промежутках по этой прямой. А отдельные интерполированные кадры сами друг на друга не влияют в процессе создания. Тут важно лишь, чтобы количество кадров сошлось с итоговым FPS видео. Если у тебя желание получить 60 FPS - нужно ставить интерполяцию 4 (т.к. ван в оригинале - 16) - 16х4=64 кадра. Тогда скорость не уедет. Если поставить 2 - то видео получится ускоренным (если его тоже собрать как 60FPS). Ну, а если поставить интерполяцию 4 а собрать как 30FPS - будет slow-mo.
А вообще, этот процесс очень похож на анимацию по ключевым кадрам (классическая техника рисованной мультипликации).
>>1286151 Нет. Не то, друг. Серьезно можешь сделать? Ну я через https://immers.cloud/prices/ буду тестить 3090 24гб, видимо. Буду признателен, если серьезно попытаешься. Вот эти результаты, что я видел - все слабые. Сейчас закину почти подходящий.
У меня i5 12400 со встроенной Intel UHD Graphics 730. Мне удастся запустить весь этот софт и самую простую генерацию? Мне надо потренироваться и протестировать как это всё выглядит.
Подскажите по локалке, сделал по видео гайду. Все работало сначала. Потом поставил video combine через менеджер, и начало давать такую ошибку, как фиксить? Load Diffusion Model горит красным, че ему надо?
>>1286744 Да так. А "начальное видео" - там вшито в саму модель. 16FPS - это то, на что ее тренировали, в нормальных условиях это константа. Некоторые лоры, правда, ее сбивают.
Комбайн же на вход получает не видео а просто картинки. Сколько дал - столько и соберет, при этом запихнет в одну секунду ровно столько, сколько скажешь. Но ему вообще не интересно что там на входе. Да и не нужно.
Это пользователю в нем нужно выставить выходной FPS - от этого скорость движений на ролике будет зависеть. Если выше, чем на входе - slow-mo. Если меньше чем на входе - "ускоренная перемотка". Т.е. настройка выходного FPS - это не свободный параметр который просто на свой вкус ставится, а жестко привязан к исходным кадрам. Откуда они - дело десятое, но скорость движений в них всегда на какой-то четкий FPS рассчитана. У WAN - это 16 FPS.
Вся эта математика про движения и кадры в кино/мультипликации давно известна, и всегда использовалась еще на пленках. :) Тогда это был единственный способ slow-mo и ускорение делать. Камера снимает на повышенной скорости, потом пленка крутится на нормальной - вот и slow-mo. И наоборот.
CRF (Constant Rate Factor) в кодировании видео: -CRF позволяет достичь постоянного уровня качества при сжатии видео, независимо от сложности сцен. -Вместо того, чтобы указывать конкретный битрейт, CRF позволяет задать желаемый уровень качества, а кодек сам подстраивает битрейт для достижения этого уровня. -Например, более низкое значение CRF (например, 18) означает более высокое качество и больший размер файла, в то время как более высокое значение CRF (например, 28) означает более низкое качество и меньший размер файла.
>Поставил на 0 и качество видео сильно лучше сделай одну и ту же генерацию на 0 и 19, посмотри битрейт и размер фала, который будет кратно выше. В моем случае 832кб против 6,62мб. Отсюда и лучше кач-во.
Как теперь дальше разбираться без гайда? Я зашел на civitai, я так понимаю мне надо скачивать лоры > Wan Video 14B i2v 480p Как их в конфи закидывать и применять? Есть пошаговая инструкция? Новичку тяжело понять на самом деле. Нужно ли мне другие воркфлоу качать уже готовые? Или из видоса юзать этот воркфлоу и добавлять всякие ноды ?(какие, опять же вопрос)
Допустим я скачал эту лору ультимейт диптрот, как мне ее задействовать? Чтоб нужную фотку в конфи кинуть, и он мне дал похожий результат с фоткой?
>>1286966 >генератор который понимает русский Я хуй знает почему так дохуя скуфов начало записывать гайды на комфи акцентированные именно на новичков подпивасов, видимо хотят это монетизировать, но они вообще нихуя не вдупляют че несут, а просто слизывают с западных статей/видосов на тему с умным видом сидят поясняют на фоне сложного воркфлоу, который, несомненно, создали они, а не китайцы. Тема в том что даже на английском инфы крайне мало, в основном она на билибили на китайском, у нас тут баттлфилд, блядь, где каждый эксперементирует со всем сам и нихуя не вдупляет. Хуй знает зачем скуф пытается делать вид что у нас тут всем рады лишь со знанием русского а ес че друганы помогут. Я к тому что ты залетел как в широкие объятья где тебе всё разжуют и покажут, даже то что блять за секунду гуглится нахуй в ютубе.
>>1287039 >>1286966 Ладно я всех новичков так распугаю. На самом деле у нас тут очень дружелюбно, просто ты выбрал оочень хуевый гайд от скуфа инфоцыгана
Все ноды прогружаю, все заебись. Кидаю фотку, нажимаю RUN, мне выдают такую тупую ошибку ПИК
Почему эта хуйня пишет что у меня нет этой лоры в папке unet? причем тут вообще эта папка, если лоры идут в папку loras? Ок, я и в эту unet закинул, один хуй ничего не работает. Где я проебался?
>>1287078 Не ебу что там за воркфлоу. Кидаешь пикрил в комфи, качаешь все зависимости и кайфуешь. Лоры кидаются в ComfyUI/models/loras, а потом достаются из "WanVideoLora" в воркфлоу модели кидаешь в ComfyUI/models/diffusion_models
>>1287111 Самый дефолтный воркфлоу вот допустим. Что не так здесь? Как только доходит до 62% - Load diffusion model, выдает "переподключение", что не так с дифьюжн моделью? Этот файл модели в нужной папке лежит, че за хуйня, по идее все должно работать ведь
>>1287121 Кратко: все модели вываливаются в оперативку, всё жирное хранится там, а при генерации переваливаются на видеокарту и так по кругу. 16 гб очень мало, 32гб минимум, 64гб база, 128гб отлично
>>1287121 >и озу 16гб Не мучайся. Для видео приемлемо - 32Gb. Но чтобы не было мучительно больно ждать каждую загрузку любой мелочи, т.е для комфорта - 64 надо. Это именно про обычную RAM, не про VRAM. Теоретически на 16 завести наверное можно, но там свап раздуется до 20-30 гиг моментом. И с какой скоростью это все шевелится будет - тоже вопрос...
>>1287130 Пиздц. Я то думал у меня нормальный комп. Купил видяху, думаю ща как залечу в ИИ. Ага хуй там. Поставил файл подкачки на 64, щас проверим что будет. Ну если нет, придется покупать озу 64гб
После увеличения файла подкачки до 64, прогружается дальше. Лол. А я уже часов 10 ебусь, меняю разные воркфлоу, качаю модели, смотрю видосы, не понимаю в чем дело, а мне оказывается оператива нужна
>>1287134 Картинки генерить - 16-ти хватит. Мелкие текстовые модели гонять которые целиком в видюху влезут - тоже. А для остального надо и обычную память. МНОГО.
>>1287148 То есть мне нет смысла щас искать всякие урезанные модели и тд, gguf, мне в любом случае нужно много озу? Файл подкачки насколько релевантен в данном вопросе? с ним можно жить?
>>1287153 Угу. По насколько можно жисть с подкачкой - не скажу, не пробовал. У меня издревле объем RAM - первый кандидат на апгрейд. Так что еще когда самые первые сетки только появились - у меня уже 32 стояло. А когда сам начал вкатываться еще только в картинки - сразу понял, что этого едва-едва для серьезных workflow.
В общем репортую, с файлом подкачки все хорошо работает. Дефолтный воркфлоу с видео + ноду лоры добавил, больше ничего. 5070ти+16рам+файл подкачки на 64гб = видос в 400х400 на 5 сек за 5-6минут
>>1287400 в прошлый раз после тизера думал через месяца два выйдет,а вышло через день-два.. Пошли они нахуй кароче, я заебался, пожить хочу без всей этой хуйни.((
>>1287403 >>1287471 >>1287478 Именно. От тренировки зависит. И с практической точки зрения - лучше бы не давали. Т.к. если wan 2.2 будет натренен на 30 fps, то это разом х2 ко времени генерации той же длинны видео. Т.к. не 16 кадров на секунду надо, а уже 30. Из 16-ти же интерполяция прекрасно делает те же 30 (32), но гораздо быстрее.
>>1287601 Куча всего лишнего. 1. На вход RIFE VFI (frames) просто линк от VAE Decode. (Repeat... не нужен). optional interpolation states - ничего не подключай. Вообще. 2. параметр Multiplier - просто 2. (Ноды подключенные к нему - отключить нахрен.) Это если хочешь 30FPS. Если хочешь 60 - то ставь 4. Остальное на нем - не трогай, там нормально. 3. Выход RIFE VFI прямо на Video helper ноду. Там выставить 30 или 60 FPS в зависимости от того, что стоит в Multiplier на RIFE VFI.
Впизду короче этот конфи. Во 1 железо надо супер ебейшее, но это похуй, у меня все работает, но 1 видос 5 сек ждать 5-7 минут, и то, это видос 9 из 10 случаев получится говно, + придумывать какие то промты, подбирать фотки в нужных позах, куча пердолинга. Сделал 10 видосов, ну да прикольна, хуй во рту у тянки, и чо мне с этим делать хз? выглядит все равно хуево, качество говно. короче того не стоит, вот это мой отзыв о вкате в локалку. как побаловаться - норм, но не более. РОУП пизже был в разы, берешь любое видео, просто вставляешь ебальник - и у тебя целый фильм с нужным лицом, и все делается в миллион раз быстрее, результат сразу видно, железо мощное нахуй не нужно