>>1345120 → Порог вхождения заключается в том, что эта хуйня тупо не работает. Просто сыпет безконечные ошибки, которые никак не гуглятся.
Благо я вроде вдуплил, как в пинокио использовать этот лайтнинг просто в лоры его запихиваешь, и всё. Но надо тестить еще как оно с другими лорами будет работать.
Так что пока нахуй шизомакароны. Сидим дальше на wan2gp
>>1345155 1. Порог вхождения заключается в том что отсеивает таких криворуких как. Которые даже по гайдам не могут все нормально поставить и настроить. 2. Ставишь стендэлоун комфи и все прекрасно работает и не сыпит никакими ошибками. То что ты начал накатывать поверх ускорители и оптимизаторы совсем не разбираясь в теме это только твои проблемы. 3. Уже даже сделали гайд для даунов https://github.com/loscrossos/helper_comfyUI_accel как установить всю сажу с торчами и прочим буквально одной командой. Но нет это же надо базовую теорию знать, "Нахуй оно надо! Буду тыкать рандомные кнопки и обвинять комфи в том что я на нее не могу установить ускоритель своими кривыми пуками."
>>1345167 Да, мне слава богу снова пофигу на твои пидорчи, сам дрочи свои шизо инструкции. Сижу в веб интерфейсе, как белый человек, со всеми новыми лорами.
Уважаемые новички треда, выше вы наблюдаете перепалку, основной идеей которой является:
1. Вы можете мучаться сутки, пытаясь настроить кривое говно, а потом учиться пользоваться макаронами, генерируя видео за 1-2 минуты в отличном качестве с кучей лор. 2. Вы можете пользоваться программой, у которой совершенно нет никаких проблем и наслаждаться генерацией сразу из коробки за 20-30 минут на видео в дефолтном качестве без лор и без нихуя.
Выбор за вами, нервы ваши, интерфейс или говно макароны, получасовая генерация хуйни или минутная генерация того, что вам нужно.
У нас тут правильного ответа нет. У нас тут только боль.
>>1345177 Только вот оказалось что wan2gp поддерживает новые лоры для 2.2. Там просто нужно в параметрах поставить какой-то говношифр типа 1.0 0.1 и т.д. что бы оно понимало что в первой фазе грузить, что в другой. Случайно на реддите объяснение нашел. Так что макаронники со своей лапшой соснули опять.
>>1345183 Как там на wan2gp с созданием 20 секундных роликов с подключением каждые 5 секунд новой лоры? Как там с цветокоррекцией после каждого перехода?
Как там с созданием роликов когда надо взять из загруженного видео 78 кадр и продолжить генерацию с него? Как там с бесшовными склейками видео когда надо брать не 81 а 80 кадр чтобы кадры не повторялись?
Как там с созданием 100 роликов из 100 изображений, ручками каждое вставлять будешь и кнопочку жать?
Как там с использованием торча для 30хх моделей карт в ван 2.2?
Как там с использованием infinite talk вместе с лорами? Как там с s2v дела обстоят? Как там с tts моделями?
Это уже не говоря про дополнительный функционал в виде генерации картинок, редактирования и склейки видео, генерации множества лиц и эмоций из одного изображения для тренировки лор, генерации текстового описания изображения. И это только первое что в голову пришло. А функционала там до жопы и все это можно комбинировать.
Разобравшись в лапше можно настроить все под себя и потом прогонять видео 1 нажатием кнопки, получая именно то что тебе нужно, а не жрать что дают. Разобравшись в лапше ты будешь иметь доступ с передовым новинкам индустрии, а не клянчить и ждать когда это запилят в wan2gp.
>>1345241 Ах да, вот еще пикрелейтед, как там дела с организацией лор? Я например могу в каждую зайти посмотреть примеры, триггерные слова, быстро обновить если появилось обновление лоры на цивите, перейти на автора и прочее.
>>1345177 Давайте сделаем неболь просто и все. Боль потому что и те, и те - ждуны когда им зделоют. Те кто ставил сажу, написали бы словами общий рецепт, по типу "надо чтобы торч совпадал с саже и надо брать тритон из <ссылка>". Те кто сделал лоры, взяли бы и скинули скриншот из воркфлоу. У кого работает недавний сетап из коробки, скинули бы откуда ставили. И все решилось бы.
Вот я по ссылке выше вижу какой-то словесный понос неанглика, который можно свести к простым предложениям:
=== ЗДЕЛОЙТЕ МНЕ САЖУ В КОМФИ (попытка 1) === У тебя питон 3.12 и торч 2.8.0+cu129 --- как у всех(?), кто скачал комфи на днях. Скачай файл: https://github.com/loscrossos/crossOS_acceleritor/raw/refs/heads/main/acceleritor_python312torch280cu129.txt Положи его в папку ComfyUI, там же запусти cmd/powershell (shift + правая кнопка по пустому месту в папке). .venv\Scripts\activate pip3 show torch (выведет Version: 2.8.0+cu129, иначе отбой) pip3 install -r acceleritor_python312torch280cu129.txt === вроде зделолось ===
Боль ушла. Все проблемы треда не в сложности области, а в шизоидности методик и мискоммуникации. Я заебись шарю, но и у меня полчаса ушло, чтобы размотать эти простыни галиматьи, которые этот идиот раскидал по трем репам. Идиот потому что нафаршировал своей шизой простой рецепт. Кстати не факт, что с этим его самосборным тритоном/етц на пекарне не начнется самосбор.
>>1345331 Господи, слава тебе господи что у меня ван2гп, и мне не надо ни знать какой там питон, тритон, ультрон и человек факел, и не нужно вводить не единой команды в пердоль. Просто нажимаешь на кнопочку и радуешься видосику. Как же хорошо.
>>1345343 Так это только для ускорения через sage attention. Ей надо тритон, а на винде его официально нет. Если не надо - можно не делать. Мне просто стремно ждать дольше. Вот как раз бенч заканчивается:
640х640, 6 шагов, 65 кадров, 2 видео с холода Без сажи, сек: 355, 288 С сажей, сек: 304, 236
х0.85, х0.82 времени. Было 4.8 минут, стало 3.9. Ну ощутимо. Но ебала, да.
>>1345361 Ясно.. Ну приду домой попробую обычный воркфлоу запустить из враппера. Но если у он ошибку выдаст, то я больше никогда лапшу в жизни не запущу.
>>1345431 У меня эта пидарасина не запускается, если я делаю в папке моделей линки через "mklink" команду вместо папок. При чем пока не перезагрузишь, она прекрасно видит модели из другой папки. Но стоит перезагрузить и всё. Программа тупо не стартует. Какого хуя ей надо непонятно.
>>1345436 Я щас вынес diffusion_models и loras в корень того же диска, сделал: cd ComfyUI\models mklink /J loras F:\loras mklink /J diffusion_models F:\diffusion_models Все запустилось, пошла генерация. Причем у меня outputs уже тоже /J линком было, на другой диск. Пробовать переносить модели уж не буду, другие диски не нвме.
Если так: mklink loras F:\loras You do not have sufficient privilege to perform this operation. Надо права админа. Возможно когда создаешь линк под ним, то он наследует права, которых у комфи нет.
>>1345462 На схеме все верно. В логах чо-то может быть. Памяти в системе хватает? ComfyUI\user\comfyui_8000.log ComfyUI\user\comfyui_8000.prev.log ComfyUI\user\comfyui_8000.prev2.log
>>1345250 И как твой wan2gp прилепить к этой пинокии ебаной? А то охуенно выходит в мануалах. В один клик шоб установить и используйте Пиноккио. Все. Конец.
>>1345487 Ну увеличь подкачку. У меня 12 врам, 64 рам, более менее дефолтные воркфлоу жрут 40-50гб рамы включая винду. Но диск может ебаться записью, если переживаешь за такое, то мониторь. Ну и думаю будет медленнее, конечно.
>>1345533 64 честной рамы. Но я еще фреймпак гонял, вот он уходил в подкачку, тотал в районе 96 показывает. Надо было 128 брать, хуле пожалел копеек. Щас все только растет и требования и цены.
>>1345120 → >Изначально этой лоры не будет в элементе выбора, т.к. уи даунский. Так что придется открыть сайдбар Models, нажать кнопку обновить, зайти в loras, найти и перетащить нужную лору на две новые ноды. При следующем старте комфи ее уже можно будет менять/выбирать нормально. Блин, а почему мне достаточно просто нажать на клавиатуре R после того, как я новую лору в папку закинул, и все появляется доступным для выбора? Никакой перезагрузки не нужно. Там же специально эта функция есть чтоб новое увидеть...
Вообще - я не понимаю претензий к comfy в данном треде. Если вам нужен однокнопочный инструмент - так и пользуйтесь таковым. Чего агриться на comfy, который изначально писался для того, чтобы иметь доступ в самые потроха SD генерации и все собирать вручную. Это, блин, самые прямые слова его автора - он изначально делал крайне специализированный инструмент под свой вкус и желания (а хотел он глубоко вникнуть в SD генерацию и разобраться - что там и для чего), а не для широкой публики. Просто оказалось, что таких - не он один. В общем - история как с пингвином. :)
Ныть на комфи за сложность - все равно, что открыть фотошоп, и ныть - что там всего так много, а тебе нужно только фото обрезать. Так для "только обрезать" - куча просмотрщиков с однокнопочным интерфейсом есть. Нахрен тебе фотошоп для этого?
В прочем, я и вертящих нос от других инструментов не понимаю. Вон, кому-то не нужны "макароны" - так это их личное дело. Есть у них другие инструменты, которые им подходят - и хорошо же. Разве нет?
>>1345596 Так я не за сложность ною, мне вся эта сложность понятна. Я на шестом редхате сидел (нет, не рхел). Просто обновление через R или драг дроп это не сложность, а тупняк. Достаточно поставить монитор на папки моделей/нод/инпутов и вызывать код хандлера R самому, это буквально три строки питона на весь проект-миллионник. Мне не надо, чтобы он мне зделол. У меня просто горит от такой тупой херни в 2к25. В однокнопочных тоже это все есть.
Может кто объективно ответить на вопрос, насколько сильно медленнее будет генерить, если вместо 96Гб ОЗУ использовать 32Гб плюс дешевый М.2 на 250 со стогиговой подкачкой на нем? проебал перекат
Ух бля нашел как прикрутить торч к 30хх. За одно и ремейк на ксеноблейд сделал.
Вангую что через пару лет сделают нечто подобное - графон в старых играх будет обрабатываться нейросеткой на лету делая ремастер из любой старой игры. Нвидия и так уже кадры обрабатывает и генерирует на лету, чуток еще осталось.
>>1345343 Блядь, да как вы устанавливаете это говно то? Выбираю этот ебучий ван в этом ебучем Пинокио, постоянно стопарится на 9/13 шагов с этим ебучим py...
Я хз, я раньше делал в две команды, но если ща завезли venv в комфи — не шарю, я просто обновляю старую сборку и все окэй работает.
Просто люди же никогда не читают треды, сразу влетают с вопросом и срут на всех, кто им отвечает. Это база подобных тредов.
>>1345361 > Ей надо тритон, а на винде его официально нет. Т.е., triton-windows — это не triton на windows, а jaba на linux, или как? Ладно, я не шарю, как ты скажешь.
>>1345487 Ну сделай файл подкачки 96 гигов. Но звучит как будто проще оперативу купить.
>>1345494 Нет, все что ты убавляешь влияет на твой «контекст» — разрешение и количество кадров. Оно всегда в видяхе, там от 4-6 гигов до 16. По сути-то видяхи даже на 6 гигов хватит для маленьких роликов. А вот сама модель весит дохуя. Ну можешь убавить — качни gguf. Но там чем хуже квантизация, тем хуже качество, сам понимаешь.
>>1345533 У меня 128 чистыми и потребление до 70-80 доходит.
>>1345626 Как хочешь. Хоть въеби прямо в воркфлоу, хоть апскейл отдельным. Я в прошлых тредах кидал где-то, поищи.
>>1345677 Вот честно — проверять такое вообще не хочется. Но когда я генерил на 32 гигах, там замедление было больше похоже на разницу между видеокарт. Так что, вероятно, не очень сильно скорость упадет. Но хрен знает.
>>1345715 Майнкрафт такой уже сделали же. Oasis 2.
>>1345773 Зато само работает, из коробки, никаких макарон, видишь как легко и приятно, без багов!..
>>1345822 Первый прогон или повторные? Первый долго модель может грузить. Повторные могут быть быстрее.
>>1345934 >Майнкрафт такой уже сделали же. Oasis 2. Нет же, этот оазис это полностью генерируемый видеоролик в нем нет основы. Это отдельная модель тренированная на видеороликах по манкрафту и им же подобным. А лол не следил они мод для майнкрафта сделали
Я говорю про иной менее затратный подход - Ты запускаешь на компе любую старую игру, открываешь панель нвидия, ставишь галочку AI.Remaster и она начинает на выход давать тебе уже обработанные нейросеткой кадры вместо настоящих. Можно там же в панели будет настроить стили: реалистичный мультяшный, хорор и прочее.
>>1345934 >triton-windows — это не triton на windows, а jaba на linux, или как Это отдельный чел сам собрал его, потому что его тоже заебала эта мышиная возня политик кто куда что официально собирает. Которой в питонокультуре, и особенно в мл, очень много. Мы по сути доверяем какому-то васяну, пусть он и популярен на реддите. А не самому оригинальному тритону или его версии в оф.репах. Все строки https://github.com, которые ты видишь в requirements.txt - это пакеты васянов.
>>1346641 Я вчера в ван2гп тестил эту лору вместе с general-nsfw лорой для 2.2. И вроде норм получается. На 6 степов без лоры получается каша, и рандомное дерганье, а с ней движения очень четкие, даже не смотря на то, что картинку я закинул очень специфического харатера, и лора нсфв явно не на таких видосах тренилась. Но всё равно оно идею круто подхватывает.
Имею флоу пик1. Это попытка подмены лица в видеоклипе, пользуюсь reactor. В итоге оно падает на этапе Masking Helper - пик2/пик3. Цель - без маскхелпера оно хуево накладывает видео, всё мигает. Тот же флоу, но на изображениях работает нормально, так же флоу работает если не прикручивать этап Masking Helper. 4090-24. Что приделать или где прикрутить, чтобы оно типа выгружало в оперативку или ещё какимто образом?
Вопросы навеяны >>1346879 Как именно "пакетные" ребра передают инпуты в ноду? Создается куча параллельных задач по ноде, или нода изначально работает с мульти-инпутами? Если первое, то как их ограничить или заставить выгружать результаты из врама? Если второе, то почему нода внутри не учитывает, что ей может не хватить врама, и сама не выгружает один за другим? Где такие настройки?
Судя по коду маск-ноды на гх, она принимает ровно одну пикчу, а в конце чистит куда кеш, то есть работает как положено. В комфи есть batch и rebatch ноды. Это оно? Типа в них можно сунуть выхлоп экстрактора и они будут по одной пикче кормить реактор-пайплайн? Где вот это читать? В доках хуй с нихуем, просто какие-то общие концепции для хомяков. Аи вообще нихрена не рубит, во втором посте скатывается. Откуда вот вы это все узнали, что мы якобы ленимся просто прочитать?
The RebatchImages node is designed to reorganize a batch of images into a new batch configuration, adjusting the batch size as specified. This process is essential for managing and optimizing the processing of image data in batch operations, ensuring that images are grouped according to the desired batch size for efficient handling.
Ну ок, очень похоже на оно. А как на это выйти? Не перебором же нод. Есть какой-то дизайн овервью документ по такой херне в комфи?
>>1347115 Конкретного порядка выполнения нод нет. Как попало выполняются ноды, кэшируют свои аутпуты, потом они передаются следующим нодам. > заставить выгружать результаты из врама Есть ноды для выгрузки моделей в определённый момент воркфлоу, например перед/после семплера. > нода внутри не учитывает, что ей может не хватить врама, и сама не выгружает один за другим Выгружает, но через жопу. Выгрузит только если для весов не хватает памяти. А для выполнения модели он не умеет нормально рассчитывать необходимую память и падает в ООМ. > Это оно? Тебе надо "батч в лист", тогда список пикч будет по одной проходиться, но всё от ноды зависит. В худшем случае сохраняй кадры на диск, а потом бери ноду для загрузки циклом по одному пику из папки.
Подскажите дауну, как собственно генерить эти ваши видео с минетами? Накатил ComfyUI, поставил WAN 2.2, что дальше? Где брать воркфлоу и какую лору накатить? Несколько часов тыкаюсь, пока нихера не работает. Вообще нормальные гайды есть по этой теме?
Господа, а кто выжирает RAM? Балуюсь с последовательным сабграфовым воркфлоу wan 2.2, под конец генерации под 60 гб рама может быть забито. При этом вообще непонятно, нахуя, ибо у меня 3090 и все работает в видеопамяти. Торч.компайл не использую. Вообще загрузка максимально простая: два ггуфа для хай и лоу, вае и клип. Причем держать их в памяти смысла вроде нет, я не против, если каждый раз на карту/рам напрямую с ссд ехали, а потом очищались. Так-то бы похуй, но я хочу генерить другие видева параллельно на остальных 3090, если вторую система еще осиливает, то третья уходит в своп и все повисает намертво. Щас вот поглядел, нашел какую-то ноду Garbage Collector, может поможет.
Еще вопрос, сколько у вас на 3090 генерятся видосики? Я использую Q8 ггуфы, на 30 секунд уходит в среднем 28 минут на паверлимитной до 290 Вт. (44 секунды на первый шаг и по 24 с на остальные с лайтнинг лорами)
>Как быстро сделоть порно как у вас не разбираясь Поставь https://www.comfy.org/download Добейся, что хоть как-то заработал шаблон Video / WAN 2.2 14B Image to Video. Поставь плагин: File - Manage Extensions - ComfyUI-VideoHelperSuite. Скачай видео и кинь его мышкой в центр комфи - откроется воркфлоу (вф) из видео. Внутри найдешь подключенные лоры, типа wan_cumshot_i2v.safetensors, промпты. 99% лор тут https://civitai.com/search/models?baseModel=Wan%20Video&sortBy=models_v9 Положи их в comfyui\models\loras, в комфи нажми слева Models - кнопка обновить. По примеру вф из видео добавь лоры в свой вф, добавь ключевые фразы в промпт. Каждую лору надо два раза, в разрыв перед нодами ModelSamplingSD3, для хай и для лоу этапов. В твоих видео тоже будет вшит вф.
>>1347570 У тебя названия буквально вшиты в видео. Просто перетащи в комфи или ctrl+o. Если ты именно про ссылки, тогда сорян. >>1347668 >Поставь >Добейся, что хоть как-то заработал Проиграл с этого гайда. >99% лор тут >цивитопараша с которой удаляют что-либо сексуальное Гайд уровня нарисуйте круг - дорисуйте сову, только ещё и затянутый. Кто ДОБИЛСЯ, у того итак работает, у кого не работает, это никак не поможет. Ну, чтобы законтроллить наплыв хуесосов и кончеглотов, реально можно сделать один пастебинчик или даже markdown со скринами голой установки. >ComfyUI-VideoHelperSuite Без него рили не читает вф из видео? Странная хуйня, видосы, сохраненные через create-save video не палят метадату даже через сайты экстракторы, но комфи находит в них вф. VHS нода тупо в Comments хранит мету.
Загрузите селеболоры на ван, которые у вас завалялись. Я проебал, только на майерс случайно оказалась. https://huggingface.co/ApacheOne/WAN_loRAs Ля, что нашёл. Что-то есть на civitaiarchive.com. Знаете ещё ссылки куда новое заливают?
>>1347596 > у меня 3090 и все работает в видеопамяти > wan 2.2 2 модели по 13 гигов в 8 кванте или по 26 в fp16. Контекст еще вытесняет, если высокое разрешение. В оперативе лежат обе, чтобы быстро грузить в видяху, а не каждый раз с диска.
>>1347773 Я пишу гайд исходя из пререквизитов. Что комфи установился, что юзер догадался скачать предложенное, что хватает железа. Шаг запуска базового шаблона - воспроизводимый, приводи он к ошибке или успеху. Нет смысла траблшутить его в гайде "как обкончать еотову". Мне лично гайды полезны для снятия чувства, что что-то не так делаешь. Потому что без этого вектора я как раз таки могу копать до рассвета, хотя проблема была в "у тя не стоит расширение".
Без плагина не читало, как ни пробовал. Так можно вынуть без комфи: ffprobe -v quiet -show_format -show_streams video.mp4 > video.txt ... [FORMAT] ... TAG:comment=<вот это> [/FORMAT] Вот нахуй мне это знание >цивитопараша с которой удаляют что-либо сексуальное Скинь где не удаляют.
>>1347596 >сколько у вас на 3090 генерятся видосики сильно зависит от разрешения и воркфлоу, когда вф на длительные ролики то дольше - где то 2 минуты на 3 шага, когда вф на 5 секунд - 1 минута на 3 шага.
Почему когда я сохраняю новый файл в ComfyUI\custom_nodes\my-new-node.py и жму R, нода не появляется в списке, пока не перезапустишь комфи? Кнопка обновить список тоже не работает.
>>1348233 >>1348244 Потому что R - это для обновления списка моделей, а ноды грузятся только раз, при старте. Это же, блин, код - который нужно проверить, и связать с остальным кодом.
Иногда добавляю лор или заменяю на повер ргсри как там его. fp16 = 4 степа хорошего качества. При желании сэкономить оперативу, можно установить ComfyUI-GGUF и грузить Q8_0 модели с помощью Unet Loader (GGUF). Ну вроде все чики-пуки, я хз.
>>1348366 Первое это модуль, превращающий текст, который ты водишь, в понятный для модели форма. 2 и 3 это, грубо говоря, движок все этого. 4 и 5 это моды на движок, которые ускоряют генерацию. Тут вопрос в том, какая у тебя видеокарта, и если там не 24+гб врам, то тебе нужны иного формата движки.
>>1348386 Зачем ему другие-то? Он даже fp16 может качать, в видео-нейронках размер видеопамяти на запуск моделей влияет лишь немного по скорости. От размера зависит только разрешение и количество кадров.
>>1348399 Как я писал выше — лучше или fp16, или Q8_0 GGUF. fp8_scaled по качеству так себе от Комфи.
У тебя оперативы мало — это немного проблема. А вот 10 врама только большое разрешение не поставишь и все. На остальное пофиг, не парься и не слушай людей, кто говорит иначе.
>>1348434 Да модели вообще можно в оперативе держать. =) Тебе вообще не надо, чтобы модель лезла в видяху, кроме как ради некоторой дополнительной скорости. =)
>>1348564 > или Q8_0 GGUF. fp8_scaled по качеству так себе от Комфи В чём проблема юзать киджаевский? Зачем отдавать половину производительности на гуфы, которые даже хуже fp8?
Какой хайп был на запуске ван 2.2 и как же китайцы обосрались. Без лоры генерация 20 минут С лорой невозможный слоумо кал убивающий весь смысл апгрейда Хоть опять на 2.1 откатывайся
>>1348626 > процентов 10-15 С фастом fp8 быстрее в два раза. > fp8=Q4(KM) Нет, с fp8 только q8 может сравниться, q6 уже дико сосёт, q4 совсем поломаные. >>1348646 Значит у тебя переключение на лоуноиз-модель слишком поздно или 4-шаговые лоры со слишком низким весом. Либо промпты говно. Наоборот часто приходится бороться со слишком быстрой скоростью и тряской.
>>1348270 Сравниваешь время файла, выкидываешь старую ноду из списка, importlib.reloadишь новую. Модули нод и воркфлоу устроены так, что проблемы нет. Просто тупо не сделано, и все нодописатели ебутся перезагружают комфи каждый раз. >нужно проверить, и связать Хендвейвинг несуществующей проблемы. Питон парсит файл, запускает, возвращает объект модуля, как с любым другим импортом. Нет никакой разницы между импортом одного, импортом другого и импортом первого повторно, при условии что модуль не пишет в глобалы/етц. В наихудшем случае можно просто грузить как "имямод_N". Алсо, хули харкач недоступен
>>1348856 Че быкуешь, бля? Себе глаза протри от чо там у тебя налипло. >По мне так первая строка самое норм >>1348881 >Да-да, как же ОХУЕННО он летит на q6 >Плот одним сидом С тебя вопросы сняты
как считаете, 360 секунд на 5 сек ролик 4 шага 16 фреймрейт 1280*720 с лайтнинг лорой на L40 48 гб норм или можно еще ускориться? vram не полностью загружается, 65% примерно
>>1348960 Я объясню, чисто ради других анонов. Плот с единичным роллом на разных квантах/файнтюнах почти ни о чем не говорит. Если бы это была заведомая avg выжимка из большего плота с разными сидами и небольшим ходом по весам лор и кфг, то можно было бы делать выводы, даже не проверяя источник. Без этого это просто одноразовый высер. Он может отражать действительность, а может не отражать, особенно сложно это сказать на таких схожих результатах. И также без опыта сложно сказать, на что именно смотреть, потому что у просеров моделей/квантов (vs просто бэд ролов и недотяга параметров) в разных областях бывает свой выраженный профиль. Отсюда и вопрос. Я может новый в i2v, но у меня два года своих лор в t/i2i, и твои клюелесс вихляния выдают непонимание темы. >Хули еще там тебе надо увидеть? Стоит ли доверять словам/имплаингам, или списать это в маняанализ.
Собираю комп для лайтовой локальной дрочки нейросетей, ну и в игры поиграть, мб кто шарит, насколько 4080/4080 супер под это дело подойдет? Ща гоняю на ноутбуке с 3070, заебался от квантирования и ограничений. Понятно, что это тоже ограничения, 16гб это не много для нейронок, но все же, ощутимо больше, а там в будущем уже поменяю, пока по бюджету не проходит больше. Или есть варианты лучше? Пятая серия в бюджет только с 12гб попадает или 5060 ti.
>>1349033 Я бы подождал до релиза 5070ТиСупер, который будет с 24гб врам. Ориентировочная дата выхода - январь февраль. 12гб это очень мало, честно говоря. А у 5060ти чип слабенький.
>>1349033 В любом случае будешь страдать. На 16 гигах будешь страдать от нехватки памяти и квантов, на 3090 будешь страдать от низкой скорости и тоже нехватки памяти, т.к. на 24 гигах в q8/fp8 всё ещё надо свапаться. Сто раз уже говорили, в Ване жизнь начинается только на 5090. Всё остальное сорта компромиссов и ты выбираешь от чего будешь страдать.
>>1348776 Тут скорее всего использовался один и тот же сид + включены детерминисткие алгоритмы, чтобы протестировать одну и ту же генерацию на разных квантах. Поэтому эталон тут фп16 и надо сравнивать, насколько аутентично другие кванты ему соответствуют. Конкретно тут центральный самый крутой, за ним Q8. e5m2 что-то говнецо, но из fp8 квантов только он доступен для 3090 бомжей, т.к. e4 вычисления только с 4090 работают. С другой стороны, есть какие-то e5m2 v2, см https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled Я сейчас качнул их вместо восьмого кванта, въебал fp16 accumulation и получил 44->31 s/it, 24->17 s/it для шагов без и с лайтнинг лорой соответственно. Без fp16 accumulation 44->37 s/it, 24->20 s/it. Мне кажется, что аккумуляция как-то проебывает точность промта, но еще попробую погонять, конечно. По итогу с аккумуляцией и отключенным кешем видосик генерится 190 секунд (отключаю кеш т.к. на нескольких картах сразу запускаю). Еще можно компилировать модель, но чет это мне прироста нихуя не дает, кроме затрат на ожидание компиляции, собственно
>>1349313 > e4 вычисления только с 4090 работают Это с fast. Без него всё работает на старых, потому что fp8 кастится в fp16. > fp16 accumulation На блэквеле это говно мало того что качество роняет, так ещё и медленнее чем без него. Оно наверное актуально только на старых картах, максимум на Амперах. > компилировать Оно снижает нагрузку на ЦП, если в ЦП не долбится, то ничего и не получишь. Это для XL актуально, где модель мелкая.
>>1349323 >Это с fast. Без него всё работает на старых, потому что fp8 кастится в fp16. Попробую, спасибо. В общем, сейчас потестил - аккумуляция пидорит мелкие детали вроде рук и глаз, особенно в быстрых движениях. e5 тоже немного пидорит. Так что из всего этого восьмой квант самый хороший. Попробую скачать е4 потом и потестить по сравнению с 8-м.
>>1349664 Да там ничего особо сложного. Просто генеришь два фрагмента. Первый - простой i2v, второй - меняешь обычную ноду encode на ноду с поддержкой first to last frame, и скармливаешь ей на frist frame - последнюю картинку от первого этапа, а на last frame - оригинальную, которая была исходником для i2v. Потом эти половинки склеиваешь. и итоговый batch отправляешь в ноду для сборки видео. Все делается прямо в workflow, через batch ноды.
>>1345115 (OP) А ваще кто-нить ПОНИМАЕТ, как надо работать нормально в 2.2, чтобы любые хотелки нормально работали или все просто тыкают ползунки и чекбоксы, пока че-то там не высрется нормально? Есть какой-нить ботан, может, который это все расписывает понятно для карликов?
Проконсультируйте кому не лень по поводу 4060. На данный момент использую этот урезанный gguf на пару с lighting lorA. у меня сейчас стоит q3_k_s но вроде бы где-то читал, что до q5 тянет. Можно где-нибудь посмотреть что там народ нагенерировал именно на этой карточке? Чтобы хотя бы примерно понимать, стоит ли оно того. А так балуюсь в основном 3-5 секундными "оживлениями" статичных картинок.
>>1350184 Самая хреновая из хх60 для сеток. У 3060 - хотя бы 12GB vram. (Этого хватает даже для FP8 в WAN) У 5060 - поддержка свежих фич с реальным бустом. А у 5060Ti - еще и 16GB vram. А 4060 - огрызок, у которого нифига нет, ни памяти, ни фич. Если же учитывать и текстовые LLM - так все еще печальнее...
>>1350217 да, стоит. Покупал ее реально как затычку, чтобы иногда вечерами в фулхд игоры гонять. Ну так че, можно из нее че то выжать? У меня пока что получается корявая хуита, удивиться этому можно было бы лет 5 назад, но не сейчас
>>1350184 >по поводу 4060 Результат получить можно просто будет работать сильно не быстро
>>1350222 >получается корявая хуита Очень много переменных параметров. У меня генерация сильно зависит от качества изначальной картинки, насколько хорошо написан промпт, плюс как с сидом повезет.
>сейчас стоит q3_k_s Скачай несколько моделей бОльшего размера и пробуй на одной и той же связки картинка/промпт/сид/настройки семплера. В процессе смотри по загрузке VRAM, RAM, SSD. Ищи вариант, который устроит тебя по скорости и качеству.
>>1350210 Если перепробуешь все варианты и ни один тебя не устроит - тут вариант менять видеокарту или забить хуй. Есть еще вариант - аренда сервака, но я хз, что ты собираешься генерировать и что там по цензуре.
>>1349699 >Да там ничего особо сложного >и дальше какой-то обоссаный текст вместо одного видео Сука, я петуха теореточника спрашивал? Говоришь не сложно - показывай. Теорию я получше очередного безвидосного петуха знаю. Всё-таки прочёл твой высер, так это ещё оказался тупорылый петух, который предлагает делать нубовскую дерганную хуиту вместо VACE или loop параметров. Неудивительно, что чмо видео-залупу не приложило, иначе бы весь тред от смеха приложился. Склеивать ff-lf видосы даже не для лупов это удел нищих тупых бомжей, у которых есть доступ только к онлайн генераторам. Сорян, заебали уже подпёздыши, которые разбираются в разы хуже, но лезут с тем, что не просили.
>>1350393 Хули мне разбираться, даун. Я хочу увидеть что у других получается, чтобы сравнить. Вот если ты запостишь свой луп и я увижу, что это лучше моих попыток, и ты не покажешь настройки, тогда мне будет обидно. А то, что теоретик нихуя не умеет на практике меня не удивляет.
Дорогие друзья, сделайте пожалуйста с ней миньет, это подруга с детства, всегда была недоступная, хочу хоть так насладится, СПАСИБО ВАМ ОГРОМНОЕ, Всего Вам самого наилучшего) обнял)
>>1350775 Ну это смотря сколько ты лор подключишь. Чем больше лор подключено, тем медленнее будет генериться на гуфе. Если 1-2 лоры юзать, замедление мало заметно.
>>1350932 У меня со стабильным результатом получилось так (все лоры найдешь в гугле):
lightx2v_I2V_14B_480p_cfg_step_distill_rank128_bf16.safetensors хай и лоунойз 2
Wan22_PusaV1_lora_HIGH_resized_dynamic_avg_rank_98_bf16.safetensors хай и лоунойз 1.5
Модели ггуф Q6, euler, шедулер beta, хай cfg 1.1, лоу 1, 4 шага всего
Также в позитивном промпте всегда присутствует строка
natural body micro‑motion only, photorealistic 4K details, natural color, crisp textures, clean edges, no watercolor, detailed eyes, fine surface detail, high microcontrast, realistic shading, accurate tone mapping, smooth gradients, realistic highlights, detailed fabric and hair, sharp but natural, not talking
ай билят комфи сломался!! обновил и всё пиздец, ошибка. KSamplerAdvanced modified_wan_self_attention_forward() got an unexpected keyword argument 'transformer_options'
попробовал на облачном серваке с тем же воркфлоу - та же хуета
>>1351243 отбой, починил. обновил еще раз через комфи манагера. >>1351257 с этим воркфлоу у меня на 3070 ти 8гб за 270-280 сек генерит 832*480 вполне приличного качества
>>1351225 gguf - это универсальный формат моделей ИИ, в который можно запихать все сопутствующие файлы как в архив и не разбиратся с подключеием десятка файлов, которые обычно представляют из себя несжатые модели. fp8 - это степень точности моделей в основном формате обычно safetensors. есть ещё f16, f32 - сымое высокое качество. gguf обычно используется для очень сжатых моделей, в которых чем меньше размер модели (квантизация q2-q8), тем она дает менее точный результат работы, больше галлюцинаций и неточностей, но она быстрее работает.
>>1351243 А у меня vfce отвалился после обновления, при начала загрузки хватаю ERROR: Could not detect model type of: D:\ComfyUI_windows_portable\ComfyUI\models\diffusion_models\wan2.1_vace_14B_bf16.safetensors
аноны посоветуйте, как лучше организовать очередь в комфи? хотелось бы закинуть папку или список с исходными картинками, и пусть себе генерит. совсем заебись было бы чтобы можно было поподробнее настроить, типа как в фордже xyz plot
>>1351665 имеет смысл q6 накатить? У меня сейчас q5_k_s, работает хорошо, пока что ни разу не зависло, ошибок никаких не вылазило, но хотелось бы качество чутка получше. Видюха 4060
бля, после накатывания определенных порнушных лор, процесс останавливается в самом конце. В программе пишет красным переподключение, в консоли типа пауза, нажмите любую кнопку, чтобы продолжить, нажимаю и консоль нахуй закрывается. Иногда помогает снизить силу с единички до 0.9, но это не панацея. Че за ебала знает кто?
>>1351943 да нихуя в консольке. Написано все гуд, в потом просто как будто я сам принудительно поставил на паузу. Я в этом особо не шарю. А это че dmesg?
>>1352013 >ван22 фестфрейм ластфрейм + нанабанана Что ты нахуй несёшь. Этот чел генерил ещё до появления локальных моделей. Уже обсасывали это в треде. Это что-то малопопулярное в этом треде, вроде Runway.
>>1352042 >Уже обсасывали Не обсасывали, а посасывали. Тогда разговор был про обезьяну в раковине. И вот я несколькими постами выше сделал это в vace, без особого пердолинга, также можно было сделать и на момент выхода того ролика. Так и тут, надо просто продумать воркфлоу, на основе чего такое можно сделать. Тем более в 3 видны явные артефакты, где голова кота изначально уже полумандарин.
Оказалось разные ускорялки тоже конкретно влияют на результат. Первая на лайтинге 2.2 в хай и лоу, вторая на старых дистиллах 64 и 32. Я бы сказал лайтинг лучше для анимирования фото, а старье лучше сохраняет стиль на артах
>>1351603 s — small m — medium l — large Различные веса квантуются по-разному, какие-от могут быть на квант выше. Следовательно l лучше m, лучше s. Насколько — смотри сам.
>>1352382 Бля, челище, у тебя то же говнище, что и у всех получилось, тупо версия "но у нас есть fullwarp дома. fullwarp дома:". Ты этим похож на дмддаунов, которые влезают в обсуждение реализма, говоря что хл так тоже может, и кидают ебанного пластмассового монстра. Ещё раз тебе повторяю, раз у тебя с чтением проблемы: это видео сделано ещё до появления нормальных локальных моделей. И оно выглядит точно так же как и все его предыдущие и большинство новых видео. Очевидно, он делает это в одной-двух сетках.
>>1353248 Ясно понятно говнище, по тому что не из оригинального видео делал, а с уже изуродованного в низком разрешении и буквально 5 раз сгенерил, подкидывая рандомные фоточки. Когда он делал ван 2.1 уже был и я на 2.1 делал. И не все одинаковые, на видео с котом видно что он уже с самого начала мандарин и баба вся в артефактах. Но это не суть вопроса. Вопрос в том можно ли такое сделать локально и у кого какие идеи есть по пайаплайну для такого как с собакой?
Подскажите играть ли роль порядок подключения нескольких лор? Я вот например использую 4-6 шаговый воркфлоу с соответствующей lingting лорой. Но иногда если нужно добавить какую-то еще одну, обычно пользовался power lora loader. А сейчас попробовал просто последовательно их подтянуть, причем рабочая lighting шла последней, и результат вроде как получше стал. Это просто так получилось, или есть какой то порядок?