Терминология моделей prune — удаляем ненужные веса, уменьшаем размер distill — берем модель побольше, обучаем на ее результатах модель поменьше, итоговый размер меньше quant — уменьшаем точность весов, уменьшаем размер scale — квантуем чуть толще, чем обычный fp8, чтобы качество было чуть лучше, уменьшение чуть меньше, чем у обычного квантования, но качество лучше merge — смешиваем несколько моделей или лор в одну, как краски на палитре.
lightning/fast/turbo — а вот это уже просто название конкретных лор или моделей, которые обучены генерировать видео на малом количестве шагов, они от разных авторов и называться могут как угодно, хоть sonic, хоть sapogi skorohody, главное, что они позволяют не за 20 шагов генерить, а за 2-3-4-6-8.
>>1441270 чел, модели на основе вана релизят чуть ли не каждую неделю если твои задачи начинаются и заканчиваются на горлоебле, то я хз что для тебя будет прогрессом, генерация 20 минутного прона во всех позициях по одному фото подруги?
>>1441210 Я разочаровался в Ване. Искал где-бы делать простенькую i2v аниме-анимацию с сохранением изначального стиля, но ван даже с этим умудряется обосраться. Прикл - ветер срывает шляпу с головы. Пробовал дохуя разных промптов, но эта хуйня не видит что на голове шляпа. Прикл 2 - должен идти снег, а платье развиваться на ветру. Снег полностью исчезает, а платье деревянное. И таких приколов слишком уж дохуя.
>>1441722 Как ты это сделал? Вообще видос должен быть зациклен, а она ловить шляпу, пока та не улетела и надевать обратно, может конкретно это для вана слишком сложно?
>>1441768 С твоим промптом не намного лучше. Либо у меня конкретная модель говно, либо дело в количестве шагов, а может в разрешении. Буду думать, спасибо за демонстрацию.
>>1442054 Вот эту юзал https://civitai.com/models/1981116?modelVersionId=2388627 Лора на шаги там вроде как зашита. Моя главная проблема в том что скорость генерации ебать какая медленная и чтобы проверить все варианты и понять что пошло не так у меня уйдёт пол дня минимум. так что возможно и нахуй оно пока не надо Надо обновляться. К концу месяца хочу заказать что-нибудь за 50-60к, пока к 3090 склоняюсь.
У меня нубский вопросик, как дополнительно натренировать нейронку на конкретного человека, допустим у меня куча фоток и видиков тян, и я хочу что бы бы при генерации нейронка учитывала весь объем всей моей базы фоток и видиков с этой тян? где про это почитать?
>>1443145 Это называется lora. Но обучение лоры требует много видеопамяти, если для ван 2.2 то там 24 гига минимум, для картинок (флюкс, хрома, сдхл) хватит и 12 гигабайт. Самое простое для тренировки на картинки - fuxgym, там практически однокнопочный интерфейс. Для тренировки видео - AI-Toolkit/onetrainer (они можгут и на картинки тренировать в целом универсальней), немного посложнее но тоже есть гуи интерфейс и много инфы в интернете.
Сап генеряч. Ван2.2 на 12Gb/24Gb (vram/ram) генерит с 14b безумный час один ролик. С учетом того, что 5b летал. Вопрос - стоит ли в некросборку (ddr3 8+8+4+4) вместо 2x4Gb прикупить 2х8Gb, коль скоро ddr3 в этом сумасшедшем мире никому кроме меня не нужна и цены на нее особо не ползут. Psensor говорит, что память забита под завязку. И сдается мне, что часть всей прелести выгружается на hdd в подкачку. Поэтому и подумал, что проблема в утечке на жесткий. Или это ситуевину не исправит, оно так и будет голимый сас 703х1280 генерить?
>>1445598 В 12 гегов видлопамяти только 3 секунды контекста в таком разврешении влазиет. Снижай разрешение, или количество кадров уменьшай до 3 секов, если хочешь в этом разрешении. 5 сек в хд только от 16 кеков. Оперативка конкретно в этом случае не зароляет.
>>1445674 >В 12 гегов видлопамяти только 3 секунды контекста в таком разврешении влазиет. Снижай разрешение, или количество кадров уменьшай до 3 секов, если хочешь в этом разрешении. >5 сек в хд только от 16 кеков. спасибо, анон, попробую затестить на досуге.
>>1445598 братан, такое разрешение на 14b тебе не по карману как впрочем и любое разрешение на 2.2, там две модели каждая из которых весит как весь твой запас оперативки, и это в fp8, не считая текстэнкодера, затрат на комфи и винду и т.д. так что оперативу если покупать то сразу чтобы 64 было. не помню правда можно ли столько на ддр3, лол.
альтернатива - докупать до 32-48 гб и использовать только лоунойз модель вана
>>1446002 На моей старушке только 32gb ddr3 можно набрать, к сожалению. Ну понятно, я и так юзал только лоу. Значит надо резать кадры и разрешение. У меня почему-то не получалось сделать i2v, уходило в серость. Толи в лоре трабла, толи воркфлоу запорол. Чтобы оттестить похоже придется в самый минимум снижать настройки. А то опять по часу будет пыхтеть. Но опыт интересный. С 5b мне понравилоь возиться
>>1446325 Можно. Зависит от того какую лору хочешь обучить, самое простое на внешность персонажа на одних картинках можно обучить, в принципе достаточно быстро, за несколько часов обучится. На какие-то нсфв действия обучать надо дольше, и датасет нужен большой, с подробными описаниями.
>>1444783 А в чём он не прав? Я даже 2.2 до сих пор не скачал, копия 2.1. А 2.5 говно и не нужно. Какие-то лонгкеты выходили, не вижу в треде примеров, очередная хуйнян. Жду Z-Video.
>>1446281 Ух ты, я тут оказывается не самый медленный! Попробуй генерить с макс. разрешением 640, ван 2.2. это позволяет, второе разрешение считай по соотношению, либо 480. Нагрузка упадёт. Ставь поменьше ФПС 13 хватит и правильно считай кол. кадров. У меня тоже была проблема что видос уходил в серость на последних кадрах. Оказалось что это из за неправильно рассчитанной длинны. С твоей и моей конфигурацией нет смысла делать ролики с нормальными ФПС и разрешением, гораздо проще после генерации сделать апскейл и интерполяцию, первое добавляет кадров, второе - разрешение. Понятно что качество хуже чем при нормальной генерации, но лучше так, чем по часу пыхтеть. Нода для первого - Upscale image by. Для второго - RIFE VFI Можешь даже готовые ролики апскейлить, загружая через ноду Get Video Components
Прогресс будет только тогда когда будет железо под ии и мы сможем генерить 50 шагов без лор за минуту, т.е очень не скоро. Сколько не коупь бесплатный сыр лишь в мышеловке, слоумо не пофиксить, пикселизацию не пофиксить Видел видосы грока в 640х480 и не мог поверить в такое качество, как у нас в 720р
>>1446367 Вот он мне то-же самое написал, ещё написал что на обслуживание хуй забил и никогда термопрокладки не менял. Можно надеяться что станет получше если поменять, но как бы он там уже не пережег всё к хуям с такой эксплуатацией. С другой стороны это возможно даже плюс по сравнению с лотами где всё идеально. Могут ведь и дохлую, либо с выпаянными чипами прислать, а эта хоть работает и чувак явно не слишком пытается наебать.
>>1446381 Термопрокладки столько не сбросят температуры чтобы до 70 хотя бы снизить, тут надо от пыли продуть в первую очередь, завышенный поверлимит убирать, даунвольтить, ну и все остальное потом. Радиатор снимать только когда уже будут прокладки куплены, старые наверняка уже просто высыпятся.
Я свою 3090ti msi supreme x покупал тоже поюзанную которую никогда не обслуживали. До 77 грелась в фурмарке с вентилями на максималке, почистил, поменял термопасту с термопрокладками - до 72 стала греться, сделал даунвольт - выше 68 редкость с задушенными до бесшумности вентилями.
>>1446400 > свою 3090ti msi supreme x Вот как раз выбираю между MSI RTX 3090 Suprim X и Asus ROG Strix RTX 3090 OC, но первую продают по 70, а вторую по 60, поэтому смотрю сейчас второй вариант. Увы, не ti, т.к. они ещё дороже. Тоже думаю всё нормально обслужить - заказать термопрокладки и возможно даже паверлимит занизить чтоб не грелась при генерации. А не могли на ней от 83 градусов чипы начать отваливаться или текстолит зхериться? Вот такой хуйни бы точно не хотелось.
>>1446409 Если ее так долго эксплуатировали и постоянно игры гоняли то могут и начать отваливаться чипы, не сейчас так во время установки или перевозки, когда плату начнут теребить и деформировать. Для генерации однозначно надо поверлимит занижать, потому что sage attention и fp8 fast насколько увеличивают скорость, настолько же и увеличивают потребление, а с ним и температуры.
>>1446426 Это смотре какое тесто. У меня P40, и 3060 в генерации должна быть в 1,5-2 раза быстрее. Думаю её кстати пока оставить как вторую карту. А потом или продать когда цены совсем ебанутся, либо 48 Гб совместной видеопамяти могут вдруг понадобиться.
>моя 3060/12 с двумя карлсонами выше 74 не поднимается, Я теслу тоже больше 75 не грею хоть и с паверлимитом в 60%
>>1446413 Пиздос. Короче 2 стула: На первом карта которую могли пережарить разгоном, на втором - карта, которая вообще может не включиться. Дорого же нынче видосы с тяночками обходятся
Все современное железо оборудовано нон-сустейнабл режимами работы, для того чтобы выдавать такой-то пиковый перформанс в краткосрочных режимах работы и проходить тестики, чтобы быдло увидело и восхитилось СМАРИ НАСКОЛЬКО ЛУДШЕ НАДО БРАТЬ. На этом поле отметился интел со своими ядрами-кипятильниками, но понемногу к этому принципу пришли все. Поэтому нужно сразу отрубать все эти турбобусты и снижать поварлимиты, если у тебя нет мощной водянки которая отведет любое тепло.
>>1446493 >будто бы стоит брать 3090 ti, ты и так, и так переплачиваешь Просто читал что только эти >MSI RTX 3090 Suprim X и Asus ROG Strix RTX 3090 OC две ревизии прям норм по охладу и производительности, а у остальных проблемки. А вот в варианте TI их не то чтобы много на авито. Есть от TI от Gigabyte за 68к сама по себе вроде норм выглядит. Но выходить за 60к бюджета бы не хотелось, насколько они вообще мощнее стоковой версии?
>>1446552 Высмысле блядь не настраивается? И причём тут ван вообще? Я условно генерю 65 кадров, а затем свожу их в 5-секундное видео отдельной нодой. Сколько ФПС на выходе получается?
>>1446569 Чел, я тебе тоже скажу, как и чел выше: Wan всегда генерирует 16FPS - он на таком материале обучен и другого не знает. Все движения на изображении он генерит из расчета на 16 кадров в секунду. Если ты видео нодой выставишь 24 для сборки видео из того что Wan нагенерил - будет тебе ускоренная анимация в результате. В секунду будет впихнуто больше кадров - больше движения за то же время. А если выставишь 10 - будет замедленная анимация. Так еще на кинокамерах в прошлом веке делали эффекты ускорения и Slow Mo.
>Я условно генерю 65 кадров, а затем свожу их в 5-секундное видео отдельной нодой. Сколько ФПС на выходе получается? Если ты хочешь сохранить естественную скорость - 65/16FPS=4 сек. нормального видео. Или - 65/24FPS=2.7сек, но будет Slow Mo. Или 65/10FPS=6.5сек. ускоренного видео - как в кино Чарли Чаплина. Если же мерить от времени как ты написал - 65/5сек=13FPS. Это ускорение движений получается. Такая вот математика для Wan.
Я студент-киношник. Поясните за нейросети для видео пожалуйста, какие у них перспективы? У меня сложилось впечатление что нейросетки как не усрись не могут использоваться для создания фильмов и сериалов. Потому что как не усрись ты не можешь повторить тот результат который у тебя был ранее. Ты нагенерил персонажа и локацию, а при новой генерации с другого ракурса что-то в этой локации или персонаже обязательно поменяется, помимо ракурса. И это никак не исправить, такова как бы структура нейросетей. Поэтому те же операторы, актёры, гафферы(световики) будут востребованы всегда. В чём я не прав? Может я не прав, но вы всё равно считаете, что нейросети не заменят киношников, но по другим причинам? Или вы убеждены, что обязательно заменят? Поделитесь почему вы так считаете.
>>1446561 Да на те же 10%-12%, что и по паспорту. Но тут главное охлад, расположение чипов памяти, насколько я знаю. Так что 60 против 68 — как раз за прирост и спокойствие условное переплата и выходит. Но дело твое, это реально каждый сам себе решает, что брать.
>>1446620 >Ты нагенерил персонажа и локацию, а при новой генерации с другого ракурса что-то в этой локации или персонаже обязательно поменяется, помимо ракурса И да и нет. Внешность персонажа сохраняется ЛОРами, обученными на артах-видео с этим персонажем. С локациями сложнее, даже крупные нейросети вроде соры пока не могут, во всех подробностях, сгенерить одну и ту же локацию в разных видео с разного ракурса. Имхо, это частично можно пофиксить различными худ. приёмами, например выбирать во время тех же диалогов/действий ракурсы с минимумом деталей, а общие планы локаций показывать один раз в одном отрезке. По мне так для какого-нибудь артхауса/короткометражек вполне уже можно использовать только нейронки. Но этим пока никто особо не занимается, т.к. ебатни не на много меньше, чем с реальными съёмками/рисованием. Но постепенно модели становятся всё лучше, думаю момент когда "Сгенери мне сериал Ведьмак, только чтоб бабы были не страшные и Лютик не пидарас" будет вполне себе осуществим уже не за горами. И вот примерно тогда киностудии могут ощутить конкуренцию от нейроэнтузиастов. Но не больше, чем её сейчас ощущают художники.
Нейросети никогда НЕ заменят всех кого они грозятся "заменить", потому что нейросеть это инструмент, в умелых руках умножающий производительность в N раз, а не отдельный блядь работник, который будет за тебя ебаться с твоими задачами.
>>1446620 > Я студент-киношник > нейросетки как не усрись не могут использоваться Надеюсь, не на режиссерском? А то все знакомые режиссеры на удивление ебанаты. =D
Не прав, конечно. Это инструмент, который ты можешь применять умело, или как говно. Ошибки могут быть, но ты неправильно рассматриваешь. С твоей точки зрения, в кино нельзя использовать операторов, актеров, режиссеров и костюмеров, потому что — они совершают ошибки. Так же нельзя писать книги людям и так далее — тот же Гарри Поттер — говно говна по логике и продуманности. Люди всерьез обсуждают продуманные миры — потому что там ошибок меньше, чем в непродуманных. Так что, ты должен хвалить нейронку за то, что она всего 3 объекта в кадре поменяла, а не 10. =) Надо быть последовательным и оценивать одинаково что людей, что нейронки, если уж хочется судить с этой точки зрения.
НО! Сейчас нейронки и правда допускают ошибки, порою неприятные. И сделать 20 попыток из которых черрипикнуть корректную может быть дольше, чем снять сцену. Однако, дольше ≠ дороже. Это не в защиту нейронок, но стоит признать, что Голливуд делает хуевые спецэффекты, потому что экономит, значит и нейронки пойдут в ход, потому что экономия, а не потому что качество сопоставимое. =) А в будущем, вероятно, ты сможешь целиком закидывать в контекст изображения (флюкс и нанобанана картиночные уже работают с 10~15 входящими изображениями), и нейронки почти не будут допускать ошибок, а все сгенеренное хранить в контексте и помнить, что они нарисовали с нуля. И еще раз призову к равному отношению — мелкие детали в кино в принципе не соблюдаются, те же пятна грязи на актерах из кадра в кадр разные, и это считается нормой, хотя по факту это та же хуйня, на которую ты сейчас жалуешься на нейронки. Так что, подобными мелочами нейронки могут даже обойти людей, и снимать лучше, к этому надо быть готовым. Просто на это нужно время, но это не невозможно.
Как минимум, уже сейчас ты можешь применять нейронки в малобюджетных картинах частично, в будущем малобюджетки целиком можно будет снимать нейронками, а крупнобюджетки уже с применением нейронок как инструментов где допустимо по качеству.
Вопрос времени.
> Поэтому те же операторы, актёры, гафферы(световики) будут востребованы всегда. Это от авторов «авторы статей и копирайтеры никуда не денутся» и «программисты никуда не денутся». Особенно смешно, когда эти люди продолжают повторять, но жалуются, что найти работу стало тяжелее. ХМММ… ПОЧЕМУ БЫ… Наверное на рынке внезапно появилось много хороших специалистов-людей, просто пришли из параллельного мира. =D
Заметь, те же актеры озвучания вполне себе натурально в США бастовали. И Нетфликс подписывал контракты «передаете внешность и голос, и права на использования в художественных произведениях безгранично». Есть мнение, что там сидят не дураки (а кто дурак — тот голодный).
Ты прав лишь в том, что структура нейросетей такова, что шанс допустить ошибку будет всегда. Просто в какой-то момент он станет пренебрежительно малым. А до этого сравнятся с человеческим (у человека шанс ошибки так-то дохуя, цветущий жанр киноляпов на ютубе не даст соврать).
Так что лучше — знакомься хотя бы мельком. =) Чтобы потом не оказаться в отстающих. Ну мало ли что!
>>1446620 >Я студент-киношник. Поясните за нейросети для видео пожалуйста, какие у них перспективы? Спецэффекты и сокращение рутины в анимации - ближайшие векторы применения. Сетки хорошо достраивают по образцу, и умеют в интерполяцию между состояниями. Т.е. - такая штука как анимация по ключевым кадрам - это им родное дело. Заменить одну рожу другой, или собаку инопланетной кракозяброй - тоже.
>Потому что как не усрись ты не можешь повторить тот результат который у тебя был ранее. А с живыми актерами ты 2 раза ровно одно и то же снимешь? Вот прямо - 1 в 1?
>Может я не прав, но вы всё равно считаете, что нейросети не заменят киношников, но по другим причинам? Или вы убеждены, что обязательно заменят? Не надо делать из еды культа!(с) Сетки - инструмент. Применение обязательно найдут (и уже находят), но не "вместо", а "вместе".
>>1446646 >Спецэффекты и сокращение рутины в анимации - ближайшие векторы применения. Сетки хорошо достраивают по образцу, и умеют в интерполяцию между состояниями. Т.е. - такая штука как анимация по ключевым кадрам - это им родное дело. Заменить одну рожу другой, или собаку инопланетной кракозяброй - тоже. А что скажешь насчёт операторской и актёрской работы? Может как то сильно автоматизировать всё?
>А с живыми актерами ты 2 раза ровно одно и то же снимешь? Вот прямо - 1 в 1? Не совсем. Когда я говорил что не сможет повторить результат, я имел ввиду, что локация будет другой, одежда на персонаже тоже, лицо поменяется и т.д. Но я уже понял, что в принципе можно ей дать другое видео чтобы она постаралась повторить, вопрос в том насколько она будет способна все детали учитывать и т.д., чтобы в глаза не бросалось то что в сцене на фоне раньше был например диван, а теперь на него месте кресло. Или что на персонаже были одни носки, а потом другие. >Сетки - инструмент. Применение обязательно найдут (и уже находят), но не "вместо", а "вместе". Ну не буквально заменят. Но многих оставят без работы, потому что чем выше производительность труда - тем меньше потребности в множестве специалистов.
>>1446645 >Надеюсь, не на режиссерском? А то все знакомые режиссеры на удивление ебанаты. =D Не, оператор. Но есть знакомые которые учатся на режиссёров, и они нормальные. Но режиссеры это часто люди обязательно с амбициями и желанием своё видение всем показать, это правда. И ебанашек значит больше.
>Ошибки могут быть, но ты неправильно рассматриваешь. С твоей точки зрения, в кино нельзя использовать операторов, актеров, режиссеров и костюмеров, потому что — они совершают ошибки. Ну ошибки нейронок куда больше в глаза бросаются. Если косяки по сценарию или по не совсем выразительной игре актёров можно просто списать на тупость персонажей и нехаризматичности героев(это ведь то, что ты можешь и так встретить в жизни: тупых или нехаризматичных людей), то в случае с несоответствием и нелогичности визуала или аудио, то всё погружение сразу сломается. Аудиоряд не соответствует видеоряду(например, персонаж бежит, а звука как ноги касаются земли нету) - всё, пизда погружению. Тоже самое с видео. Если ты снял одну сцену, где на фоне тот же диван, а через секунду снимаешь с другого ракурса и там уже кресло да ещё и другого цвета, то человек сразу ахуевает, потому что в реальности такого никогда не бывает. Погружение идёт по полной пизде.
И вот щас у нейронки проблемы с этим вроде присутствуют. Но вопрос в том, обусловлены ли эти проблемы их архитектурой, лежат ли эти проблемы в её основании, или это просто временная проблема потому что тупо мощностей или оптимизации не хватает. Вот этого я не понимаю. Пройдет ли с годами эта проблема или нет. Потому что если пройдет, то в целом моя работа относительно бесполезной станет.
>Это от авторов «авторы статей и копирайтеры никуда не денутся» и «программисты никуда не денутся». Ну вот кстати про программеров неправда. Никуда они не делись и пока не денутся, нейросети относительно хуево кодят. Но про копирайтеров, переводчиков и актёров озвучки ты абсолютно верно сказал, им уже пизда, а дальше только хуже.
>>1446644 >И да и нет. Внешность персонажа сохраняется ЛОРами, обученными на артах-видео с этим персонажем. С локациями сложнее, даже крупные нейросети вроде соры пока не могут, во всех подробностях, сгенерить одну и ту же локацию в разных видео с разного ракурса. Ну вот да. Но я не понимаю это их фундаментальная проблема, просто нейросетей как технологии или это вопрос оптимизации и отсутствия мощного железа. В целом как оценить шансы будут ли они иметь такие же проблемы через 5 лет или нет.
>Нейросети никогда НЕ заменят всех кого они грозятся "заменить", потому что нейросеть это инструмент, в умелых руках умножающий производительность в N раз, а не отдельный блядь работник, который будет за тебя ебаться с твоими задачами. Да похуй, суть одна. Вот умножится производительность, и конкуренция в сфере увеличится, зарплата упадёт, многие останутся без работы. Не потому что нейросеть их заменила, а потому что теперь один чел с нейросетью выполняет работу за 5ых.
>>1446670 >Вот умножится производительность, и конкуренция в сфере увеличится, зарплата упадёт, многие останутся без работы. Чтобы понять что произойдёт, вернись назад лет на 200, к началу НТР и появления станков. Остались ли тогда без работы ремесленники? Да - остались. Исчезли ли в результате НТР рабочие профессии? - Нет, не исчезли, напротив, появилось много новых. Плюсом по итогу увеличилось количество дешёвых товаров, от чего в итоге выиграли даже уволенные ремесленники, т.к. им больше не надо было за новые штаны отдавать половину коровы. Так будет и сейчас, с той лишь разницей что всё происходит слишком быстро и это порождает больший хаос и панику.
>Но я не понимаю это их фундаментальная проблема, просто нейросетей как технологии или это вопрос оптимизации и отсутствия мощного железа. Это проблема подхода. Технически уже сейчас можно было бы сделать ЛОРы на локации, но этим никто не занимается, т.к. модели целенаправленно тренируют на персонажей. Появится необходимость - сделают. >будут ли они иметь такие же проблемы через 5 лет или нет Думаю да, лет через 5, если такие проблемы и останутся, то будут не настолько критичны.
>>1446686 >Чтобы понять что произойдёт, вернись назад лет на 200, к началу НТР и появления станков. Остались ли тогда без работы ремесленники? Да - остались. Исчезли ли в результате НТР рабочие профессии? - Нет, не исчезли, напротив, появилось много новых. Плюсом по итогу увеличилось количество дешёвых товаров, от чего в итоге выиграли даже уволенные ремесленники, т.к. им больше не надо было за новые штаны отдавать половину коровы. Ну это и так очевидно, что если например операторскую работу оптимизируют нейросети, то оператор не помрет от голода и просто пойдёт на завод. Но только он мог бы сразу пойти на завод, строить там карьеру, а в итоге тратит время на операторство, а потом придёт на завод без опыта все с нуля начинать. >Технически уже сейчас можно было бы сделать ЛОРы на локации Откуда такая уверенность? Даже человек вряд ли в своей памяти всю локацию может уместить и представить как она с разных ракурсов будет выглядеть, как это сделает нейросеть?
>>1446666 Блядь, я писал ответ, но двач решил его стереть. Буду краток, сорян.
1. Временно. Сравни какие были картинки в 2020-2021 и сейчас. Сравни тексты в 2023 и сейчас. Дай время. Видео-нейронкам годик всего.
> Ну вот кстати про программеров неправда. 2. Я программист, это правда. Много знакомых жалуются, что найти работу сложнее. Джуны все менее востребованы. Один сеньор легко закрывает 2-3 старых рабочих места, это выгоднее, чем брать кривых джунов. Просто это малораспространено еще.
>>1446667 Да, раскупили. Видимо, надо было вчера брать, когда находил объявы.
>>1446697 >Откуда такая уверенность? Даже человек вряд ли в своей памяти всю локацию может уместить и представить как она с разных ракурсов будет выглядеть, как это сделает нейросеть? А как нейросеть может в подробностях со всех ракурсакх изобразить конкретного персонажа? Это просто сам принцип её действия. Грубо говоря, обучаешь лору на 100500 фотках конкретной комнаты, к каждой из которых прикрепляешь конкретные теги иии внезапно потом с этой лорой, при появлении конкретных тегов в промпте, модель будет ориентироваться на те самые фотки, а недостающие детали рисовать самостоятельно. Притом чем больше материалов будет при обучении лоры, тем точнее будет результат. Разница лишь в том, что нынешние модели в основном обучены на фотках лидей / картинках персонажей, а не на просто на локациях. Так что всё-таки могут быть проблемки. Но это не точно, лоры на локации так то вполне существуют.
>>1446742 Айти само по себе уже просто перестало быть такой востребованной сферой, где легко найти работу без опыта и вышки. Это необязательно из-за нейросетей, скорее потому что в айти пытается вкатиться каждый дурачок.
>>1446771 Ну получается проще чем фоткать комнату просто в ней отснять актёра, а нейронкой можно допустим просто ебальничек и мимику подправить. Другое дело если нейронка сможет сгенерировать комнату с нуля, на основе фоток 100500 разных комнат и потом она будет придерживаться схемы и внешнего вида именно той комнаты что она уже сгенерировала. Тогда половина киношников станет не нужна, а кино само по себе дешевле станет.
>>1446742 Мне понять свои перспективы жизненные нужно, и правильно ли я выбрал направление обучения. Учиться а потом понять что тебя видеонейронка выебала и ты не востребован не хочется, но и направление менять не будучи уверенным в том что это произойдёт тоже.
>>1446859 > Айти само по себе уже просто перестало быть такой востребованной сферой Одно другому не мешает, все это накладывается. =)
> Ну получается проще чем фоткать комнату просто в ней отснять актёра Отсюда и далее — да, все верно. Пока что проще так, а потом подучится, сможет более-менее консистентно поддерживать.
> Мне понять свои перспективы жизненные нужно Я не спец в этом, но могу предположить, что операторы как таковые никуда не исчезнут — иногда снять проще, подготовить датасет проще, отснять чисто бэк проще, так что МНЕ лично видится оператор как одна из самых сейвовых профессий в области. Но, это мой нубских взгляд в данном случае. =)
Ну свадьбы будешь фоткать, с голода не помрешь. =D
Если я использую для Вана быстрые четырехшаговые лоры и хочу улучшить качество видео повышением количества шагов, то начиная с восьми и выше шагов начинают очень сильно проебываться лица. Это можно как-то исправить?
Пробовал использовать только лоу ван22 (по вот этому совету https://www.reddit.com/r/StableDiffusion/comments/1mci6z6/if_you_are_lazy_just_use_wan_22_low_noise_model/?tl=ru ), но что-то не взлетело, генерится безумие. Две половины 14б вана похоже в мою сборку (12vram+24ram) не влезают, процесс виснет на этапе начала работы сэмплера хая, даже не сыплет ошибкой, тупо виснет. Разрешение 256х480, 33кадра. Что делать, тариться gguf-ами и будь что будет? Эхехе...
>>1446934 >Две половины 14б вана похоже в мою сборку (12vram+24ram) не влезают Это невозможно. Они работают последовательно, по очереди. Когда начинает работать вторая - первая выгружается. Если простой памяти хватает - только в память. Если не хватает - в своп, или вообще полностью (потом будет грузится с диска заново). То же самое со второй, и с энкодером.
>>1446620 братан, никто в кино нейронками всю сцену целиком, с актерами и прочим одним прогоном не делает. ну кроме россиянских кабанчиков, которые проплатили подписку на veo 3 и клепают сериалы для онлайн кинотеатров качеством хуже говна с лопаты. нейронки используются для каких-то отдельных вещей и фиксов, которые потом на vfx постпродакшене собираются в кучу, как и при обычном пайплайне.
Помните свой первый сгенеренный/увиденный ролик с еблей? Вот это была магия. А сейчас сколько прогресса не жди такого чувства уже не будет, ну сосет и сосет
>>1447688 первые сгенеренные ролики были t2v на хуньяне то есть то чувство лично у меня во многом было из-за того что текстом все делал, а сейчас просто готовую картинку заставляешь двигаться
>>1442958 Попробовал данный вф, по сравнению с тем говном что я собрал цветокор лучше, засветы по краям конечно все еще есть а до этого на их месте вообще были темно фиолетовые артефакты но вспышки с перехода от ласт к ферст фрейму перестали появляться, заслуга колор мочи наверное, там бтв половину нод что есть я не юзал и не ебу че они делают, еще есть ощущение что аутпут получается более замыленный чем на дефолтном луп вф в котором нихуя нету, примеры пока принести не могу а то нагенерил себе видосов по интересу для теста, а на ментаче за такое можно и пизды получить. другой мимио крок
>>1447907 >там бтв половину нод что есть я не юзал и не ебу че они делают >есть ощущение что аутпут получается более замыленный чем на дефолтном луп вф
Выключи энхансер, он там не нужен а мыла наваливает только в путь, еще наг можешь вырубить если негатив промпты не нужны, он вроде как тоже подсирать может. Еще за псевдо качеством можешь попробовать cfr до 15 скрутить, битрейта накинет, должно выглядеть лучше, может плацебо хз.
>>1446561 По производительности не сильно выше, но чипы памяти с одной стороны находятся и лучше охлаждаются, сама плата с запасом прочности и использовалась потом для 4090. С придушенным поверлимитом TI примерно равна раздушеной не-TI, а греется меньше.
>>1446742 >Временно. Сравни какие были картинки в 2020-2021 и сейчас. Сравни тексты в 2023 и сейчас. Дай время. Видео-нейронкам годик всего. Только картинки что тогда что сейчас можно крутить на локальной машине. Видео развиваются сейчас только закрытые нейронки за бабло, из доступных есть ван, который хоть и хорош, но все равно мало, и уже тоже стагнирует, и есть все остальные, которые даже не близки к вану.
>>1446886 С лорами ускорения качество не улучшить количеством шагов, оно как бы уже подразумевается что генеришь с максимальным количеством шагов. Без лор например, чтобы получить аналогичное качество надо количество шагов сильно больше стандартных 20.
>>1447965 Читал такую телегу что в стандартной версии Asus ROG Strix запили настолько годный охлад, что вышло не хуже TI и поэтому они больше ценятся на 10 к дороже остальных ревизий Потому и искал конкретно их. Но этот аргумент конечно звучит забавно на фоне 83 градусов в тесте. Чёт наверное всё-таки рискну её взять. Не может быть, чтобы после обслуживания охлад не улучшился
>>1448003 А что тебя не устраивает по качеству? Качество можно сильно ухудшить если использовать неподходящие настройки, или если используется несколько разных лор которые между собой плохо сочетаются. Или например бывает если модель текст энкодера юзать киджаевский без киджаевских нод, это тоже поганит качество. Если все правильно используется качество довольно приличное.
>>1447968 Опять же, нифига нельзя было крутить на локальной машине. Долгое время была SD1.5, которая сравнимо с ваном — гораздо хуже, и мидджорни, которая вполне себе сора/вео от мира картинок на тот момент. И только когда вышел Flux1, картинки стали хорошими, а с выходом квена и второго флюкса уже норм редакт появился. Ван это скорее уже sdxl, который тоже не сразу появился, так что никакой стагнации нет, сравнение некорректное. Тогда мы тоже с SDXL сидели и ждали… и дождались. Так что рано опускать руки.
>>1447129 Ну как сказать. Возможность делать ролики в логичном окружении стоит нескольких лор на локации. И почему сразу для одной, ты лоры по одному разу всегда используешь?
>>1448172 Пхпхпх, ну когда появились лоры, даже 1.5 стала генерить фотореалистично. =) Я и сам долгое время на 1.5 и сдхл сидел. Другое дело, что когда мне надо было что-то по работе, а не по фану — то пересаживался на флюкс и квен-имейдж. Важная фича — следование промпту.
Если мы хотим сравнить Wan2.2 можно сравнить в таком случае с StableVideoDiffusion или AnimateDiff — скачок огромный, по тому же следованию промпту, да и по качеству. Все развивается, просто стартанули позже.
Что-то какая-то чертовщина. У Wan22 не получается запихнуть лоры вместе с моделью. Выпадает с OOM. Как будто она не хочет пихать их в RAM, пока модель утрамбована в VRAM.
>>1448274 лора один и тот же ебальник не может стабильно повторять похожим на самого себя, а ты целую локацию предлагаешь генерить. ты приводишь пример с 100500 фотками команты, то есть локация уже по факту есть блять и все что тебе нужно это записать видео в комнате ирл или сделать комнату в 3д из тех же фоток и потом уже в этот видос вставлять сгенеренных челов, это не вдаваясь в подробности реализации и постобработки
>>1448691 ага. Но суть такова - при установке лоры на 0.4-0.5 Gb процесс валится с OOM, а при удалении - работает. Сборка 12vram+24ram, ну явно все забиться не должно.
>>1448685 >лора один и тот же ебальник не может стабильно повторять похожим на самого себя Я сейчас рассуждаю о гипотетической технологии. Лоры для картинок вполне себе ебальник уже повторяют со всех ракурсов. Так что это вопрос оптимизации.
>то есть локация уже по факту есть блять и все что тебе нужно это записать видео в комнате ирл Ога блядь, то-то у меня есть доступ к любой гипотетической комнате и желание туда переться, чтобы снять её ИРЛ.
>или сделать комнату в 3д из тех же фоток и потом уже в этот видос вставлять сгенеренных челов А что мешает и челов сделать в 3D и анимировать вручную? Мы же тут занимаемся генерацией чтоб вручную всё снимать, рисовать и анимировать, ничего не перепутал?
Пойми, что лора это не когда лично ты для одного единственного видоса идёшь и делаешь дохуя фоток, потом ебёшься с тегами, свистя-пердя кое-как обучаешь и такой "Нахуй надо, лучшем вручную снял!". Лора это когда у тебя завалялось какое-то количество материала, и ты на его основе обучаешь лору хотя бы даже из любопытства, а потом выкладываешь её на цивитаи, потому что не жалко, а там ещё 100500 таких пользуйся - не хочу. И по итогу получается легче чем 3D модельки анимировать лол.
>>1448751 > Лоры для картинок вполне себе ебальник уже повторяют со всех ракурсов вот именно что нет. нету стабильности. на одно сиде похоже, на другом видно что не похоже. кстати, на видеомоделях у меня результат был получше как будто
> Ога блядь, то-то у меня есть доступ к любой гипотетической комнате и желание туда переться, чтобы снять её ИРЛ. так а нахуя ты сам пример приводишь со 100500 фоток комнаты, дурилка > Грубо говоря, обучаешь лору на 100500 фотках конкретной комнаты, к каждой из которых прикрепляешь конкретные теги иии внезапно потом с этой лорой, при появлении конкретных тегов в промпте, модель будет ориентироваться на те самые фотки, а недостающие детали рисовать самостоятельно
обсуждаем использование использование нейронок для кино, причем тут тут "Лора это когда у тебя завалялось какое-то количество материала, и ты на его основе обучаешь лору хотя бы даже из любопытства" кароче ты нубик и несешь хуйню рандомную
>>1449150 >обсуждаем использование использование нейронок для кино Принцип тот-же. Тебе не приходило в голву что лоры могут делать одни люди, а кино генерировать другие? Ты бы ещё предложил свой ван запилить для съёмок конкретного фильма лол.
>так а нахуя ты сам пример приводишь со 100500 фоток комнаты, дурилка Потому что они понадобятся для обучения лоры, дурилка.
>>1449679 >так и вижу киношника, который делает фильм на рандомных лорах А на НЕ рандомных, ты прям видишь? По твоей ебанутой версии, все почему-то обязаны делать все только самым ебанутым и неудобным образом и этот же "факт" одновременно ты используешь как аргумент того, что использования лор в кино невозможно. И кто тут шизойд конченный?
Для начала, мы говорим про использование лор. А раз мы используем лоры, то очевидно мы используем свободные, некоммерческие модели. А, если мы используем не коммерческие модели с цивитаи, и нам по какой-то причине норм, то схуя ли в это всё не вписываются рандомные лоры от туда же, блядь? Опять, же напомню, что я говорю не про текущий момент, а про развитие, когда свободные модели смогут выдавать приемлемое для кино качество. И как-бы логично предположить что рандомные лоры для этих моделей тоже должны быть приемлемы. Или же ты сейчас в авторское право будешь уворачиваться? В таком случае добро пожаловать в коммерческую хуйню вроде Соры. Но фишка в том, что ни в первом, ни во втором случае съёмочная группа НЕ ОБЯЗАНА делать лоры самостоятельно. Она либо возьмет бесплатные варианты с цивита, либо заплатит за эту задачу коммерсам. Но даже во втором случае это должно выйти дешевле, чем арендовать место для съёмок, камеру, оператора, актёров и оплатить логистику всей этой хуйни. Для этого блядь генеративные модели и делаются.
>>1449695 я даже отвечать на эту шизофазию не буду, ты либо школьник у которого знания о нейронках заканчиваются на том что на цивите есть лоры, а про видеопродакшн вообще не в курсах, либо просто душевнобольной. судя по настойчивому желанию ДОКАЗАТЬ свои бредни, попутно путаясь в показаниях, и то и другое.
>>1449695 Чел ты реально шизоид. Ничего такого пока даже в планах особо нет, максимум консистентность персонажа поддерживать на должном уровне. Ибо как говорили даже с охеренно натренированной лорой при разных параметрах генерации лицо меняется, это нельзя отрицать. Где то больше где то меньше, но это факт. Про консистентность пространства и говорить не приходится, оно будет от генерации к генерации скакать как ебанутое, ты не сможешь зафиксировать конкретный угол или окружение, когда ты будешь делать второй дубль то все в сцене поменяется. И тут мы подходим к самому главному - игра нейро-актеров, она полнейший кал, они путаются в эмоциях выражениях лица, да что уже говорить - ты голос даже не воспроизведешь такой же на разных сценах, не говоря уже о интонациях. Нейрофильм на данный момент крайне противоречивая тема, максимум местное использование как сейчас и работает.
>>1449790 >на данный момент Если бы я тебе 5 лет назад описал то чем ты занимаешься сейчас, ты бы мне вероятно выдал такую же триаду о том насколько это невозможно.
>>1450019 Это да, но не стоит это интерполировать на ближайшие 5 лет, уже видно что индустрия замедляется. В перспективе пока нет никаких революционных наработок только улучшение имеющегося функционала. А он в свою очередь очень далек от совершенства. Даже платные супер-пупер модели, вроде вео3 или соры2, не могут выдать чего то достойного. И уже заметно "упирание в железо", по тому что обучение этих моделей растет экспоненциально. Казалось бы - что мешает гига корпорациям с закрытым кодом сделать возможность генерации роликов хотя бы 30 секунд на этом этапе, но нет - довольствуйтесь 15 секундами в HD, даже за деньги.
Запустил ваню 2.2 на своем монстре с 16гб рам и 8гб врам. В начале делал как замыслено в воркфлоу, по 2 шага на хай/лоу. Результат не понравился совсем. Потом вычитал что одну лоу можно использовать саму по себе как апгрейженую 2.1 и прогнал 6 шагов на дпмпп вместо ейлера. Вышло сильно лучше. А вообще какой сэмплер предполагается для 2.2?
>>1450279 >уже видно что индустрия замедляется Это уже совершенно новая тема для дискуссий. Даже если представить что вся ИИ индустрия резко сторнируется. Всё равно можно ожидать для видео выход фришного аналога платных моделей вроде Соры, также как для пикчей вышел Флюкс - аналог Миджорней да да аналог хуёвый, но тем не менее качество бустанул + Если начнётся стагнация, это может привести к лопанью ИИ-пузыря, и выкидывании на рынок тысяч никому не нужных серверных карт закупаем всем нейрачем А100 по 15к деревянных А это уже само по себе откроет не малые перспективы. Не удивлюсь, если через год-два ИТТ будут блевать с роликов что сейчас здесь выкладывают.
В общем с тем что таких качественных скачков как с 20 по 23 год не будет, пожалуй соглашусь. Но что-то точно произойдёт.
>>1450832 Вот вышел флюкс 2. Отличия надо под лупой искать, а потребляет в 2-3 раза больше памяти, при времени генерации в 4+ раза дольше. Что это как не стагнация, в конечном итоге все упрется в потребительское железо. Чтобы получить уровень условной соры2 или вео3 просто напросто не хватит мощностей на потребительском железе. Как не крути, пока не выйдут специализированные для ии карточки никакого прогресса дальше не будет.
>>1450858 > пока не выйдут специализированные для ии карточки никакого прогресса дальше не будет. Так и тогда не будет, где твоя рам сейчас? Закупайся, кушай прогресс вплоть до 1тр мое дома. Главы ии просто спиздят весь рынок и от начального ценника на одну такую карту, который уже будет далек от потребительского, прибавится еще х10
>>1450842 >Как думаешь, хорошая идея P102-100 в пару к 3060/12? Плохая. Но для текста - можно P104-100. За копейки +8GB быстрой vram - там это все еще ценно. Здесь - бессмысленно, cuda 6.1 в картинках уже не поддерживается.
>>1450967 Даже если бы позволял - cuda 7.5 сейчас минимум, без нее не работает вообще. А там 6.1.
>>1450875 Ну ахренеть успех, 10 референсов, в 3.3 раза больше чем в квен эдит, при том каждый доп референс во флюксе увеличивает время генерации в отличии от квена. Принципиально ничего нового, да текст чуть получше стал выводить, чуть получше промпт стал понимать - минорные улучшения ценой четырехкратного повышения требований. Что нас ждет во флюкс 3? 20 референсных изображений и требования в 200 гигов памяти с генерацией 1 картинки по часу?
>>1450898 При чем тут SD1.5, когда сравинимваю f1 и f2
>>1451254 >При чем тут SD1.5 Как причём? Памяти жрёт меньше? - Меньше. Картинки делает? - Делает! Да и разницы не видно, если под лупой не рассматривать, стагнация же кругом!
>>1451254 >при том каждый доп референс во флюксе увеличивает время генерации в отличии от квена Да? Странно. У меня и в квене как раз - чем больше референсов, тем медленнее. И вообще-то, это как бы логично - чем больше данных тем больше считать...
>>1451304 Если показать картинки sd vs f1 то отличия заметны - прогрессия. Если показать картинки f1 vs f2 то ты не поймешь какая из них сделана на f1, а какая на f2 - стагнация.
>>1451615 Пиздишь, ты явно Ф2 не использовал. По качеству и знаниям разница между Ф1 и Ф2 такая же, как и между XL и Ф1. По пониманию промпта даже закрытые сетки соснут у Ф2.
>>1451625 Я седня весь день ебался с этими моделями, и чекай разницу: он говорит о том, что ты не увидишь разницу, если тебе ПОКАЖУТ КАРТИНКИ. Так-то F1-Qwen-F2 визуально и правда отличаются слабо (ну там синтетики где-то навалили, кожа пластиковая, но лоры и промпты фиксят). Не отличишь.
А в работе, да, я ебал, F1 очень тупая, F2 сильно тащит, Qwen местами тоже хорош, выручил пару раз.
>>1451625 блять а схуяли кто-то должен понимать что на чем сделано. аргумент пизда просто, так и на сдхл можно сидеть вангерлов генерить десятилетиями мне надо чтобы модель сделала пикчу какую я сам хочу, флукс 2 с этим справляется лучше и имеет боле широкий функционал и область применения
У меня Wan 2.2 в img2vid с двумя мое заметно меняет реальное фото, когда используется одна лоу модель - нет. Это неизбежный результат использования хай-прохода или я что-то упустил?
>>1450842 Ищи cmp90hx, для нейронок сейчас топ. Это майнинговая RTX3080 с 11 Гб памяти. Соответственно все свежие пакеты её поддерживают, с LLM, SD и Wan проблем никаких. Просят за них 15к, можно и дешевле найти.
Поиграть нормально не получится на такой, имей в виду.
На этом месте должен был быть преисполненный желчи пост, про то что в ван 2.2 нет полноценного имг2вид. Потому что хайнойз имеет доступ к референсному фото, но затем латент уходит в лойнойз у которого доступа к референсу нет, поэтому он подсирает отсебятиной в оставшийся нойз и делает из фото видос со второй картинки. Здесь я решил на всякий случай почесать еще раз яйца и проверить, точно ли нет способа отправить в лоу картинку. И тут я спустя 30 часов бодания башкой об стенку заметил, что у меня специально выделенный для этой задачи гайданс из wanimagetovideo не подведен к семплеру, а вместо этого идет голая выдача из клипа. Вот как полезно поныть на дваче!
Короче с использованием выгруза/загруза латента ван кое-как работает на 16гб/8 врам, и даже не особо эпически срет в своп. Еще заметил что нода wanimagetovideo сначала конвертирует оригинальную пикчу в латент, а потом уже этот латент дожимает через nearest neighbor до требуемого разрешения, с соответствующим результатом для хайнойза. Потом это все наверное все равно затирается, но теперь ресайзю картинку заранее.
>>1453070 Чел я сам нихуя не понимаю в своем воркфлоу если честно. Тупо сохраняю пачку латентов после хая на диск, а потом открываю другой воркфлоу, загружаю лоу и прогоняю их батчем через него, а потом последний батч идет декодинг через вае. Шыснацать гигов памяти потому что, а срать по 30 гб в ссд за раз на рендер неохота. Наверное есть всякая сажа, питонкомпайл и т.п. что поможет снизить объем потребляемой памяти так что туда сразу оба эксперта одновременно влезут, но это для умных, а мне и так норм.
>>1453144 Теперь тоже любопытно. Сижу ковыряюсь. Но у тебя какой-то стремный результат на первом варианте. У меня без танцев с бубном как во втором. Может у тебя модель подосланная?
Можно ли с таким железом вкатываться в локальную видеогенерацию? Что лучше брать для работы, не для нсфв - ван или хунянь? И вдогонку, как быстро по мнению анона происходит износ ССДшки при таких данных(а он будет же да?)?
Тензорарт зацензурили по самое не могу, цивитай смотрю тоже копротивляется. Где теперь анон бесплатно онлайн генерирует? Не нашёл треда по онлайн генерации wan, посему спрашиваю здесь.
>>1452322 Звучит круто! Кто-нибудь тестил насколько это реально ускоряет генерацию? Или тут смысл только в том чтобы раскидать модели по разной видеопамяти и выпольнять разные ноды на разных картах? Тогда получается, если у тебя быстро загружает/выгружает модели, то это ничего особо не даст?
>>1453896 по идее это не ускоряет генерацию, это позволяет использовать больше одной карты для выгрузки и решать, что куда должно выгружаться (как я понял). Работа в ComfyUI все равно последовательная, не обольщаемся, параллельности не завезли.
Жаль, мой проц староват (хоть и производителен) и полная выгрузка лоу-модели вана на оперативку была плохой идеей. Когда тестил подобный трюк на llm там была скорость 1т/с. На gpu та же llm выдавала ~30т/с. Нувыпонели.
>>1454016 Не, ну видишь, тут чувак говорит, что все охуенно, а я, как владелец, который потестил видяхи еще до выхода этой статьи, могу лишь подтвердить — хуита.
>>1452675 Ты вообще умудрился напиздеть везде, по-ходу. 1. Нахуй CMP 90HX, когда есть CMP 50HX вдвое дешевле с той же производительностью. 2. Кстати, CMP 90HX стоит не 15к, а 7,5к, если что. 3. Нифига они не умеют в SD и Wan, банальная P104-100 кратно быстрее их. Если я не прав — я буду дико рад, что ее смогли ускорить в 10-20 раз от производительности месяц назад. Но все еще не очень понимаю, зачем советовать заведомо более дорогой вариант.
А вот CMP 50HX действительно неплохи для LLM. Да, 90 будет чутка быстрее, процентов на 10%, но будто того не стоит. А 50 выдает очень бодрый перф как в маленьких модельках, так и ригом.
Докину совет для тех, кто решится купить CMP 50HX (или переплатить за 90) — nvidia-pstated решает проблему с постоянным разгоном памяти и нагревом. Автоматически переключает power-mode.
>>1454028 >3. Нифига они не умеют в SD и Wan, банальная P104-100 кратно быстрее их. P104-100 уже совсем нифига не умеет - не поддерживается в том же свежем comfy и прочей обвязке. У нее cuda compute 6.1, а текущий минимум - 7.5 У cmp90 и 50 - cuda тоже 8.6, как у первых RTX-ов. И пошустрее они - (P104-100 - это ближе к 10хх - pascal, cmp - ampere)
P104-100 сейчас годится только в кобольде тексты гонять, причем желательно - второй картой, чисто ради VRAM. Или ждет тебя долгий пердолинг с пересборкой всего и вся под cuda 6.1 - кое что из старого еще заведется тогда.
>>1454063 > P104-100 уже совсем нифига не умеет - не поддерживается в том же свежем comfy и прочей обвязке. Не вижу проблемы поставить куду чуть старше и обновлять все остальное. Все работает.
> И пошустрее они - (P104-100 - это ближе к 10хх - pascal, cmp - ampere) Она в несколько раз быстрее, чем CMP'ихи в генерации картинок и видео. Выше я об этом и говорю, что у CMP огромная проблема с генерацией из-за (не)поддержек технологий. Если кто-то это решил — все еще жду ссылочку, ибо нигде об этом не написано.
> P104-100 сейчас годится только в кобольде тексты гонять Теперь имаджинируй Втрое-вчетверо дольше генерацию картинок — на что способна такая видеокарта? :) Вот тебе и ответ про > SD и Wan проблем никаких
Ну или поделить тайным знанием, наконец, как бустануть х10 эти карты в генерации картиночек и видео. А то только с LLM и работают. 4b модели летают, безусловно. =)
Внезапно comfy desktop сдох. Питона, торча, куду не менял. Сдох сам после самообновы. Одну генерацию делает, а на второй валится с ошибкой (пик). Менял видеодрайвера, ставил portable с нуля (у него появилась такая же проблема). Подозреваю разрабы накосячили. Есть идеи куда копать?
Аноны, подскажите плиз мб кто знает. face swap сайты можно вообще использовать для видосов с еот или не стоит в плане конфиденциальности?или все их используют с одной и той же целью и всем плевать?был бы благодарен если кто-то разбирается и рассказал бы подробно.
>>1454028 еще бы они перфоманс замеряли и репортили о достижениях, цены бы не было. Иногда я думаю, что проще вторую 3060/12 на лохито докупить, чем мечтать о волшебстве.
>>1457194 Ну я повторюсь, что для картинок проще взять P104-100, она и то втрое быстрее. Я сегодня могу еще поиграться в линуксе, поставить комфи (или что надо — скажи), попробовать запустить диффузии разные (правда в том компе 16 оперативы тока — без флюкса и квена, сорян), замерить. Вдруг и правда чудо на линухи случится.
Но сейчас 5060 ти 40к стоит 16-гиговая, ну и 3060 18к — варианты быстрее из изкоробочные, конечно, да еще и видео вывести можно с них. И памяти больше.
>>1455849 Уже давно вместо того чтобы делать "обнову", скачиваю вторую портебл версию и если с ней всё ок, удаляю предыдущую. Научен горьким опытом модели держу отдельно
>>1457294 было бы здорово протестить через комфи SD на условной 3060/12 и P104-100 или CMP50hx, например. если у тебя будет на это время и силы конечно.
>>1458983 Выглядит как хуйня. Пишут lossless, но даже в их примерах очень сильное падение качества. И это по сути то что мы уже имеем - лайтнинг+квант+сажа. Мы тоже можем говорить о х50, сравнивая с ванилой в 50 шагов без оптимизаций. Ну может они ещё поджали и будет +50% к скорости от fp8 на 5090, но у нас и качество лучше, оно того не стоит.
Аноны, подскажите плиз модель i2v на Ван, которая норм справляется со всякими антропоморфными животными, демонами и т.д. А то чет ванильный ван пытается перерисовать рога в уши, добавляет дополнительные пальцы, забывает про хвост. В общем пытается все свести к человеку.
>>1457394 >>1459385 Я приношу извинения, я умудрился сильно приболеть в последние дни. =( Спасибо за флаги, еще --disable-cuda-malloc было необходимо для P104-100, кажись, кстати.
>>1460075 ну я периодически генерю порнуху со всякими антропоморфами на wan vace 2.2, сейчас на wan move, проблем практически нет. дело не в модели, главное в промпте описывать внешку со всеми рогами и копытами (если без описания не прокатывает), ванильный ван обо всем этом знает конечно. ну и убедись в том что это не в используемой лоре дело, на высоких весах может шифтить если натренировано только на ирл хуманах. хотя при должной тренировке и такого быть не должно. я использую smooth mix animations по дефолту, мувмент хороший и картинку не шифтит.
>>1460446 Не обязательно одним прогоном. Все равно видеопамять не резиновая.
Попробовал дефолтный воркфлоу в ComfyUI для Wan Animate, получилась такая фигня. Еще эти долбоебы неправильно ноды соединили Думаю есть варианты сделать получше.
>>1460446 Сука, с первого дня существует context window на wan. Я ещё со времен той ненужной хуйни от Иллии охуевал зачем вы говно едите, когда на ван можно так же генерить.
Новые чекпоинты с суперускорялками, но до конца непонятно, так уж ли они будут хороши в комфи, где и так ускорений намазано поверх моделей. Посмотрим, что Киджай порешает.
>>1452984 бля чел, запили плиз норм описалово, как ты это делоеш. Этот твой жпег не открывается в комфи, по видосным форкфлоу не понятно нихуя мимо сейм 16/8
>>1460694 Дождаться бы Киджая. Как уже писать, можно хоть икс тысяча написать, в зависимости с чем сравнивать. Тут так-то и на бюджетных картах генерили за минуту, ускорение только в 2 раза. Увидеть как следует промпту, будет ли поддерживать лоры, и можно юзать как поиск промпта/фаниться. Хотя нахуй фаниться на локале, когда столько быстрых бесплатных онлайн генов, поэтому главное - лоры и качество.
>>1460705 Все так. Это конечно круто, что они написали х100, но примеры вроде как местами не идеальны, да и какой реально прирост не ясно. Может они как минимум там используют 4 степа против 55, и это уже х14 прирост (ну, типа), а там еще накидываешь всякие сажи и торч компайлы, и еще получаешь… Ну, посмотрим.
>>1460626 >wan one to all Хз, какая-то шляпа получается. Совпадения с референсом только по тексту и то отдаленное. На других попытках оно не понимало даже что перс спиной повернулся. Использовал воркфлоу из примеров Киджая для WanVideoWrapper
Возможно часть проблемы можно будет решить улчшив опенпоз. Похоже, что в паре мест его ломает от резкого движения. попробую увеличить частоту кадров входного видео интерполяцией.
>>1460720 > На других попытках оно не понимало даже что перс спиной повернулся дефолтная хуйня для опенпоза сейчас еще превью scail для вана вышо, он заметно попизже опенпоза, судя по видосам. но полноценная модель еще ожидается.
Просто осознайте. Мы ждём нормальную ускорялку на ван уже пол года, китайцы выпускают обсер за обсером. Даже выйди прорывная модель типа соры мы будем ебаную лору год ждать И знаете что? Не дождемся, выйдет то же что и на ван, с 25% от способностей модели
>>1460743 ты совсем кринжик? ван это топ 1 модель в плане того насколько пиздато на ней работают ускорялки, которых уже ебаный вагон выпустили. даже ебучие сетки для картинок выдают кал при 4/8 шагах, а ван норм пашет
>>1460759 Кстати да, я когда затестил какая разница между квеном с лорой на 8 шагов и без нее на 20 ахуел с диференса, в то время когда в воване между 6-8 шагами с лорой вс 20 шагов без разницы почти нихуя нету, разве что движения плавнее стали по ощущениям без лайта.
>>1460704 Мне тоже хотелось посмотреть, какой квант там анон использует.
Какой вообще положняк по моделям и квантам для обладателей отсутствия вроде меня (8/32) и анонов выше? Я скачал полурандомно какую-то непопулярную хрень (5B), ещё и завасяненую, вроде шустрая, но сгенерить на ней что-нибудь не всратое...
>>1460814 >Мне тоже хотелось посмотреть, какой квант там анон использует. Обдристанный 3K_S конечно же. 5B кстати по субъективным ощущениям примерно как wan 2.1 в плане требовательности. Во-первых для него нет зашакаленного vae, во всяком случае я не нашел, во-вторых у него нативный 720p что жрет память, в-третьих у него 24 фпс вместо 16, что опять же жрет память. В итоге имхо лучше и гонять квантированный в хламину 2.1
>>1460832 >Во-первых для него нет зашакаленного vae В смысле нет, а я чем пользуюсь? https://huggingface.co/lightx2v/Autoencoders В предыдущем треде два раза ссыль кидали. 24 ставить необязательно, можно и в слоумо, да и разрешение тоже. Я в итоге, когда первый тестовый лоурез сгенерил, подумал, что у меня как обычно что-то багнулось, и получилась картинка вместо видео - слишком быстро сработало. По скорости 5B норм, вот лор на него чуть больше чем нихуя. Бтв, как заливать на цивит видео? Он же метадату от Комфи не видит, и если бот ставит R или выше - автохайд/выпил мочой, но тем не менее, на сайте полно порнухи.
>>1460839 У меня все эти taew выдают какую-то хрень >24 ставить необязательно, можно и в слоумо Оно не зависит от того что ты выставишь в настройках склейки видео из кадров, ksampler генерит в 24
>>1460814 положняк такой что врам это ограничение лишь по разрешению и длительности видоса, поскольку модели такие большие что изначально хранятся в оперативе.
ггуфы - на 30% замедленый кал, который становится еще медленнее и говнистее с использованием лор. не имеет никакого смысла юзать если модель со всеми остальными делами влазит в оперативу. большинство об этом все еще не в курсе, поэтому продолжают топить за ггуфы, в этом треде очень много таких, не ведись на их провокации. Q6 это предел если прям совсем нужно модель урезать, дальше бога нет.
fp8 это дефолтный квант для базовичков, разницы с fp16 нет а весит сильно меньше.
в 32 оперы влезет 2.1 14b или лоунойз модель от 2.2 14b, которая по сути и есть улучшенная 2.1. 5b может выдать очень неплохой результат под лорами, но количество этих лор ограничено, поэтому я 5b только для v2v использую изредка
>>1460839 > 24 ставить необязательно блять опять ты, с двумя классами церковноприходской? > Бтв, как заливать на цивит видео? Он же метадату от Комфи не видит, и если бот ставит R или выше - автохайд/выпил мочой, но тем не менее, на сайте полно порнухи. там вроде просто рандомную хуйню в промпт вставляешь и все, хоть ван герл. возможно лоры тоже надо указать.
>>1460847 У меня просто выдаёт качество пониже. Если результат вроде норм, загружаю обратно этот же сид и переключаю декод на обычную (или тайлед) ваэ. Ну, зависит-не зависит, но в память норм влезает, вывалилось на ссд только один раз, когда перестарался с разрешением и количеством кадров. >>1460857 >fp8 это дефолтный квант для базовичков Только фп8 самих есть до трёх вариантов, плюс ещё дистиллы, ДаВаСянки и другие. Каким пользуешься сам? И лоры (не ускоряки, обычные), будут нормально работать с дистилл-моделью? Вроде пока все вопросы.
Смотрел чекпойнты на цивите, проиграл с апдейт-лога порномодели: >Reduced unnecessary back-and-forth movements outside sexual poses (cannot be completely removed, but strongly reduced) >If a man appears, he will no longer automatically attempt to penetrate the woman when she is nude
>>1460814 >Какой вообще положняк по моделям и квантам для обладателей отсутствия вроде меня (8/32) и анонов выше? q3km, взял шаблон wan22 i2v из комфи, добавил две ноды с ligthx. итог - 12 минут 720x720 8/16
>>1460669 Да не юзал он нихера, очевидно же. Это местный шизоид, просто приходит, пукает про вейс без пруфов, мочу с лица утрет и дальше сидит, обтекает. Переходы в этих контекст окнах очень хуёвые, даже с 16 кадрами нахлёста, постоянное желание нейронки вернуться с первому кадру + деградация от итерации к итерации. Ни один анон за все треды не смог сгенерировать видео на ване продолжительностью хотя бы минуту.
Самый оптимальный метод для генерирования продолжительных консистентных видеочерез раскадровку для fflf.
>>1461892 >>1460669 >вейс без пруфов Это же насколько нужно быть немощной хуйней, чтобы обсуждать базовый функционал как что-то необычное и по три раза спрашивать один и тот же тупой вопрос. Я понимаю, что ты жопой читаешь, но протри глаза и все станет ясно. >fflf для длинных видео >жидкая интерполяция через хуйню >постоянное желание нейронки вернуться с первому кадру при context window Ну, в принципе с этим скотом все понятно. Единственная решаемая проблема, с которой раньше можно было столкнуться, это необходимость уместить длинное видео в VACE прогон. Дальнейшая генерация проблем не вызывает. Не обосритесь еще сильней, если надумаете пукать в ответ.
>>1462251 хз, ты оторванный от реальности диванный шизофреник сам киджай не считает контекстные окна для длинной генерации чем-то выходящим за рамки экспериментов на данный момент, и прямо говорит что работают они пиздец медленно при хуевом качестве и ограниченных возможностях. но для рандом дурачка с двача контекстные окна превращаются в базовый функционал просто потому что он однажды о них услышал краем уха. иди нахуй короче, насрал тебе в рот.
>>1462251 Ты к своему пуку опять забыл пруф приложить, да? Или их нет просто и это все твоя шиза? Где ролик продолжительностью минуту на базовом функционале? Все поняли что ты добоёб, обтекай дальше со своим базовым функционалом в голове.
>>1461224 Вот этот анон >>1461229 прав, а так, их просто прописывать надо. Выше видосы не мои были. А так, в принципе, нормально руки генерирует, если прописывать.
>>1462536 >однажды о них услышал краем уха Пиздец неизлечимый долбоеб >>1462656 >пруф И еще один Серут себе в штаны вместо того, чтобы просто взять и запустить.
>>1446620 Пизда тебе, киношник. Как раз когда выпустишься, вас большинство и выпнут на мороз. У тебя варик один - выкуривать новые технологии во всю, мож даже какой сериал запилить в инсте, чтобы потом подвинуть слоупоков.
>>1462071 Я просто словил ошибку, потом погуглил о возможных причинах, и сидел обтекал, что umt5_xxl_fp8_e4m3fn_scaled.safetensors и umt5_xxl_fp8_e4m3fn.safetensors - это две большие и несовместимые разницы. Если юнет и энкодер в разных форматах, то получай вылет. >>1460857 >в 32 оперы влезет 2.1 14b или лоунойз модель от 2.2 14b, которая по сути и есть улучшенная 2.1. Как правильно генерить на одной лоунойзовой-то? У меня часто (но не всегда) при использовании её одной, картинка быстро сваливается в густое мыло и серость (кастомная модель со вшитой ускорякой), так что скачал пару хай и лоу q4 k_m (от другой васянки, SmoothMix) на пробу да пока так и остался. Чистая модель тоже блюрить будет или норм? Воркфлоу от 2.1 или от 2.2 и в обе ноды юнета ставить лоу?
Был какой-то ман по локальному WAN от анона с ComfyUI где-то на пастебине или сорт оф. Реквестирую его, а так же какой-то менее красноглазый UI, типа того что используется в SD по дефолту.
>>1467669 Там теперь кратно быстрее, чем на комфи? Вы же не хотите сказать, что свидетелеи ван2гп все это время генерили в десять раз медленнее чем на комфи, и жрали говно как не в себя?..
>>1468304 не, я понимаю что ты ответил на вопрос другого чела и помог ему, но агриться и заявлять что "кто-то ворвался в тред", когда твой ссаный ван2гп юзает один калека на миллион, а фордж для вана вообще никто, это просто рофл. попытки огрызаться и называть вот эту блевотину на скрине >>1467873 "нормальным интерфейсом" - омегарофл, особенно в контексте использования вана.
>>1464495 > umt5_xxl_fp8_e4m3fn_scaled.safetensors и umt5_xxl_fp8_e4m3fn.safetensors - это две большие и несовместимые разницы есть большие сомнения что это действительно так
> Как правильно генерить на одной лоунойзовой-то? так же как на 2.1 у меня были проблемы с миганием и артефактами на стандартной i2v, с vace проблем никаких. так как я именно vace и использую по дефолту, то забил хуй на попытки понять что не так.
>>1468313 >не, я понимаю Неа. ВанГП предлагал не я, моё предложение было генерить на Фордже, если тот интерфейс не устраивает. Ирония в этом была видимо слишком тонкая для жирной толстоты вроде тебя. Тем не менее, как интерфейс (вне контекста использования WAN) - поломатик-стайл лучше лапши. Отрицать это будет только лапшедебил. И да, сам я использую Комфи для WAN'а, потому что ещё блядь использовать-то? Картинки я-по прежнему генерю в Фордже, текст - в Кобольде.
>>1468354 > есть большие сомнения что это действительно так Это действительно так, Комфи и Киджай сами об этом писали сто раз. Там буквально ошибка дропается об этом.
Может уже пофиксили и они взаимозаменяемы, но раньше было именно так.
>>1468380 > моё предложение было генерить на Фордже, если тот интерфейс не устраивает > Картинки я-по прежнему генерю в Фордже чето ты сам себя переиграл в иронии
Взял воркфлоу у тредовичка (первое) - всё нормально, ну ок, героиня открыла рот - но терпимо. интерполяцию и апскейл нужно самому руками прицеплять. Решил пойти по более простому пути: Взял воркфлоу на Цивитаи (второе) - хорошо, плавно, со встроенным апскейлером - но Рей без умолку пиздит. Ну что за нахуй? Как сделать чтобы героиня молчала? Может я тупой и на cfg 1 не работает негатив просто? Может есть ссылка на нормальное воркфлоу для лупа без пердолинга?
>>1468915 Воу-воу, палехче, я только вкатился и то, что персонажи по умолчанию говорят - было для меня неожиданностью. Тем более что в третьем видео у меня в целом получилось добиться желаемого. >>1468912 Спасибо. Если воркфлоу в видео есть - с удовольствием посмотрю вечером внимательнее как надо было сделать.
Разве что для калечных нубов не могущих осилить чтото сложнее 1 кнопки.
Комфи как для видео так и для картинок - отличное решение, которое позволяет гибко настраивать инпут и аутпут и вообще целиком пайплайн крутить вертеть как хочешь. На каломатике ты ограничен базовым функционалом, в то время как на комфи у тебя практически нет ограничений.
>>1468735 >Может я тупой и на cfg 1 не работает негатив просто? Да. Не работает. А если выставить больше 1 - просядет скорость генерации (почти в два раза). Говорю, чтоб сюрпризом не было.
>>1469176 >Но для большинства случаев я возьму инструмент с базовым функционалом. Чел... Comfy - это и есть тот самый набор (ящик) инструментов с базовым функционалом. Каждая нода - делает что-то одно (как молоток или пила). Ты просто берешь, и применяешь их по порядку, как тебе надо. Минус один - надо уметь пользоваться каждым. Чтобы молотком шурупы не забивать.
А форж - это тот самый швейцарский нож с кучей функций, в который пытались все сразу впихнуть. :)
>>1469470 >>1469556 FramePack конечно представляется на первый взгляд киллер-фичей со своими возможностями минутные видео прямо на кофеварках с 6GB vram рендерить, и притом в пристойном качестве картинки (жор vram не зависит от длинны вообще). Но увы - это его единственный плюс. Промпту следует очень слабо, почти ничего показывать не умеет, кроме базовых движений персонажа при статичной камере и фоне (или минимальных движениях). Легко теряет детали и схожесть лица, движения от естественных весьма далеки. При всем этом - лучше всего получалось с 2.5D анимешным стилем - реализмом там в любом случае не пахло.
Не сохранил ни одного видео с него - после Wan (даже 2.1) уже никак не смотрится.
>>1469461 Вон то, что у меня на картинке, тоже "набор-ящик инструментов". Применяй их по порядку на здоровье. >>1469470 Дроп не скачивая, когда выяснил, что лоры-ускоряки не поддерживаются. И вообще абсолютно ничего не поддерживается, кроме того, что автор изначально заложил. В итоге получился какой-то мем, а не полезная вещь.
>>1469584 так а при чем тут модель, она и так у тебя в оперативе изначально тут речь о расходах на генерацию, во фреймпаке взята разновидность хуньяна которая предсказывает дальнейшее происходящее в кадре основываясь на предыдущих кадрах, а не делает сразу весь видос целиком, поэтому врама в моменте жрет немного.
эту модель можно и в комфи использовать вместо фреймпака, есть модели вана которые работают по такому же принципу (skyreels diffusion forcing)
А можно 2 картинки в один видос склеить? Типа на вводной пикче мужик, из которой я хочу сделать видос, промпт тян выходит из за угла и эта тян со второй картинки?
На арене распечатали видео батл для скота. Кому оно в таком виде нужно - непонятно. Пук-среньк, ваши 2,5 попытке истекли. Нахуй есть колючий триальный кактус, когда в гроке еще цензурой все пока не добили. Из имидж ту видео говна там только 2,5 ван норм. Причем 2,2 14б ван тупит больше, чем локальные аналоги с ускорялками, видимо из-за цензурных промптов.
>>1469769 Кал во всем, как и прочие убиватели лоКАЛного вана. Щас лучшее что может быть, это выходы новых копромоделей и веселье пока они фильтры настраивают. На ван 2,5 кстати ввиду закрытости все еще слабый.
Сап, надумал побаловаться с вашими нейронками, есть 5090 и есть 3 тушки куда её можно воткнуть: Рязань 7950 и 32 ГБ DDR5, Рязань 5900 и 64 ГБ DDR4, и двухголовая мамка Epyc 7763 и 256 ГБ DDR4 - куда вставлять видюха? С меня как обычно - нихуя.
>>1470711 Процессор не особо важен, а вот запас оперативки желательно побольше я бы выбрал 2й или 3й вариант, скорее даже третий ибо при генерации до 170 гигов уходит.
>>1470711 ля ты буржуй. Хотя я если честно рад, что хоть кто-то смог урвать столько ддр4-5. Жаба душит переходить с некросборки на свежую платформу с учетом x3-x5 оверпрайсов за оперативу. Такое ощущение, что это все бабки затарились, которые за гречкой по первому чиху бегут, етить!
Попробовал Кандинский. На Pro генерит хорошо. На Lite генерит простенько. Но везде долго. 7 минут для distill 16 steps cfg 1.0 на 5070 ti Pro-версия и 1:45 Lite-версия. За наличием Wan2.2 + lightx2v получается довольно бессмысленно, если честно, хотя и неплохо.
Воркфлоу нативное, из темплейтов, модель от Сбера и Киджая (фп8 про).
>>1470942 >У меня больше 90 гигов не уходило Ты просто не так смотришь, 90 гигов это у тебя активной памяти в данный момент, оператива работает не так.
>>1470813 да нет, не мало. там просто данных генерится очень много в моменте, реально сотку+ с ссд сжирает. а так 64гб норм иметь, в 32 обе модели вана 2.2 не влезают
>>1470742 >после генерации? по логике должен подойти фейсдетейлер, но делать это на пару сотен кадров будет долго. Технически может будет полезно поставить фейсдетейлер на последний кадр каждого отдельного отрезка видео, которые сшиваются в ворфклоу перед генерацией следующего отрезка. Но в целом, такое себе.
>>1448078 >картинки стали хорошими Это смотря какие. Прогресс после сд1.5 двигался в сторону рафинирования качества исполнения. Картинки становятся все безупречнее технически, но при этом потерялась душа. Новые модели делают фотореалистичные фото и неплохие имитации популярных художественных стилей (чему пример всяческие имитации стилей комиксов, которые любят пользователи чатгпт), но по факту, если сгенерировать пакетно 100 изображений, то все они будут практически на одно лицо, так что даже не тянет просматривать.
>>1472997 >если сгенерировать пакетно 100 изображений, то все они будут практически на одно лицо Это имманетно присущее нейрогенерации явление, оно берет инфу по тегу и делает обобщение, иначе бы оно тупо не работало. Есть такая прога фантаморф, по ней наглядно видно как образуется нейроебало, а нейронки просто такое условное нейроебало делают вообще из всего. У сд 1.5 в тэгах было насрано, поэтому по промту притягивалась куча левой инфы дававшей разнообразие, у современных моделей с детальнымы тэгами от мультимодалок такого никогда не будет.
Давно юзал комфи, забил на него. Щас решил вернуться, но все совершенно забыл. Скачал, установил, накатил комфи менеджер. Дальше куда лол??( Вообще ничего не помню, есть гайды для забывших? Какие там лоры, лайт лоры, нужные ноды ставить в первую очередь? Напомните пожалуйста
>>1471307 Так, и? Если смотреть не туда, где ты подчеркнул (где 80-90 в пике), то куда?
>>1475048 Ну берешь там, тянешь, туды-сюда… Открой воркфлоу нужное тебе, он предложит доустановить недостающих нод или докачать недостающие модели. Вроде не слишком сложно.
Можешь либо «посмотреть шаблоны» в левом верхнем меню, либо найти на ютубе/цивитаи.
Помогите разобраться. Спиздил чужой воркфлоу, внешне он простой, но там есть сага атеншн. Сука вот у меня что тогда с ней проблемы были, что сейчас. Как ее установить эту падлу? У дипсика спросил, сделал как он сказал, запустил я через павершелл эту хуйню (ничо не произошло), ну короче не работает. Как фиксить?
>>1472501 Попробовал детейлер на ключевых кадрах, большого толка нет. Можно ли как то предотвратить деградацию стиля при продолжении генерации? Я пытался референс подсовывать, но он руинит позы. Нормальный I2I с сохранением персонажа но сменой позы, я не нашел.
>>1475175 >Можно ли как то предотвратить деградацию стиля при продолжении генерации? Единственное что приходит в голову, после генерации каждого видео сегмента - пропустить последний кадр сегмента через апскейл минимум 2х с нормальным денойзом и потом запихнуть его в инпут следующего сегмента. или как вариант, после генерации каждого видео сегмента делать апскейл всех кадров.
>>1475121 Сага - просто ускорялка (~30% в удачном случае 1-2% в неудачном). Если не разберешься - можно просто выкинуть эту ноду из workflow соединив напрямую без нее.
Гайс если у меня видос 5 сек 30фпс 960х1280 генерится 4 минуты без саги, это нормальный результат? Мне кажется как будто бы долго. Но в гайдах некоторые типы говорят у них вообще по 10 минут генерится. Железо 5070ти и всего 16 рам с подкачкой 90гб
Всех с наступившим новым годом! Подскажите где берёте новые лоры для nsfw контента. Сижу обычно на civitai, но там всё меньше и меньше лор(удаляют). Есть ли ещё подобные сайты с описанием или изображением происходящего?
Что лучше 3090 с 24 врам или 5070 ti с 16 врам? Есть блок свап для недостатка врам, на 5070 ti больше оптимизаций, думаю даже с блок свапом 40 будет раза в 3 быстрее генерить чем 3090
В общем треде про видео никто не отвечает, спрошу здесь.
Аноны, а что порекомендуете для генерации легкой аниме эротики? Видеорелейтед я на WAN 2.2 13B модели сгенерил, получилось весьма хуево. Может лучше онлайн генерить? Где цензура сейчас не сильно душит?
Анон, помоги разобраться с лорами, пожалуйста. Я использую стандартный воркфлоу шаблон из комфи на iTv14b , там соответственно модель хай ноус и лоу потом в хай идет лора 4степ и в лоу соответственно тоже лора 4 степ.
Собственно вопросы такие -
1) Я скачал лору архивную, в архиве тоже два файла хай и лоу, тут все понятно, одно к одному подключаем другое к другому, но в каком порядке чтоб не терять скорость? Схема должна быть ЧЕКПОИНТ - 4СТЕП - ДРУГАЯ_ЛОРА или ЧЕКПОИНТ - ДРУГАЯ_ЛОРА - 4СТЕП?
2) Есть лоры где один файл с лорой всего, а не хай и лоу, как подключать такое?
3) Лора ставится в такую же ноду как и 4степ стоит?
>>1478747 >в фп8 на блеквеле будет ещё больше отрыв от старых архитектур А можно поглядеть в такой же графической диаграмме? Интересует где 4090 окажется.
>>1478799 Спасибо, видно что ты промпт получше чем я подобрал. Однако все равно хуйня. Какие сейчас онлайн-генераторы можно попробовать? Только Грок? Или любые персонажи в купальниках и белье сейчас требуют ебли с обходом цензуры?
Здарова видач! Это снова я! Можете меня поздравить, я таки добыл себе 3090, доволен как слон! По сравнению с теслой скорости как-будто космические, 5-секундное видео в том же говёном качестве генерится буквально за минуту! В качестве получше - минут 5. В итоге остановился на чём-то среднем. В общем наконец-то могу нормально заняться генерацией!
Но тут у меня опять случился ебанутый затуп. Такое ощущение что решение перед глазами, но оно от меня ускользает. Решил сделать видос про мятьё сисек и стандартный ван выдал мне Прикл 1 Ржут, но сиськи не мнут В принципе похожие результаты выдают и все файнтьюны вана, что мне попадались.
Взял стандартный процесс из Mega-v3, результат Прикл 2 сиськи мнут, но не ржут и вообще почти не шевелятся
Путём экспериментов нашёл, что снизив параметр strangh c 1 до 0,50 можно получить прикл 3, НО это нихуя не то что мне надо. Стиль изменился, вылезли сиськи, а я этого не просил.
В итоге я получил нужный видеоряд только отключив нахуй модуль, который в дефолтном воркфлоу обозвали "Bypass for T2V, use for I2V"? в корорый подаются начальная и конечная пикчи. Но при этом картинка стала серой, так что этот результат тоже не канает.
В режиме t2i любой ван генерит нормальный динамичный видеоряд со всеми нюансами промпта. Такое ощущение что картинки мешает ему делать новые кадры лол. Какого хуя, что я опять делаю не так?
Как с зумом совладать? Я просил нейронку помочь с промптами, но и ее советы не работают. Мне нужно из фотки на паспорт сделать фотку по пояс. Желательно сделать резким зумом. Но даже не получается просто отдалить до пояса. Камера удаляется до конца видео. То есть она не может просто дойти до фотки по пояс и остановиться, она продолжает отдаляться до конца видео.
>>1478718 Это ты не очень умный, я специально указал где какая карта на первом пике, чтобы ты своими глазами посмотрел на CUDA ядра. Несколько тредов назад сравнивали эти карты в производительности для генерации. В первом случае разницы практически не было, во втором 5070ти была быстрее на 20-30%. Что так раз очень похоже на их разницу в "чистой мощи". Для тупых: я не утверждаю что это так и есть, просто совпало.
>>1479269 3090 в батнике такое стоит @echo off .\python_embeded\python.exe -s ComfyUI\main.py --windows-standalone-build --use-sage-attention --fast fp16_accumulation --force-fp16 --dont-print-server --cache-none pause
>>1479167 >Юзаешь говномердж Я специально юзал разное. И говномерджи и дефолтный Ван, предлагаемый в шаблоне комфи, он дал прикл 1 отсюда>>1479097 Пока что говномердж Rapid-AllInOne дал самые лучшие результаты, но с нюансами.
>>1479178 >Попробуй это Результат прикл. В целом аналогичен дефолтному вану и его тьюнам, ничем особенным не выделяется. >WAN2.2-BreastRubv Яснапанятна. Видимо без лор тут хуй что сделаешь.
>>1479218 >ДаВаСя малость деревянная, попробуй СмузиМикс. И лору на сиськожмяк накати. У меня в таких условиях работало на дефолтном Комфи-шаблоне. Сука, вот сколько же всякого говна надо перелапатить только чтоб аниме-сиски помять. И ведь я как-будто уже нашел универсальное решение, в которое уже всё зашито только работает оно через собачий анус буду пробовать дальше.
>>1479639 Ты понимаешь, что ты поехавший? Нафига ты продолжаешь использовать свой всратый воркфлоу, когда анон скинул тебе рабочие варианты? Почему ты рассчитываешь на интенсивное движение в 57 кадрах first-to-last image схеме без лоры на сиськожмяк, зато с ускоряющей?
>>1479811 >Почему ты рассчитываешь на интенсивное движение в 57 кадрах first-to-last image схеме без лоры на сиськожмяк Может потому что это сработало лол но вызвало технические проблемы, в которых я надеялся разобраться . Да и почему это НЕ должно работать?
>использовать свой всратый воркфлоу, когда анон скинул тебе рабочие варианты Но он использует тот же самый воркфылоу что и я... Я просто выпилил апскейлер и добавил авторасчёт разрешения и количества кадров.
По итогу +- работает только с ЛОРой и только с длинным промптом. Порпробую дальше шатать Rapid-AllInOne, для которого не надо генерировать простыни промпта и искать лоры для каждого пука. Если решить проблемы, то так то идеальный вариант.
>Ты понимаешь, что ты поехавший? На данный момент это 52 итерация данного видео. Сам как думаешь?
>>1479898 >Да и почему это НЕ должно работать? Ну закольцованное видео в малом промежутке не особо способствует его высокой интенсивности, хотя и от модели зависит, конечно. >Сам как думаешь? 52/100! Я тоже с парой картинок дрочился с десятками траев, когда вкатывался. >>1480135 Лора или две на цивите есть, иди проверяй сам, я не скачивал.
>>1480427 Какая же дегенеративная хуйня. В воркфлоу линк на HF-репу геммы от гугла, при этом внизу же написано положить safetensors в text_encoders. Ок, скачал safetensors, положил, выбрал в их ноде загрузки клипа, но ошибка: > FileNotFoundError: No files matching pattern 'tokenizer.model' found under /home/user/ComfyUI/models Т.е. ему всё же HF-модель нужна? Ок, скачал, теперь ошибка: > ValueError: Cannot use chat template functions because tokenizer.chat_template is not set and no template argument was passed! Пизда. А ещё какая-то паутина из апскейлеров и прочей хуйни. Нативной поддержки в Комфи похоже нет, он не может загрузить модель и думает что это Флюкс.
Комфи впервые обосрался с релизом нулевого дня так сильно.
У нас есть Gemma 3 12b, но unquantized, держи 23 гига. У нас есть выгрузка в оперативу, но держи хуй. Запустить может кто угодно (у кого есть видеокарты с 32 памяти — то есть владельцы 5090).
Красавчики, хули.
Ждем когда пофиксят или квантуют.
Я потыкался и так, и эдак, с полпинка не завелось, к сожалению. =( Разные модели не помогли, в официальном воркфлоу пишет «ой, выгрузка в оперативу сработала, но я не умею с таким работать». Люди пишут везде — разрабы все игнорят. Надеюсь втихую фиксят.
>>1480645 Что-то у меня есть уверенность что пока сами разрабы не сделают полноценный трен на проне кум так и будет сосать Всё что меняется это скорость, а сам кум со времен хуняна первого такой же
>>1480637 Оно тоже нерабочее. У меня 5090, комфикал обновил, но ТЕ отрыгивает: > RuntimeError: Expected all tensors to be on the same device, but got tensors is on cpu, different from other tensors on cuda:0 (when checking argument in method wrapper_CUDA_cat)
>>1480774 Лучше бы он показал запуск, запуск блядь. То, что она быстрая, мы и сами понимаем. Она качество проебывает ради скорости, в какой-то момент это становится оправданным. Но оно ж у нас не работает. =(
>>1480638 Ещё хуже то что у нас два набора нод и оба нерабочие. Я Флюкс 2 в fp8 гонял без проблем с дня релиза, Квен 20В без проблем работал без квантов, а тут 19В с пердольными нодами и нихуя не работает. Тоже не понимаю зачем в таком виде высерать, зато лор каких-то наделали зачем-то, лол. Ждём Киджая, может он на своих говнонодах запилит рабочее.
Че-то ну такое себе. По качеству хуже вана, голоса металлические, звуки как в ммаудио. Лучше чем Ови, быстрая (если бы не текстовый энкодер), но… До черрипиков как до луны, если честно.
>>1480878 А смысл? Чекпоинт модели в fp8 тоже не загружается, лол. > AttributeError: 'NoneType' object has no attribute 'Params' Эта хуйня такая кривая что пиздец.
А че вы тут сретесь из-за этого элтыикса. Первый был чисто утилитой для анимации статичных 2д-картинок, чтобы там что-то подергивалось в кадре. Работало правда быстро, я даже на голом проце без гпу тогда ухитрялся генерировать за 20 минут.
>>1480878 Блять ну вы тролите? Задремал, думаю открою любимый тредик посмотрю что аноны нагенерили а у них слюна течет. Обновите, блять, комфи через git pull - pip install -r requirements и в самом менеджере нажмите обновить комфи и обновить всё, потом этот фикс который за минуту делается, пиздос Результаты мне пока не нравятся, вайбы ван 5б для и2в, в т2в сильно лучше Как я понял модель генерит 1/4 от разрешения которое ты ввёл
В баб не умеет, соски даже отсутствуют. И качество странное. Иногда может на резких движениях так намылить, что 720р на 240р скоррее похоже. В i2v если просить что-то сложное, то распидорас часто бывает или он просто со второго кадра новый видос генерит. Но в целом потенциала больше чем в Ване, если тюнить.
>>1481041 Неплохо, реально неплохо, без особых затрат делает продолжительные видео. К сожалению при множественных генерациях все равно начинает деградировать качество. Но для 20-30 секунд практически незаметно.
Я тут глянул про эту lightricks и орнул в голосину. Короче это какой-то ван 1.3 к которому прикрутили голосовой синтез короче и побежали накручивать себе downloads и monthly users чтобы выйти на жирное ну или хоть какое-то айпио, а вы тут качаете нахуй.
>>1481454 >Ван ушли из опен сорса Вот бида. В таком случае нужно наковырять таких-то видосов через ван 2.5 и просто обучить на них дистиллят 2.2. Или ты собирался на своих 12ГБ крутить корпосетку типа соры?
>>1481261 Цензурят соски, цензурят лобковые волосы... Помнится Япония запрещала волосню, что привело к расцвету лоликона как жанра. Походу, запад решил наступить на те же грабли, и своими запретами поощряет контент для извращенцев, лол.
>>1481041 Так древность же, давно релизнули, кто хотел попробовал. Там же от лор, вроде работало, не? И качество так себе. Если лоры обучат на нужное — по кайфу. Но, как видишь, за 2 недели всем пофиг, пока что. Если бы докинули дистилл и лоры на интересности всякие — тогда заценили бы.
Ну давай, показывай, если тебе понравилась, ждем от тебя видосяны.
>>1481198 Слишком толсто, видосяны говно. Фича только в озвучке металлическим прокуренным голосом.
>>1481226 Все так, мелкомодель с быстроскоростью. ЗАТО ЗВУК.
>>1481246 Или хотя бы 2.5, он и то лучше был. =) 2.6 там с персонами, слишком элитарно для локалки. =(
>>1481461 А нахуя тебе видосы-то из ван2.5? С этим и 2.2 хорошо справляется, ты озвучку запили. =)
Единственная фишка лтх — озвучка. Ну и скорость, но за такое качество нахуй оно не всралось. Ван уже достаточно быстрый, но без звука.
У нас есть Ови со звуком, но там хуйня похуже ЛТХ, если честно. =(
>>1481585 Слоумошен только на 4 степах, если что. Это срань от людей, которые ни разу не запускали, а не аргумент.
———
5070 ti + fp16_accum + sageattention (не работает, по-ходу) ltx fp8 + gemma fp8 20 step 241 кадр — 252 секунды, но нестабильно, апскейл иногда затягивается на пять минут, иногда пробегает за 1. 121 кадр — 130 секунд.
Следование промпту говно, но я их не умею составлять, сошлемся на это.
Грустно конечно, что моя новая видяха устарела за неделю… =D
>>1481657 > Слоумошен только на 4 степах, если что. Без лайтнинга ван литералли в 10-20 раз медленнее LTX, это абсолютно не оправдание мизерному приросту качества. И без лайтнинга Ван всё равно не может в быстрое движение, хотя бы потому что безвариантные 16 кадров, все движения максимально неестественные. А уж про промптинг не Вану говорить, в i2v Ван надо вприсядку дрочить и роллить чтоб получить отдалёно напоминающее что тебе надо, банально движение камеры хуй запромптишь.
>>1481663 Скилл ишью, честно. Уж наскока я хреново промпчу, но в половине случаев получаю то что надо. Ван медленнее без лайтнинга, и даже с лайтнингом медленнее, да, но: 1. Следование промпту в десятки раз лучше, ЛТХ генерит рандомную хуйню вместо того, что ты промптишь. 2. Анимации гораздо лучше. Не резкие, а плавные? Да, проблема. 16 фпс? Да, проблема. Но лтх уже лежит в луже обосравшись и обоссавшись, ван от этого хуже него не становится.
К СОЖАЛЕНИЮ БЛЯДЬ ЕСЛИ ЧО Я не фанатею по вану, я хочу норм генератор видео. И лтх — говно. Ван тут не виноват, алибаба не срала в штаны лайтриксам, они сами все делали.
Да, по сравнению с последним хуньюаном вполне норм модель. И скорость быстрая, это правда. И звук есть, иногда не всратый! И генерит порою до 20 секунд. У него много плюсов, но качество туда не входит. Если ты готов мириться с посредственным (не плохим, я помню АнимейтДифф, SVD и прочие первые видео-нейронки!) качеством ради звука — заебись. Хочется резких движений — все еще есть очень быстрая Wan 5b (с кривыми вае-шками, тоже алибаба себе в штаны насрала, конечно), там все весьма недурно (за 10 сек генерации-то). Но лтх занимает своей твердое место посередине — лучше Wan 2.2 5b, но хуже Wan 2.2 14b, зато со звуком и скоростью.
Ну не идеал, ебать, нихуя не замена вану, просто альтернатива со своими фишками.
Возможно это все пофиксят на стороне комфи и через день мой комментарий станет неактуальным.
Но вспоминая их первые превью, когда модель релизнулась по апи — там уже было хуже ван2.2 на тот момент. Вряд ли они дообучили модель (нам еще и dev-версию дали, если что).
Вырубил апскейл —че-то как-то прям хреново стало, картинка слишком мутная. Их апскейлы еще и шарпят жестко, судя по всему. Будто бы без апскейла лучше не юзать.
У них модели учились на шумных картинках, поэтому любые качественные изображения они не анимируют. Об этом тред поднимался еще на первом лтх, и тут так же. Нода в начале делает шакальную картинку (жпег с 33 качеством, как я понял) в разрешении 1536 по длинной стороне, а потом ее ужимает и анимирует (с разрешением 640х360, условно говоря), а потом апскейлит до 1280х720.
Наркоманы, простите.
Но я понимаю, почему. Первые кадры видео в датасетах шумные — на чем учились, то и получились.
Зато без апскейла генерит быстро даже на мелких видяхах.
Нихуя биток. А у нас вообще есть локальные нейронки могущие в музыку? Может ну нахуй это видео, будем в 1х1 видосы делать с длительностью 50 и музон лепить
Господи, нахуя вы с этим говном пердолитесь. Очевидно, что если оно даже в цивите нормально не работает, значит им тупо никто в целом вообще не занимался кроме одного нанятого задрота в подвале с терминальным works on my machine. Хидден джем там типа затаился под горой говна из васянских нодов.
>>1482681 Сделать что-то пиздатее торча высирающего 10 ГБ текста на хард пользователя в венв и так под каждую отдельную прогу уже невозможно, это совершенство говна.
>>1482681 Не, смотри, когда он пилит свои ноды и заливает поддержку раньше комфи — он молодец. Но когда он берет работы комфи и че-то пытается с ними мутить — пока нифига не продвинулось, к сожалению. Вот только SVI выложили, вроде рабочее, да? На нативных нодах, как я понял. Но это не то чтобы мы охуенно ждали. Ван+лтх звучит пизже и сложнее, я сильно не уверен, что получится. Но было бы круто. Ну и сви, хули. =D
———
Кстати, кто-нибудь разобрался, как запихиать в лтх видео в сурс, чтобы он продолжал его с воисклонингом?
>>1482829 если че то он сейчас в комфи на зарплате, поэтому то что запиливается и в натив и во враппер, с высокой долей вероятности делал в обоих случаях он
>>1483039 Круто, но что что у нас было такого экспериментального за последнее время в нативе? Примерно ничего. Wan-S2V — оф.модель. В натив завезли инфинит-толк хотя бы? Я не видел, может упустил. Короче, ван+аудио очень круто, но слабо верится. =(
Где вообще хоть какая то инфа по ltx2? Что это за лоры, описание мне самому надо додумать? При генерациях у меня вместо движения просто картинка которая приближается или ползет вниз, как это фиксить вообще пиздец. Или это супер топ фича от индусов и так должно быть в прорывной модели?
>>1483610 2.1 будет через 3 месяца 2.5 через год Больше интересно что там чел из ван пукнул типа "вот это моделька, надеюсь опенсорс и дальше будет радовать"
>>1483629 Так их еще и обоссали в оф. канале LTX, сравнив с ваном очень удачными генерациями в своем поделии. Теперь надо ждать решительный ответ на этот вызов в виде опенсорс ван 2.5
Смейтесь сколько угодно, а я больше не вернусь на модель без звука и 20 секунд. Теперь мне это кажется пиздец дикостью, че, может еще черно белую модель выпустим, а хули нет? Не менее приятный бонус это анлокнутый фпс вплоть аж до 50. Вану реально хуёв надавали, да ебать, какая разница какое у него качество если там всего 5 сек в слоумо нахуй, попиздите ещё что юзабельно а что нет
>>1483649 Вот в натуре «18x speed» и нихуя больше. Показывать ван мы конечно не будем, обосраться не хочется. Но за креативный подход — лайк, конечно. =)
———
Ну, если вдруг LTX2.5 будет хотя бы на уровне Wan2.2 и исправят металлические голоса — то как будто и заебись. Лишь бы эти пидоры тоже не оставили все в апишке.
>>1483929 3090 прицеплена как вторая видяха в системе, занято буквально 700мб в GPU RAM Кумфи уже может в кеширование в основную RAM без доп нод? У ЛТХ какие то опять свои сука нескучные ноды. Каком в рам вывести? 128Гб рамы есть. >батнике линух. На каком железе на ЛТХ удалось локально нагенерить хоть что то?
Щас проверил, gemma-fp8 + ltx-2-19b-fp8 один хуй в ООМ на офном ВФ вылетели.
>>1483995 Можно отсюда скачать 2 файла nodes и loader. Закинуть их в кастом ноду gguf. Все заработает. ВФ в видео (видео не мое, у Киджая в комментах забрал.).
>>1484114 Ничего не качал, всё так заработало, видимо комфи обновился. >>1484121 На 30 серии fp8 не даёт скорости, скорость такая же на гуфф ща проверил. Ну и модель и так быстрая, а качество не очень, хочется максимум его
Простите за платиновый вопрос анончики но я заебался уже, прикрутил nag к i2v в 14б 2.2 ване, а то у вас тут какая то другая залупа уже на хайпе а оно на генерациях все равно ебало открывает с негативами talking, speaking, moaning, open mouth, или если на референс пикче у перса рот открыт там будет 10 из 10 генов пиздеж без шанса на затыкание или оно фиксится каким то конкретным мувом которого я не знаю?
Мне кажется или лтх это мертворожденная параша? У нее огромные проблемы с анатомией в i2v. Если объект встает или как то меняет положение он выдумывает или сплющивает тела. Про ебла даже молчу. Вот как пример >>1481349
>>1484911 Не сказал бы, что прям мертворожденная. T2V вполне сгодится для каких-нить рекламных роликов в этих ваших интернетах. I2V да, пока не очень (и будет ли очень - хз). тем более, что у вана появился SVI, который помогает сохранить консистентность персонажа в I2V если юзаешь ВФ на длинные ролики (у меня даже часть лица правильно дорисовывал в следующем ролике, беря ласт фрейм с предыдущего).
Сам ты педик. и вообще, хуль сам не ищешь, всё на гите есть
С гуфом теперь можно дышать на 32рам12врам, ебучая гемма в 12б жрёт всю память и всю подкачку, да так что пекарня подвисает (без флага ловрама, который скорость режет сильно).
Дефолтный воркфлоу на LTX такое говно я ебал.. Fp8 dthcbz На 4090 просто не смогло сделать за 10 минут. Уменьшил размер картинки до 768 по длинной стороне и поставил лимит видеопамяти - через 3 минуты высрало кусок говна без аудио, хотя реплика прописана. Качество видео тоже пиздец, не говоря уже о движениях.
>>1485836 >>1485852 Да что у вас не так, блять? Только хотел зайти написать что у меня скорость в полтора раза выше стала снихуя на 480р. Какие блять 10 минут и 768 на 4090? Хоть с резерв врам запускаете?
аношки, помогите нищим. генерю на ноутбуке с 6гб видюхи и 16 оперативки. мой максимум это 480 на 480, с стандартнм gguf q3. не спрашивайте нахуя я это делаю. я сам не знаю. мне просто нравится жать на большую синюю кнопку и ждать. генерация занимает 4-5 минут. лайт лоры подключены. при смене промта время увеличивается до 8-9 минут. что можно сделать с этим всем чтоб сократить время генерации и не сильно потерять в качестве? может есть декодеры промта работающие быстрее? может есть q3 хорошие модели о которых я не знаю? может есть какие то тайные манускрипты для нищих сокращающие время страданий?
А в LTX есть или планируется функционал как в VACE? Wan тащил тем, что можно было ключевые кадры закидывать и делать какие-угодно видео, в разных стилях, заменяя детали маской и много другого.
Какой VFI сейчас лучший? Я и сам пользовался, и посмотрел сравнения - все ебучий мусор, словно эту ветку AI вообще не прокачивали, оставили на пробном тестовом этапе. >>1486193 Летс гоооу, покажи им как нужно генерить качество. Пока хуйня.
Вам же показали как пофиксить эти размытые детали, особенно на губах заметно, чего не юзаете? ещё не освободил место для моделей, чтобы разобраться самому
Воистину бесполезный тред. Им дали 20 секунд со звуком и липсинком, им дали скорость из коробки, казалось бы, настало время творчества, но i2v не работает и хуй в рот еот не засунуть, значит не нужно
>>1487591 Дурачок, какое творчество, это технический тред. Мне твое творчество в хуй не уперлось, лучше пиши как сделать картинку четче и параметры получше, чтобы пришлось меньше разбираться, когда я освобожу место и скачаю модели. Пока я из ваших бесед даже не представляю разницы между дистиллом и другими моделями. Даже более того, из сообщений в треде, я даже не подозревал, что там есть разделение. А ты про контент говоришь. С базой еще не разобрались.
Какой сейчас положняк по ускоряющим лорам в wan2.2? Не следил месяца 3, что нибудь вышло новое или все те же lightx2v? Может есть уже какая то устоявшаяся связка на хай и лоу модели, которые дают самый лучший результат, или это все хуйня и рандом?
>>1488048 Вот представлешь, да, 11,200 стоило в течение года. И люди не брали. И тут бах нахуй. Проебали. Печально. Сам грущу.
>>1488093 У лайтх2в несколько разных лор и все дают разные результаты на разных сюжетах, так что просто подбираешь пары за разные даты под задачу. Там есть неудачные, но в основном они все разные просто плюс-минус, хорошие.
>>1488196 >Ну и ЛТХ-2 затрай, вдруг. Пробовал, к сожалению пока это ссанина, на i2v по крайней мере. Там оф. разраб на реддите сказал что будет в этом месяце 2.1 а в квартале 2.5 где все пофиксят, лучше подождать
>подбираешь пары за разные даты под задачу Прямо методом тыка? Как понять что подходит? Например для лор с nsfw?
>У лайтх2в А там еще киджаевского насрано, и пойди разбери..
>>1492410 Я на тещу дрочу. Короче смысл в чем. wan2.2 без звука меня заебал и своими перерисовками лица в том числе. Вот грок хоть и не может в порно, но охуенно сохраняет лицо на протяжении всего видео + может в охуенный звук. Вот хотелось бы ltx попробовать, но там похоже пока все печально.
А кто-то сравнивал, озвучка в ltx лучше чем в HunyuanVideo Foley? Я так до него и не добрался и до лткс пока тоже. Спрашиваю только про звуки, не про речь. Озвучивать речь через подобное не ради прикола - верх идиотизма.
>>1493451 Потестил ltx2 звук хуета. Через раз вообще закадровый голос просто диктует написанный в промте текст. Снёс НАХУЙ. Хотя я тестил только Q4 модель, возможно в фулл модели все четко. В ван генерация 7 сек в 480p 2 минуты с сажей и другими ускорялками. В ЛТХ 5 или 6 минут, в итоге анимация кривая, но звук есть. Нахуй оно надо.
Что-то активность нулевая. Кто-то вник в ltx2 детально? Есть пример лучшего воркфлоу? Я пока только запустил пример через разорванные файлы киджая. Зачем он их распотрошил, кстати? Есть в этом смысл? Расскажите, что узнал, покидайте годные ссылки, которые пробовали.