• FLUX.2 klein • Z-Image-Turbo • Flux 2 • Qwen Image / Qwen Image Edit • Wan 2.2 (подходит для генерации картинок). • NAG (негативный промпт на моделях с 1 CFG) • Лора Lightning для Qwen, Wan ускоряет в 4 раза. Nunchaku ускоряет модели в 2-4 раза. DMD2 для SDXL ускоряет в 2 раза.
>>1501537 >Чё за турболора на хрому? В стили умеет? да какаята непонятная лора: Hyper-Chroma-low-step-LoRA Насчет стиллей незнаю. С склоняюсь к тому что это я криворукий дебил но я немогу получить нормальную картинку, какойто бодихоррор постоянно или пластик сплошной.
TLDR: в этом треде на реддит очередной гаруспик с «магическим мышлением» притащил фантазии и бред (с экивоком на какого-то бетатестера, имя которого ему нельзя называть) (от том, что prompt guide от разработчиков FLUX.2 не гайд потому что prompt не настоящий) @ был тут же раскатан прямо в своём же треде на reddit.
Прочитал @ потерял время. Думал, узнаю что-то новое. Пользуюсь FLUX.2 dev, а теперь и [klein] с момента релиза по этим самым руководствам. Во FLUX.2 [klein] нет upsampling prompt по default. И его не рекомендуют и говорят: «пиши достаточно и развёрнуто, но строго по делу, воды не лей». Для FLUX.2 dev как вариант рассматривалось использование LLM для upsampling, но особо не настаивали.
NAG - Кто пробовал?
Аноним25/01/26 Вск 06:51:17№150173112
>>1501674 Я так понимаю ты пытался (но не фартануло )промтить какую-то оптическую оберацию или х.з как это называется, когда возникают сферические круги от оптики?
Где klein лора на кончину? BFL зря высрали модель что ли? Анон делал неплохую, но меняющую лицо лору. У меня Qwen Edit остался по этой единственной причине.
>>1501907 Как вариант: Ставишь fixed, на 10-й раз вручную меняешь на randomize after generation. Только не совсем ясно зачем ты так хочешь делать. Если не менять prompt и другие параметры генерации, то на одинаковом seed будут одинаковые изображения. ComfyUI даже не будет новое рисовать, если ничего не менялось и seed fixed.
Я искал что-то, что позволило бы управлять параметрами генерации по сценарию (например для сравнения, с указанием шага изменения параметров, выбора моделей и LoRAs). Такие custom nodes существуют. Но то, что мне попалась оказалось неудобным и сложным для простых задач.
>>1502108 > на 10-й раз вручную меняешь на randomize after generation Ну примерно так и есть сейчас. > не совсем ясно зачем У меня компоненты промта генерятся через llm. Там нет нужды некоторые стилистические куски перегенерировать постоянно. Но оставлять их без изменений и топататься на одном месте тоже не хочется.
Кто нибудь регался на хаггинфейсе в последнее время? У меня даже с впн последняя стадия регистрации происходит очень долго, страница бесконечно грузится.
>>1502171 Подозреваю, что в самом первоом subgraph вот эта нода автоматически подгоняет размеры изображения до 1 мегапикселя, выбирая подходящее разрешение.
Кляйн хорош, но каждая итераия редактирования по-прежнему выжигает цвет (и ещё и каждый раз немного зумит по-моему) и даже если маску для инпеинта больше не нужно рисовать самому, то отредактированную часть изображения всё равно приходится накладывать на оригинал в фоторедакторе. Либо делать ВФ для инпеинта с рисованием маски, но зачем тогда кляйн?
>>1502178 Кинул гугловскую почту и зарегался под впн, теперь могу заходить под аккаунтом. Но вот подтвердить почту не могу, походу отслеживает откуда идет переход.
>>1502178 >>1502193 Короче зарегался. Эта залупа не терпит любой русский след. Во-первых никаких мейловских и яндексовских почт, только гугл. Во-вторых от момента начала реги и до конца, включая подтверждение с почты не должно содержать русского следа.
>>1501349 (OP) Что сейчас самое актуальное для рисунков? Для фотореализма знаю zimage, а для комиксов/cgi/3d? Чегонибудь из этого? Что-то лучше NOOBAI было? Я посмотрел ту же flux новый - какаято поебота.
>>1502438 >С ней интереснее всего экспериментировать. Ага, она всегда что нибудь новое подкинет. И понимаение промпта на достойном уровне(по сравнению со сдохлей).
>>1502171 Отдельно с помощью узла PrimitiveInt подкидываешь любое разрешение для генерации, если нужно, вне зависимости от размера reference image как на пикрил:
Сначала subgraph разверни, чтобы удобнее работать было, как тебе уже посоветовали.
>>1502181 >Подозреваю, что в самом первоом subgraph вот эта нода автоматически подгоняет размеры изображения до 1 мегапикселя, выбирая подходящее разрешение.
ImageScaleToTotalPixels в этом workflow применяется для приведения reference image к 1 Мп, так как при работе с изображениями высокого разрешения для edit могут быть проблемы: как со стороны производительности и объёма потребляемой памяти, так и со стороны качества результата. В теории, но лично я этого не проверял, edit FLUX.2 [klein] поддерживает разрешение входных изображений до 4 Мп (2048×2048) без необходимости их скукоживания. Для скукоживания изображений здесь предлагали Ланцоша (lanczos) вместо nearest-exact. Когда я проверял >>1498662 → разницы в деталях особенной не заметил.
Аноним, подскажи нормальную general purpose nsfw лору для zit. На цивитае пиздец какой-то - под тысячу лор на каждый концепт по поиску nsfw, будто в 2к22 попал.
>>1502531 Вчера только изучал, судя по семплам любая из них гарантирует приступы геометрического хохота. То пизда везде одинаковая, то хуй какой-то мятый, хуйня короче. Если приспичило, то можно использовать чисто для поз а места сопряжения полировать какой-нибудь свежей поней в фокусе, потому как импаинтить в лапше без швов не получится.
>>1502435 >Я тоже непонимаю почему все забили на хромую потому что 1. генерит как чмо долго 2. там большое семейство моделей которые продолжают тренировываться 3. есть более пиздатая хрома радианс которая в пиксель пространстве генерит напрямую без вае, но она точно такая же тормознутая хуебесина
в целом только изза скорости и отсутствия дистиллей всем похуй на хрому
>>1502639 >генерит как чмо долго Ну я хз, у меня турбо версия, генерит в 6-8 шагов за наносек. А радианс я так и не смог запустить почемуто, качал несколько разных версий, ошибками при загрузке сыпит и это на 16 гигах видеопамяти.
>>1502686 Ты не понимаешь сути тренировок лодстоуна. Это не ретрен модели кляйна, это создание другой базовой модели на основе кляйна, количество параметров как у сдхл вполне достаточно чтобы делать нормально, если нормально тренировать.
https://civitai.com/models/2239072/snowing-slider Так и не получилось напромтить стену из снега на переднем плане, с понижением кфг с 1.5 до 1.2 появляется марево, но на передке снега (белых размытых точек) всё равно недостаточно. вес: 0.7-0.8
>>1502205 Идешь на Ютуб или даже РУТУБ. Вбиваешь stable diffusion. Там есть канал с тройным названием, там достаточно детально все объясняется. Или просто вбивай comfy ui и смотри то, что подошло. Если совсем нубинко, то роликов за 5-10 вдуплишь, а дальше методом тыка разгонишься до субгенеративной.
>>1502210 Ты хочешь, чтобы оно рисовало за тебя в твоем стиле? Такого нет будет даже с лорами, все равно будет заметен след ИИ. А чтобы включить в пайплайн рисования это на каком-то этапе, достаточно SDXL или даже 1.5 с контролнетами. Ты, похоже, слишком много ждешь от моделей, того, что они будут следавать твоему готовому процессу рисования. Нет, не будут. Flux хорошая модель.
>>1502210 >актуальное для рисунков? Парадокс в том что все современные модели целятся в наивный реализм, реализуют правдоподобную модель мира с округлением линий и стандартизацией образов. И это противоречит всегда немного искажённым рисункам. Я пришёл к выводу, что лучше всего генерить рисуночки в старпёрских хромах/сдохлях и потом править артефакты небольшим дейнозом wan/zit.
>>1502760 Да, кстати, если ему не для рисования, а именно стиль рисунков, то SDXL уже был на пике рисования, по сути, по 2д - стилизации. Модель проебывалась только в анатомии и глубине рисунка, а по уровню графики она была вполне. Это вообще занятная ситуация, когда люди ищут какой-то грааль непонятный, хотя все у них уже перед носом. Почти любая модель хороша в своих рамках, даже SD3. А вот ее однообразие в образах и стиле, похоже, накаляет нижнюю часть туловища, возникают попытки делать на фоторелистичных моделях рисунки или наоборот, а потом сообщается, что модель - говно, нужна новая. Круг замыкается.
>>1502779 >Почему у них всегда сиськи вырастают. Что за магия такая? Цензура, десу. Все стоически тренируют на арбузах, чтобы не дай б-же не обвинили в генерации процессоров.
>>1502793 >письку то сравни Абсолютно все нейрописьки тут сгенерены с похуём на анатомию. У живой стоящей женщины брухлю едва видно, пизда глядит вниз. Вот этот приклееный мясной разрыв почти до пупка - прямое следствие наивного промптинга "баба стоит голая, и чтоб пизду видно было, ух подрочу сейчас".
>>1502806 Ну, первая ещё куда не шло, видали и похуже конечно, но остальное это васянство в духе nsfw-лор на все случаи жизни. >>1502801 >а то мы не видим а, ну вот, видим конечно... А ты чё думал-то, бля? Ишь ты...
Недавно установил портейбл версию, до этого сидел на "полной". Была какая-то удобная нода типа "Lora Loader Stack (rgthree)". Там можно было бесконечно добавлять лоры, все в одной строке: переключатель активна лора или нет, далее название, и вес. Не могу вспомнить и найти.
>>1502836 Спасибо. На самом деле очень недурно. Это уже уровень 20-30 хромы. Есть потанцевал, буду следить за эпохами.
Покажи ещё Subject: lone desert cartographer on a wind-polished plateau, full body, calm standing pose, hands open showing a glowing translucent map-disc, serene half-smile; delicate facial features, enigmatic gaze; Clothes: pale sandcloak with high collar, thin utility belt, soft boots, minimal visor, small shoulder satchel, subtle biomechanical jewelry; Proportions: elegant adult human proportions; clear silhouette; consistent anatomy for character and props; Setting: vast alien desert under two moons; floating cities drifting on silent anti-gravity plinths in the far sky; eroded starship ribs half-buried in dunes; luminous pastel clouds, thin atmosphere haze; a few odd gentle creatures watching from rock spires; editorial “Heavy Metal” magazine double-page illustration, European bande dessinée composition; Style: Moebius-like clarity, precise clean ink lines, sparse crosshatching, soft watercolor gradients, airy negative space, print-ready magazine texture, high detail without clutter; Lighting: diffuse twilight glow, rim light on cloak edges, subtle specular highlights on the map-disc, long soft shadows; Mood: quiet phantasmagoria, contemplative silence, mysterious yet inviting
>>1502989 А нету какой нибудь легкой версии стейбла? И мне установливать все по гайду ? можно ли как то повысить производительность этого на моем пк, можешь подробнее объяснить если не влом
Анончик, подскажи пожалуйста что я делаю не так. Хочу заменить диски на авто. Пробую с помощью Flux2 Klein модели с встроенным в ComfyUI шаблоном. Результат не устраивает совсем. Я новичок
>>1502959 Видосы ты генерировать не сможешь. Статичные картинки - да, но очень медленно если захочешь хотя бы SDXL использовать. Ищи гайды на ютюбе, я не думаю, что в треде тебе смогут помочь, настолько древних карт тут ни у кого нет. Comfyui тебе наверняка зайдет лучше всех альтернатив, потому что потребляет меньше vram.
>>1502959 > Братцы, а можно к вам вкатиться на древней видюхе 1030 ти 2гб? Я сидел на 1060 3 гига в 2022-2023, там в принципе была жизнь на полторахе аж в фп16, но было больно и картинки по 20-30 сек. На твоем говне будет еще дольше. Насчет двух гигов не скажу, но возможно можно полторашко чекпоинты сконвертить в фп8.
>Проц тоже слабый ай3-10100ф. Проц не важен
> Очень хочется генерить видосы и аняме картиночки Видосы не сможешь. Аниме есть.
Лучше конечно не ебать мозги с таким инвалидным экспириенсом и пойти купить хотя бы 3060 12 гигов срук.
>>1502997 > А нету какой нибудь легкой версии стейбла? Должна быть сниженная точност >И мне установливать все по гайду ? Просто скачать комфи портабл для некросерии 10
>можно ли как то повысить производительность этого на моем пк, можешь подробнее объяснить если не влом Производительность повышается только более лучшей картой
>>1502772 Попробуй 9b-distill. Алсо, я тестил разные версии, быстрей генерит на fp8 модели и обычном енкодере. От пожатого енкодера только генерация хуже и потребление рам на 3-4гб меньше. Если с рамом такие проблемы, то ок.
Как заставить Комфи пересобрать .venv? Что-то он пытается, но постоянно падает. Уже и ВПН включил, думал, что к сервакам не коннектится - все равно крашит.
>>1503178 Свинтэссенция может и есть, но кто тебе в век нейросетей захочет ее пересказывать? Иди спроси выжимку у Гугыла какого-нибудь, он тебе всю базу даст в 4-5 постов, отсальное в видосах доберешь.
>>1503178 Есть. Найди канал pixaroma на ютуб. Пару дней назад вышел 5и часовой ролик. Я только благодаря ему всё понял. В остальных местах только говняк раскидывают и воздух пускают типа шарят (как и тут), заставляя себя чувствовать тупым
>>1503148 Такая же хуйня была, помогла установка через впн и не с первого раза (я бы сказал раза с 18 минимум), он там постоянно на чемто рандомном обрывался и приходилось начинать всё заново... По итогу с какогото там раза всё поставилось.
>>1503206 Пришлось полный реинсталл делать, с нуля практически. Раза с 4-го завелся. Пытался через траблшутинг венв пересоздать - нифига не получалось. Качал 20 мегов, и стопорился. А автоматик это нормально делал...
ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts. mediapipe 0.10.20 requires numpy<2, but you have numpy 2.4.1 which is incompatible.
File "C:\Ai\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch\cuda\__init__.py", line 417, in _lazy_initraise AssertionError("Torch not compiled with CUDA enabled")
>>1502959 Вкатился на старом i5, 16 оперативы и 1070ti. Генерит, но долго. 1024х1024 SDXL - в районе 40 сек. Zimage и Qwen в 2 раза дольше. Твои 2 гига, наверное надо умножать на 2-3. Про видосы забудь.
>>1503430 Если откатили на бекап, при условии что ломали, то значит таки сломали А вот если ничего не ломали, но пришлось откатиться - значит синьор девопс ресурса - собака сутулая. Это утверждение косвенно подтверждает факт того, что бэкапы не проверяются на усешность и\или настроены на слишком большой промежуток (3 дня так-то дохуя для ресурса с таким постингом как соскака)
A slender, fair-skinned young Asian nun is crouching on a rooftop with her legs spread in an M-shape. The girl is lifting her black long skirt with one hand. She has silvery-white long hair, white eyebrows, and sky-blue pupils. The girl is smiling with a lewd gaze directed at the camera. Her face is Asian, coldly beautiful, and exceptionally gorgeous. The girl is very tall, with large breasts. Behind her is the rooftop railing. She is wearing a black-and-white sexy fetish nun outfit, with a long black skirt that covers her feet and the area between her thighs. The black skirt is completely soaked, and all her clothes are drenched in sweat, making the wet nun habit semi-transparent. The front of the nun habit is open, revealing her breasts. She is barefoot. Her long, straight white hair flutters slightly in the wind. The background features a blood-red sky, with a group of pigeons near the nun and a flock of black crows flying in the sky. Strong sunlight shines from above, creating a high-contrast backlit silhouette. The nun’s cap is completely soaked. The girl has a succubus heart tattoo on her thigh.
В Негативе - эмбединг easynegative и пару слов чтобы NSFW не было и фотореализьм
>>1503630 Пойдет. А Team Z показала как делать идеальную turbo из файнтюнов, как обещала? Иначе он опять наклепает хуету хуже хромы, которая абсолютно не нужна при имеющейся хроме.
Помимо увеличившегося времени генерации, результат в целом разочаровал. Про стили и вариативность здесь уже отметили, это действительно хорошо, повторяться не буду. А вот от геометрии, анатомии и деталей ждал большего.
Дальше я пробовал разные фантазии, что ещё с ней можно сделать для генерации (не обучение). То есть я не совсем понимаю, зачем в ComfyUI добавляют workflow для базовых моделей (такое уже было для FLUX.2 [klein]), когда получается, что такая база нужна для обучения, а не для использования её в качестве модели для обычного вывода.
Пробовал начать генерацию на 50 шагов Z-Image в одном KSampler advanced, а потом докрутить на Z-Image-Turbo в другом. Собрал workflow. Получилось долго и плохо.
Пробовал использовать в unsample/resample из RES4LYF для устранения недостатков предыдущего подхода. Неудовлетворительно. Допускаю, что-то мог неправильно настроить.
Потом стал пихать вывод из Z-Image в edit FLUX.2 [klein], чтобы придать результату хоть какой-то товарный вид.
Вот пример: prompt взял из этого треда: https://www.reddit.com/r/StableDiffusion/comments/1qou50z/zimage_base_test_images_so_you_dont_have_to/ Там не совсем честный результат, так как SeedVR2 используют для второго прохода. Я не сразу придал внимание. Поэтому вместо картинок только один prompt оттуда взял для чистоты эксперимента. Как писал выше скормил результат Z-Image base editу FLUX.2 [klein] 9B (имена файлов подписаны).
Результаты нерепрезентативны из-за недостаточной величины выборки.
Ещё для сравнения файл с пикрилом по тому же prompt, только на FLUX.2 dev (сырец без доводки). Никаких дополнительных детейлеров/апскейлеров и прочего. Вот и размышляю, стоит ли генерировать сразу в модели, которая выдаёт приличную геометрию, анатомию, детали, или пытаться натягивать сову на глобус, строя I2I пайплайны для Z-Image>Z-Image-Turbo, Z-Image>FLUX.2[klein], какой-нибудь другой модели, или вообще tile controlnet рефайнера на древней SD (я вижу её здесь до сих пор для второго прохода используют)?
Вообще, честно признаться, разочарование ещё и от того, что я ждал от Z-Image скорости при генерации. Не такой как у Z-Image-Turbo, понятно, но всё же. А так FLUX.2 dev на 28 шагах у меня генерирует изображение быстрее, чем Z-Image на 50 (с CFG 5–7).
Полезной информации о годных настройках на reddit(/StableDiffusion; /comfyui)/4chan не особо много. Бегло посмотрел чужие workflow для Z-Image base на CivitAI, ничего особо ценного не приметил. Буду рад если поделитесь другими местами, где можно какие-нибудь приёмы почерпнуть. В большинстве встречаются сомнительные обскурные практики, которые больше сбивают с толку и запутывают. Или на поверку вообще оказываются snake oil. Если у кого-то получается результат чуть лучше средней температуры по больнице, то приёмы и workflow прячут и стерегут как Голлум — Кольцо Всевластья. Полагаю, что для кого-то нейрослоп это не праздное развлечение, а источник дохода и коммерческое качество — trade secret.
>>1503590 >изинегатив это не только для SD 1.5? Нет, это по факту текстовый набор того, что обычно пихают в негатив. с эмбедом удобнее - не нужно копипастить каждый раз.
Ключевые особенности: отдельный custom sampler для Z-Image-Turbo и переключатель стилей в один клик в custom окне ввода prompt.
Стилей немного: 29 для фото, 27 для иллюстраций и ещё какие-то колбасные обрезки и подобие mock-up в other. Стили, как я понял, просто текстовое описание, которое добивается к введённому в узел prompt. Всё «удобство» заключается в выборе из выпадающего меню. То есть, это всё можно наpromptить и без всяких приблуд (если знать как эти стили описываются для Z-Image-Turbo). Работу custom sampler можно оценить на пикрилах.
Устанавливается через ComfyUI-Manager. Для работы в обычный workflow для Z-Image-Turbo достаточно подкинуть узлы: ⚡| Style & Prompt Encoder и ⚡| ZSampler Turbo. То есть использовать workflow от автора необязательно (можно только открыть и посмотреть как подключать узлы и их настройки).
Уже наигрался и наверно отключу. Может, кому-то пригодится.
На что вообще ваши стили в базе влияют, если их и так можно натренить? Типа если модель умеет в аниме из коробки, то аниме тюн типа нуба получится лучше или что?
так и не получилось запустить у себя базовую, вот такая у меня версия (репак из шапки) лапши (пик 1), какая это версия cuda и совместна-ли она с этой базовой, я без понятия, я не выбирал её специально но с ней у меня нихуя не выходит, (с турбой проблем никаких не возникает при этом), сегодня подцепил: базовую+квен+вае от автора турбо-версии, и результат такой-же, что и прежде (пикрил 2). С wf я ещё вчера упростил его до невозможности, поотключал всё лишнее, оставил только основные узлы, но результат был такой-же.
>>1503790 Sage Attention выруби. Всмысле из ВАТника удали соответствующий аргумент запуска. --use-sage-attention. Он супер-криво работает с Z-Image-Base
>>1503748 Были прописаны Art Nouveau, Arthur Rackham и Aubrey Beardsley. Но объективно на них не очень похоже. Вот полный промпт:
A fantastical scene depicting a group of ethereal, pale-skinned fairies bathing and frolicking in a moonlit pond surrounded by ancient trees and lush foliage. Two female fairies are emerging from the water, adorned with flowers in their hair and clinging to delicate, flowing gowns. They exhibit expressions of serene joy and playful abandon. A small group of mischievous, childlike fairies with pointed ears and earthy clothing gather on the bank, curiously observing the bather, with one playfully aiming a flower at her. The setting is a hidden glade within a primeval forest, evoking a sense of enchantment and mystery. Soft light filters through the canopy, illuminating the scene with an otherworldly glow.
Details & Style: Inspired by the Pre-Raphaelite and Art Nouveau movements, with strong visual references to Arthur Rackham and Aubrey Beardsley’s illustrations. The color palette is muted and monochromatic, dominated by shades of pale blue, green, and grey, with accents of white for the flowers and highlights on the skin. The composition is dynamic and asymmetrical, with flowing lines and organic shapes. Utilize a wash technique with delicate linework, emphasizing the textures of the water, foliage, and fairy skin. The artwork should evoke a dreamlike quality, suggesting a fleeting moment captured from folklore or a fairy tale. Use an antique paper texture to enhance the vintage aesthetic.
Technical Details: Highly detailed illustration, soft diffused lighting, volumetric light, intricate floral patterns, delicate facial features, detailed clothing. Emphasis on atmospheric perspective and depth of field. The artwork should be reminiscent of a vintage book illustration with a slight watercolor and pen-and-ink aesthetic. Style: Pre-Raphaelite, Art Nouveau, Fairy tale illustration. Artist inspiration: Arthur Rackham, Aubrey Beardsley. Medium: Watercolor, Pen & Ink, Antique Paper Texture. Mood: Ethereal, whimsical, enchanting.
траблы с базовой зеткой
Аноним30/01/26 Птн 10:34:27№1503806186
>>1503797 >--use-sage-attention У меня нет такого) ------------------------ .\python_embeded\python.exe -s ComfyUI\main.py --windows-standalone-build echo If you see this and ComfyUI did not start try updating your Nvidia Drivers to the latest. pause
>>1503806 Возьми да заново комфи поставь, там делов на час. И ставь портабл в отдельный сандбокс, чтобы не вычищать по всему харду что там петухон тебе насрет.
>>1503805 Это ты без этого: >>1503669 делал? меня интересует вся эта псевдо-эллинская тематика, наяды всякие, пастушки, сатиры и прочее)
траблы с базовой зеткой
Аноним30/01/26 Птн 10:46:25№1503819190
>>1503808 >И ставь портабл у меня и так портабл, я здесь всё расписал: >>1503755 возможно у меня портабл с несовместимой версией cuda для базовой зетки, но с этой версией у меня с турбой проблем нет, как узнать версию cuda на моей сборке, где она написана?
траблы с базовой зеткой
Аноним30/01/26 Птн 10:51:37№1503828191
>>1503818 Не, приклееные сбоку стили всегда херово работают. Я беру референсы (в данном случае пикрл), прогоняю их через vision-llm и немного правлю простыню при необходимости.
траблы с базовой зеткой
Аноним30/01/26 Птн 11:11:01№1503863194
>>1503836 на энта я пойтить не могу. с виндой всё в порядке, она не засрана, всё внутри портабл, дрова свежие, единственное что установлено это гит для ui менеджера, всё.
>>1503863 Тогда тупо жди и обновляй кумфи. У меня похожее с Lumina было. Всякие сдохли, флюксы и прочее работает, а при попытке в люмину (которая у всех работала) просто вылетал батник без ошибок. Дрова обновлял, систему перезагружал, с бубном танцевал. Через несколько обновлений кумфы внезапно все заработало.
траблы с базовой зеткой
Аноним30/01/26 Птн 11:19:46№1503889196
>>1503805 Эта штука не знает как выглядят сатиры (фавны), позорище какое-то, у меня сдохля знала кто это такие.
>>1503850 foliage, and fairy skin. The artwork should evoke a dreamlike quality, suggesting a fleeting moment captured from folklore or a fairy tale Зетка такая: что, что? fairy?? таак блэт, рисуем тинкербелов с крылышками, хуяк-хуяк...
>>1503914 без понятия, я просто скопипастил чать промта. я потом убрал вообще слова fairy от греха подальше. >>1503850 так (пикрил) согласно зетке выглядит сатир он-же фавн из древне-греческого лора диониса, познакомьтесь: вот ты какой северный оле... фавн бля. второй пикрил это лора для сдохли, частично сдохля (поня!!!) знала кое-то о фавнах и рисовала волосатых мужиков с рогами, хотя-бы на это у неё ума хватало) пик 3.
>>1503932 >fawn там толстючий контекст, его понимала даже тупая и отбитая поня. пикрил сдохля: реалвизикс. Styles:['Impressionism', 'Classicism Art', 'Cinematic Diva', 'Artstyle Art Nouveau']
>>1503938 вот эт я понимаю) >>1503943 >Достаточно нет, там голова козла будет как головный убор типа чувак из друидского лора закутаный в шкурах, я пробовал, ты не думай...
А хули тренить лоры на zib так долго? Или это везде так? Ai toolkit, хотел потренить свою первую лору на 3090, 7 картинок, 3к шагов, сначала ждал 10 минут пока пикчи сгенерятся, потом пошли шаги и я охуел, 4с на один шаг, ждать 3 часа пока карта жарится до 73°
анончики, а есть среди вас нетоксичные, доброжелательные и словоохотливые ребятки которые или только только начинают постигать нейроприключения, либо уже достаточно умудрены опытом (или вобще профессионалы) и которые не прочь перекатиться в какой нибудь дискордик/тележку для совместного дроча обмена опытом/идеями и дальнейшего прогресса в этом нелегком деле?
Версия CUDA
Аноним30/01/26 Птн 16:00:51№1504208223
>>1504221 то есть они универсальные и подойдут для абсолютно всех версий карточек, как-то: 20ХХ, 30ХХ, 40ХХ.... или есть исключения, как допустим для 50ХХ желательна версия с версией CUDA 128, а типа для старых пойдёт 126-я? Или вообще похую? Вот я о чём...
на реддите чел пишет, что LoKr лучше получается для ZIB, чем LoRA, по крайней мере на людях.
Он тренил на Ana de Armas какая-то известная пися, анон ее не знает, 22 пикчи, 2200 шагов в AI-Toolkit на 5090 сукаблядь голова дай денег, весь процесс - 32 минуты.
>>1504247 >что завести её невозможно в твоем уютном манямире - да, у всех кроме тебя - все заебись. Разберись уже с пайтоном, пайторчем, кудой, комфи и дровами.
Прога для бекапа
Аноним30/01/26 Птн 16:40:59№1504263231
>>1504259 >у всех кроме тебя - все заебись нет. разве что в >в твоем уютном манямире
>>1504208 ставь дефолтную, там всегда последняя поддерживаемая cuda (сейчас 130). 126 и 128 нужны тем, кто не хочет терять поддержку отдельных кастомных нод, которые еще не перекатились на новую cuda.
>>1504188 >а есть среди вас нетоксичные, доброжелательные и словоохотливые ребятки мы все тут >перекатиться в какой нибудь дискордик/тележку нахуй надо, когда есть эта нить тредов? >для совместного дроча обмена опытом/идеями и дальнейшего прогресса в этом нелегком деле? это то, что происходит здесь
>>1503755 О! Я вспомнил - возможно это отсюда будет. Я когда вкатывался, у меня была 1650. Там была такая же хрень - иногда или черный квадрат, или такая пиксель-муть на выходе. Решалось отключением fp16 (или fp8?) для VAE. У автоматика1111 это был ключ "--no-half-vae", у comfy тоже вроде такой же. Попробуй с ним. Эта хрень затрагивала как раз 16xx и 20xx, ни у 10xx ни у 30xx проблем нету. Что-то там в архитектуре этих карт.
>>1504272 >нахуй сходи. рекомендуешь на основе личного опыта? Настолько зашло?
Ты блядь вторые сутки в треде ноешь и ждешь, чтобы тебе дали готовое решение, кидая какие-то куски ворфлоу и одну и ту же картинку спеков комфи. Перебери билды комфи по очереди, если не способен разобраться, спроси ГПТ, полистай issue репы комфи на конец. Тебе все выше уже написали.
>>1504286 Наличие --no-half-vae - это как раз отключение половинной точности. Раз у тебя его не было - значит она как раз включена. Его добавить надо а не убрать.
>>1504294 ну, пока это ты сидишь на хую своей тупости с шумными квадратами вместо генераций.
1. Напиши сюда название батника из папки Comfy, которым ты его запускаешь. 2. Выполни команду в терминале и запость ответ (не ссы, она показывает какие либы у тебя установлены)
python -c "import sys, torch, platform, importlib; print('Python:', sys.version); print('PyTorch:', torch.__version__); print('CUDA available:', torch.cuda.is_available()); print('CUDA version:', torch.version.cuda); print('cuDNN:', torch.backends.cudnn.version()); print('GPU:', torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'None'); print('Platform:', platform.platform()); mods=['flash_attn','flash_attn_2','xformers','sageattention','triton','einops']; print('Attention libs:'); [print(' ',m, 'Installed' if importlib.util.find_spec(m) else 'Not installed') for m in mods]"
>>1504294 >сходи нахуй, кусок говна токсичного! ну что поделать, если ты криворукий гидоцефал. Тебе же все уже написали, за тебя еще кнопочки потыкать?
>ты в саппорте ростелекома не работал часом, не? откуда такая проекция? тебя дадя из РТ в детстве обидел чтоли?
Бляяяя, как-же долго эта базовая генерит, ёб вашу мать! И ладно бы оно того стоитло, так ведь нет, ну да, чуть точнее цвета, чуть лучше освещение. Но всё это можно вытянуть промтом в турбе, и это (чуть) точно не стоит потраченного времени. В пизду, удаляю нахуй.
Геноны, есть видос, в нем надо изменить персонажа. Это тот самый пингвин что идет к горе. В самом видосе за 30с пара разных ракурсов. Нихуя не могу разобраться как мне из видео и картинки персонажа получить этого персонажа внутри видое. Дайте правильный воркфлоу, который это сможет. Пока из того что нашел, это ван2.2 и он все время хочет из текста в видео или из кадра в видео, но нахуя это мне, когда у меня уже готовое видео? Да, хочу локально на 4080супер это сделать.
Моя личная армия, слушай боевой приказ: генерите и постите сюда такие картинки, чтобы на них была одна баба, голая или сексуально одетая, и она стояла или сидела на неком фоне, можно на улице, в помещении, или просто абстрактный фон. Разрешается также постить картинки, где больше одной бабы, но желательно, чтобы в этом случае они были близняшками.
>>1504187 Неплохо оно композицию и анатомию сделало, только цвета подводят, всё сливается. >>1504208 На 3.12.9, t2.9.1+cu130 всё работает. Для некоторых новых фич нужны новые версии. Для надежности ещё и CUDA Toolkit 13.1 стоит в системе, 13.0 или нет или не качает сразу.
>>1504858 Toolkit вроде не всегда нужен, но в каких-то случаях, какие-то библиотеки билдят на ходу, поэтому приходится ставить для гладкой работы. Я не просто про сд говорю, а глобально про комфи для аудио-видео-3д и прочих штук. Да, основа установки комфи это поставить скачанный торч в новый env и установить req.txt