Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
>>1365538 >>1365543 >>1365560 Можно считать, что у старого и нового просто разные специализации. Старый - если надо стиль картинки поменять, из скетча сделать фото, и т.д. Новый - если нужно детали поправить, и чтобы остальное не трогать. Или собрать из разных картинок целое.
>>1365560 В промпте и хуй не просят дорисовать. Запросом изменить прическу подразумевается, что хуй пририсовывать не надо, даже если в промпте нет четкого указания не добавлять хуй.
>>1365601 Я как бы имел ввиду что не арт хороший, а что так и быть, спишем этот кал за арт, мол с натяжкой имеет право итт быть. Ясное дело это понос уровня полторахи.
>>1365588 Вот кстати да. Потому что новый делает это как простостую аппликацию. Хотя на реддите показывают охуенныекартинки, но есть подозрение что это китайские боты нет, не шиза, но ты видел как они ее нахваливают?
Короче, у меня всё. Это лучшее, что я видел из фри моделей. Полная перерисовка света и текстур модели или наоборот сохранение текстуры без ухудшения качества. Контекст сосет.
>>1365764 Попроси чатгпт сочинить промт для qwen edit в стиле фильмового постера, это оттуда.
Take SOURCE_IMAGE subject and transform into a cinematic blockbuster movie poster. Subject should be centered, waist-up, looking powerful and heroic, illuminated with dramatic rim lighting. Background: epic stormy sky with lightning, glowing city skyline, and abstract energy bursts. Add metallic textures, flying sparks, and dynamic light beams around the subject. Subject integrated with cinematic color grading: teal and orange palette, high contrast, glossy finish. Add subtle motion blur streaks for energy. Place a bold movie title "{TITLE}" at the bottom in large metallic 3D letters, tagline above in smaller text. Poster ratio: vertical (2:3). Style: Hollywood blockbuster poster, ultra-detailed, dramatic, intense.
>>1365770 Лично-субъективно - Kontext еще у первого qwen-edit посасывал. Потому, что у него не полноценная LLM в энкодере как у qwen, а суррогат, который по определению на таком уровне промпт разобрать и понять не может. Качества картинки первому edit не очень завезли, но потенциал сразу был виден...
Конечно тяжеловато идут lewd тематики, но в целом понимание промпта впечатляет, жаль лоры очень медленно для этой темы пилят. Да лицо утекло, но все равно прикольно получается.
>>1366046 Так это его собственный чекпоинт. Он же знает, что за теги ему кормили и просто веса дрочит разные и смотрит, что высрется на ружу. Или это самореклама такая?
>>1366164 Если добавишь точно такие же, то практически не на сколько. Если совсем другие - то тоже почти похуй, если не нужно супер хай перформанс в играх. Сидел 2 года с двумя плашками по 8 Гб и двумя по 4 Гб с абсолютно разными таймингами - проблем не было.
>>1366323 Ну тут песпезды уни кальный шедевр, такой хуй без ии сделаешь охуел от того как ты можешь заебись чётко малаца, тупо тока ии, тупо на не зря 5090 брал ахуеть.
>>1366350 так и есть, вот уж чего не отнять, так это оно, сегодня пятёрку поставили >>1366351 ты же долбоёб так и не понял сути окунания твоего ебальника в говно
>>1366206 Я в первую очередь генерю промпты разным способом. Для этого мне надо выяснить в каком домене флеш рисует устойчивые результаты. В прикреплении лапша с промтом на генерацию ковра с птичкой, то что с ollama можешь вырезать.
>>1366323 А оно может открыть человеку глаза, но взять при этом глаза эти взять с другой фотки. Это реально постоянная боль для всяких ремесленных фотографов.
>>1366323 >Жду комменты про да я бы 5 секунд в фотошопе. Вы все забываете одно. Ваши контексты-квен-едиты не способны в мегапикселя. В настоящее разрешение, а не 1024 или чуть больше.
>>1366406 А в большинстве случаев больше и не надо. Всякие иконки, логотипы, интернет реклама. Там разрешение ещё меньше. Для печати или фотографов может быть и маловато конечно.
Посоветуйте файнтюн для изображений коммерческой направленности (ценники, логотипы, вывески, и тп) с лицензией, позволяющей бесплатное использование в коммерческих целях без уведомления.
>>1366402 >не делает Вот это хуёво. Сеть не понимает что это два изображения одного человека. Я пытался закинуть 4 разных фотки одного человека, чтобы сетка могла нарисовать один качественный кадр, но она всегда тупо брала только один вариант за основу.
>>1366406 >В настоящее разрешение, а не 1024 или чуть больше. Ни что не мешает в квене генерить FullHD. 1 мегапикселя это рекомендуемое значение для энкодера, но это не значит что на входе латента нельзя поставить разрешение выше (и даже другое соотношение сторон чем на оригинальной пикче). Просто все по дефолту тупо думают что раз под энкодер даунскейлится пикча, то и разрешение должно быть такое.
>>1366812 >>или чуть больше >FullHD >тупо думают Чел, ну ты как бы. На твоём смартфоне сколько мегапикселя? Если тебе больше больше чем фуллхд не надо, то не отвечай, выше стадо(90%) уже отписались на эту тему.
>>1366824 >И что выходит? Картинка, а что еще может выйти? Вот пример переноса персонажа в широкоформатную картинку, где мем на входе в энкодер но пустой латент в ксамплер.
Еще сделал 2048x2048 (как ставить выше в Комфи?), но на нем видно что уже сыплется.
Это еще на старом Квен Едит кста, новый еще не поставил. Жду лайтнинг под него.
>>1367103 карас только долбоебы используют, как и инструкции читают только лохи. вообще нужно быть полнейшим кретином, чтобы переключиться на что-то, кроме dpm++_3m_sde smg_uniform в любой ситуации
>>1367104 NansException: A tensor with NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
Ошибка выполнения запроса Prompt outputs failed validation: UNETLoader: - Value not in list: unet_name: 'chroma-unlocked-v28_float8_e4m3fn_scaled_stochastic.safetensors' not in ['Chroma\\Chroma1-HD.safetensors', 'Chroma\\text_encoder\\model-00001-of-00002.safetensors', 'Chroma\\text_encoder\\model-00002-of-00002.safetensors', 'Chroma\\transformer\\diffusion_pytorch_model-00001-of-00002.safetensors', 'Chroma\\transformer\\diffusion_pytorch_model-00002-of-00002.safetensors', 'Chroma\\vae\\diffusion_pytorch_model.safetensors'] CLIPLoader: - Value not in list: clip_name: 't5xxl_fp8_e4m3fn_scaled.safetensors' not in ['t5xxl_fp16.safetensors']
Вопрос только с пунктом установки: "Place the Chroma checkpoint in your ComfyUI/models/diffusion_models folder." Ссылка ведет на какой-то другой репозиторий на HF, где написано что он устарел, и отсылают обратно к https://huggingface.co/lodestones/Chroma1-HD, типа качайте оттуда.
Хуя не пойму. Это же можно на полторашке сделать? В чем достижение? Не, я не осуждаю. В чем-то даже свой шарм какой-то, но достижений здесь нет никаких.
Почему эта нейросеть так не любит эмо? Ну вот же более менее, когда эмо убрал, хотя красивой уж никак не назвать, максимум симпатичной. Ну ка, а если "русскую" вбить.
Почему эта еблуша выдает стандартное лицо при простых запросах, а как делаешь их сложнее, то ебла другие становятся? А нельзя просто менять лицо постоянно?
С 8 степ лорой для имейдж эдита, 8 степами, 1 кфг, сэмплером res_3s и шедулером beta57 неплохо получается. Дольше правда, чем в euler раза в 2. Для сэмплера нужна кастом нода RES4LYF.
Народ, краем уха прочитал тут, что можно генерить в WAN картинки. Это всё, в принципе, понятно. Но я прочитал, что можно генерить NSFW с сохранением лица, то бишь что-то типа InstandID? Или как? Или тут надо нагенерить, а потом дёрнуть лучший кадр?
>>1367622 Ну-у-у-у.. GPU на полную, видеопамять - зависит от размера модели. Больше хз чего тебе ответить.
Короче, на qwen image edit 2509 стало намного проще и лучше генерить NSFW, есть отличные результаты. Не без греха, конечно. qwen snofs с civitai помогает.
>>1367664 Очевидно твоих когнитивных способностей не хватило, чтобы задать этот вопрос в треде онлайн-дрочилень. В этом треде абсолютно всё обладает возможностью бесплатной генерации промт+референс (картинка).
>>1367611 Не Instant, обычный инпейнт, за исключением, что ты можешь кинуть изображение вместо input - в reference и надеяться, что сработает. VACE wf в прошлом треде в webp. >>1367629 Не греется заметно, даже когда 720p хуярится пачками, кулеров почти не слышно. От игр намного громче разгоняются кулера.
Только мог тебя немного неправильно понять. В reference это типа когда есть нода в ComfyUI с двумя входами image1 и image2? Сунуть в image2? Извини за тупой вопрос.
Аноны, хочу стилизовать рендеры 3д-моделей в 2д аниме. Как понимаю, img2img это уже прошлый век. Нужно Flux Kontext или Qwen Image Edit. Нужно чтобы было строгое попадание в стиль каждой картинки. Qwen получается что плохой вариант для меня? На Flux Kontext ведь можно готовую Лору накинуть, а Квен только промпт, да и вообще у него со стабильностью стиля проблемы.
>>1367395 >С 8 степ лорой для имейдж эдита Вроде как модель 2509 на удивление требует обычную лору qwen image причем 4х степовую Лично тестил и реально результат на других лорах ухудшается
>>1367755 >Квен/Контекст - известные архитектуры. Лоры можно сделать на любую из них. Сам ты все понимаешь, но Лоры для них конечно же не делал. Лоры от обычной Flux D/Qwen Image не встанут нормально на Flux Kontext / Qwen Image Edit. Там конвертировать надо как минимум чтобы хоть заработало и еще неизвестно какое качество будет.
Думаю что с Флюксом проще будет конвертировать, да и выбор Лор на него богаче. Сам я Лору на стиль тренировать и не собирался.
>>1367779 Создатели квена вроде как планируют выпускать новую модель каждый месяц, мне кажется сообщество, что и так не столь активно пилило лоры под эти модели, вообще перестанут напрягаться и забьют на трейн
>>1367784 Я пробовал, получается залупа. Можно въебать вес, можно сделать ектракт-микс, чтобы получилась "контекст" лора, это чуть-чуть улучшает, но всё равно это всё полная хуита по сравнению с оригинальной лорой или лорой обученной специально под эдит модель.
>>1367818 Слушай, щас начал пробовать и реально что-то работает, видимо я где-то изначально проебался, ещё попробовал связку семплеров er_sde + beta57 значительно меньше шума.
>>1367960 >Хотя может быть новый Квен будет и лучше даже без этой лоры. LOL, новый квен-edit вообще не умеет стили менять. Просто повторяет исходную картинку если у него такое спросить. Для этого старый квен-edit нужно использовать.
>>1367961 Спасибо, интересный вариант. Вместо тренировки своей лоры просто брать и переносить стиль из картинки 2д-рисоваки на 3д-рендер. По крайней мере примеры выглядят убедительно.
>>1367980 Новый квен это версия 3? Если да, то стиль он меняет при более-менее сложных запросах. Просто изменения не глобальные, а в нюансах стиля. На пикрелейтед хорошо заметно. Ну если персонаж в той же позе и с тем же освещением, тогда точно стиль сохраняет, да.
>>1368010 Модель обучена рисовать как человек, она начинает не просто с шума, а с примитивного скетча, к которому потом дорисовывает детали, как это делал бы художник руками.
>>1368066 Какие же лоКАЛщики - фанатзёры, пиздец просто. > Show prompt > Для наглядности представлена обучающая схема из девяти сеток о том, как рисовать попугаев с помощью техники скетчинга.Общая композиция регулярна, и девять квадратных рамок для фотографий одинакового размера равномерно распределены на светло-сером фоне в виде трех рядов и трех столбцов, наглядно демонстрируя весь процесс от базовой формы до конечного продукта.\n\n В первой строке показаны начальные этапы рисования слева направо.На первой фотографии в рамке в левом верхнем углу простыми карандашными линиями обведена основная геометрия попугая: круг обозначает голову, а овал чуть большего размера - туловище.В правом верхнем углу мелким шрифтом без засечек напечатана цифра “1”.На втором снимке в рамке посередине к основной форме добавляются треугольный контур клюва и длинная дуга, являющиеся прототипом хвоста, а линии, соединяющие голову и туловище, становятся более плавными; верхний правый угол отмечен цифрой “2”.На третьей фотографии в рамке справа общий контур попугая еще более уточнен, выделяются гребень на макушке и четкие круглые очертания глаз; правый верхний угол отмечен цифрой “3”.Вторая линия фокусируется на добавлении структуры и деталей, изображая среднюю стадию рисования.В четвертой рамке слева к туловищу попугая добавлена основная форма крыльев, а под туловищем нарисована горизонтальная ветка в виде жердочки. Когти попугая изначально расположены на ветке; верхний правый угол отмечен цифрой “4”.На пятой картинной раме, расположенной посередине, расположение перьев на крыльях и хвосте стало более четким, с короткими линиями, создающими ощущение многослойности, и были четко прорисованы детали когтей, цепляющихся за ветки; верхний правый угол был отмечен цифрой “5”.На шестой фотографии в рамке справа он начал наносить предварительные тени на попугая, используя технику рисования поперечными линиями, чтобы создать ощущение объема на брюшке, под крыльями и шее; верхний правый угол отмечен цифрой “6”.Третья строка \n\n показывает заключительный этап доработки и завершения строительства.На седьмой фотографии в рамке в левом нижнем углу линия эскиза более плотная, уровень теней более насыщенный, детали текстуры перьев тщательно прорисованы, а глаза также покрыты глянцевым лаком, который выглядит ослепительно; в правом верхнем углу отмечен номер “7”.В восьмой рамке посередине фокус изображения смещен на жердочку, текстура ветвей и детали стыков увеличены, а соотношение света и тени на попугае в целом изменено, чтобы сделать трехмерное изображение более заметным. правый верхний угол отмечен цифрой “8”.Девятая рамка в правом нижнем углу - это последняя законченная картина. Все линии проработаны, контраст света и тени очень сильный, текстура перьев попугая и шероховатость деревянной жердочки ярко выражены, демонстрируя законченный и детализированный набросок; верхняя правая рамка в правом нижнем углу представляет собой законченный рисунок. угол помечен цифрой “9”.\n\n Освещение на всей картинке равномерное и яркое, без какого-либо определенного направления источника света, что обеспечивает визуальную четкость каждого этапа обучения.В целом книга представляет собой четкое и организованное учебное пособие по цифровым иллюстрациям.
Какие есть способы ускорить wan 2.2 для генерации видео? В интернетах пишут, что на 5090 стандартное видео 768х768 5 секунд должно генериться минуту или полторы, а у меня уходит минут 8. на двадцати шагах.
>>1365529 (OP) Не шарю за докеры. Какой посоветуете под блэквелл для линуха? У меня всегда паранойя, что контейнер может обновиться и какой-нибудь малварь притащить.
>>1368054 >>1368010 Тупой маркетинг, по факту 13б, это на 1б больше, чем у флакса, и на 1б меньше чем у ван, то есть нихуя нового мы не увидим, плюс это хуйнян, который не очень и эта модель нужна только как деталька для их 3д генератора и, возможно, будущей видеомодели. Хуй знает что там за мое и как он бустанет на деле Главное, чтобы ОЗУ хватило, влезет даже в 10гб врам. У них там в планах ещё и дистилляция, лол. Получится народная модель хуйни, которую все дропнут как хайдрим с их идеальной лицензией. >>1368066 Если это так то: вот! Наконец-то высрали не один скомканный кусок говна. Может теперь-то сможем. Интересно как быстро обучат композиционную модель рисовать прон и справится ли "лоунойз" модель с деталями.
>>1368190 > контейнер может обновиться Не может, если ты его сам не обновишь или не будешь запускать через докер-композ от васяна. Никто не запрещает тебе хуйнуть docker run, настроить всё внутри и запускать через docker exec. > Какой Официального нет чтоль?
>Самая масштабная модель MoE для генерации изображений: это самая масштабная на сегодняшний день модель с открытым исходным кодом для генерации изображений на основе смешанных экспертов (MoE). Она включает в себя 64 эксперта и в общей сложности 80 миллиардов параметров, из которых 13 миллиардов активируются на каждый токен, что значительно повышает её ёмкость и производительность.
>>1368223 >из которых 13 миллиардов активируются на каждый токен Всё остальное можно выгружать, будет требовать врама как флакс. Вон ван вышел, дауны заверещали про 28b. А что это по факту? Тупо две разных 14b, запускаемых по очереди.
>>1368336 Сходи уже в соседний тред, что ли, почитай про то, как мое работает, или про то, как дипсик и жирный квен вообще на проце и одной видяхе запускают.
>>1368341 подтверждаю, на cpu квен3 30b из-за мое работает с норм скоростью, в то время как старые мистрали и геммы3 12б не тянулись нормально даже 16врам гпу
>>1368203 >Никто не запрещает тебе хуйнуть docker run, настроить всё внутри Не хочу руками костылить контейнеры, хочу готовое решение. Какой тогда смысл от этих докеров, если нужно самому там ковыряться? >если ты его сам не обновишь Ну так обновлю, а там малварь, узнаю об этом постфактум, если вообще узнаю. >не будешь запускать через докер-композ от васяна А не от васяна есть? >Официального нет чтоль? Официальный уже год не обновлялся.
>>1368429 Так там таких васянов с 0 авторитетом, гарантией и поддержкой а иногда и с троянами и так пол докерхаба. Вот obeliks/comfyui и sombi/comfyui вроде обновляются, но я хз что это за ноунеймы.
Аноны, а кто-нибудь здесь тренил Лору на новый Qwen image edit c помощью AI Toolkit? Можно в облаке это делать: https://youtu.be/HBNeS-F6Zz8?si=Tz9yyavVYXBHihns Выглядит удобно, натренил лору на мощном железе, скачал и используешь ее с квантированной моделью на своей обычной 8-16 гб видеокартой.
На своем железе тренить не вариант, нужно около 30 гб vram.
>>1368467 >Nice combo. Соглы, я поэтому до сих пор и не пользовался докером и сам все пердолил в контейнерах. >Зачем тебе вообще докер? Впадлу обновлять, много зависимостей, много конфигов, много файлов короче. И так просто мне удобней будет пользоваться. >>1368452 Самому писать и поддерживать не хочеца.
>>1366181 Зависит от того какие плашки, 4 плашки дрочат процессор, если у тебя норм проц и ддр3-4 похуй в принципе. Но Во-первых у тебя частота и тайминги падают до самой медленной и долгой плашки а во вторых, если у тебя ддр5 то в с четеремя плашками они хуй разгонятся сильно теряешь в частоте.
>>1368532 > частота и тайминги падают до самой медленной и долгой плашки Само собой. Но вопрос был на сколько можно обосраться, а не как сильно получится разогнать. Обсером я в данном случае посчитал невозможность либо вообще запустить пекарню, либо меньшим обсером работа на SPD, например. Но в большинстве случаев все будут нормально работать на частоте с упаковки самой медленной пары.
>>1368546 Работать бкдет в 90 % случаем любая комбинация. Другой вопрос есть ли смысл? Главное что бы мать поддерживала такие объемы. Но 128 вроде любая современная тянет
>>1368485 >На своем железе тренить не вариант, нужно около 30 гб vram. на 12 гб vram тренирую с помощью musubi tuner и настройкой blockswap = 20, разве что озу компа желательно иметь 64 гига
Браузер Firefox. Продолжаю наблюдения. Ошибки копирования/вставки нод не было ни разу. На Edge была частенько. Так что прошу, у кого тоже ошибка потестить и подтвердить или опровергнуть. Chrome не пользовался. Но сам Firefox тормознее чем Edge. В моменты начала масштабирования или скрллинга ощущения, что фпс падает до 1-2 кадра в секунду. Это буквально длится с полсекунды, но постоянно, с каждым вторым скролом/зумом. Короче вот так. Но я лучше буду теперь небольшие подтупливаня, чем бред с отсутствием нормального копирования нод в Comfyui.
>>1368093 Поустанавливают всякой хуиты кастомной, особенно группы бесят, они больше хаос вносят чем порядок, трубы тоже пизда. Оракс долбоеб помню вот блять видите это же УДОБНА и ЧИТАЕМА, а на экране просто каша блять! Убери ты эту хуиту всю. сгруппируй поближе и выровняй все и будет в 100 раз лучше, гавноеды сука!
>>1368894 >Ждём нунчаку. 40 кекобайт будет после сжатия, все равно многовато. хотя нунчаковский qwen image с оффлоадом в рам работает с одинаковой скоростью, независимо от того сколько памяти в самом гпу выделять настройками. а докинуть озу всяко дешевле чем новую карточку брать. наконец-то 12-гб огрызки хоть что-то могут показать
>>1368817 нет смысла пиздеть на чужие воркфлоу, каждый делает как ему удобно. своя знакомая каша всегда будет удобнее и понятнее чужой хуйни где все скрыто и только пара кнопок оставлено.
>>1368540 >Попробую 8к картинку сделать апскейлом, получается шакал шакалович А ты не апскейль 512x768 говна, а нормальные 1280x720 или что-то типа подобное.
Выручайте, котаны! Давно бьюсь. Есть qwen image edit 2509. Есть две фотки. Первая фотка ЕОТовой, а вторая порнушная. Какой промпт написать такой, чтобы он взял мою ЕОТову и вставил с лицом и прической на фото порнушкой девки? Чтобы позы порнушные и всё остальное сохранилось? Делал так кто? У меня нихуя не получается.
>>1369343 Больше шансов на старом qwen-edit такое получить. Новый надрачивали на сохранение всей фигуры - одежду и аксессуары/инструменты/позы/мебель/задники менять он гаразд, а лица и другие части тела - не очень, разве что прическу да цвет глаз. Вообще - для стабильности результата через inpaint такое делать нужно. Наложить на фотку с телом, рожу на белом фоне (квадрат на нужное место, на старое лицо) и это скормить модели на вход - тогда qwen почти наверняка поймет, что от него хотят. (В смысле, это не я в нем не уверен - я как раз такое тестировал. Просто результат положительный где-то в 70-80% случаев.)
>>1369375 >>1369376 Эээх, бля. А я думал что можно одним промптом ограничиться. Мне тогда проще подать порнушную картинку через Florence2, он сгенерирует промпт где опишет всё, что на фотке. Потом передрочить промпт, конечно, тоже надо будет, ну или поискать похожую бабу, чтобы не переписывать цвет волос и прочую лабуду. С qwen_snofs это стало вполне реально.
>>1368698 скачал qwen-edit веса, обучил где-то за 20 минут лору на персонажа на 12 кекобайтах врам (с оффлоадингом), с этим всё ок. но хз как правильно сформировать датасет именно для редактирования, нигде толком не пишут. я так думаю надо две папки: в одной обычные фотки, в другой эти же изменённые (например с увеличенными сиськами), и лора, обученная на этом датасете должна по триггеру сразу делать громадные буфера. но как блин правильно всё распихать по папкам?
>>1369464 спасибо за ссылку, у меня правда musubi tuner, а не ai toolkit поэтому хз как с ним правильно работать. ладно накачу тогда этот тулкит, тем более тут интерфейс даже есть
Где лучше всего разбирать картинку в промт? Грок с чатомГПТ задолбали с лимитами. Либо лимит падает от загрузки изображений, либо на уточнения. Да и не совсем точно они описывают внешность
>>1370822 весьма неплохо для начинающего кстати. советую глянуть канал "фотошоп-мастер" на рутубе, там много толковых туториалов найдешь, там научат красоту делать. хотя говорят что сейчас все уже нейронками делают, мб в этом направлении тоже посмотреть стоит.
>>1370838 Спасибо! На нейронки пока не смотрю, на дваче в нейротредах один кал для быдла с голыми бабами, я такое не люблю. Может быть зарубежный анон делает годноту, но на реддите тоже кал. Буду искать где-то еще. Пока только экшн, только хардкор.
>>1370940 я напомню что раздевайки для qwen edit/flux kontext имеют проблемы с законом о дипфейках поэтому с любых площадок рано или поздно выпиливаются или не заливаются туда изначально.
ну и в принципе такой себе метод для генерации, слишком примитивный и ненадежный. один хуй лору тян придется тренить.
>>1371048 Сука, ты же пиздец хуета слабоумная. Ты сам придумал про какие-то дипфейки, нахуй. При чем тут ваще, нахуй, дипфейки, идиотина?
И там и там берешь любую картинку и с помощью абстрактных порнолор делаешь на ее основе контент. Или видео или пикчу другую. Для вана этих лор дохуища на цивате. Для контекста и едита - пиздец мало.
>>1371050 > При чем тут ваще, нахуй, дипфейки, идиотина? потому что порнолоры для квен эдита и контекста В ПРИНЦИПЕ нихуя другого не умеют кроме дипфейков, тупоголовая ты ослина, поэтому их удаляют. Эти модели изначально сделаны чтобы готовое изображение менять максимально сохраняя ебальник , смекаешь или нет, животное? Тогда как лоры для вана имеют общее назначение и чтобы их снесли надо чтобы до них чуть сильнее доебались. Ну и просто с любой рандомной пикчи в качестве стартового кадра нормальную порнуху ты хуй сделаешь, это буквально недавно умельцы сделали несколько лор специально натренированных на мужиках которые заходят в кадр или на камере которая отдаляется, такие лоры норм любую фотку ебурят, видосами сделанными с их помощью засрали уже три треда. Можешь брать билет до вашингтона и жаловаться большим дядям чтобы их удалили во имя справделивости. Еще вопросы "почему так бля" будут, невдупленыш ебаный?
>>1371054 >ЕТА ДРУГОЕ Ну то есть изначально ты мог просто ответить >пока не добрались до них почему-то, хз Но ты решил срать какой-то тупорылой хуетой, противопоставлять одно другому, а потом все равно высрать >пока не добрались до них почему-то, хз
Зайди, бля, в нейрофап в тензортред и посмотри - что получается. Чем, нахуй, это отличается от едита и контекста принципиально? Почему статичная пикча с хуем во рту это АТАТА, а вот ролик на 5 секунд с сосанием хуя и 100% узнаваемым ебалом - это не АТАТА? Нахуй ты мне начал срать про эти ебаные дипфейки?
Все, теперь точно - иди на хуй дегенерат. Больше не отвечаю.
Такая хуйня возможна на Stable Diffision? Ну теоритически нужен паплайн, который будет разбирать видео по кадрам, заменять в них тело на второй сурс и собирать обратно. Есть ли готовые решения? Кто-нибудь вообще таким занимается локально?
>>1371136 Вроде как свежий Wan Animate - это как раз оно. В одном из режимов - реплейсит персонажа на видео персонажем с картинки, если верить их описаниям. Сам не щупал пока.
>>1371472 > от лоры ускорялки Если ты про qwen, то нет. Какие у тебя сэмплер/шедулер? > А как с ним бороться? Ничего более удобного, чем пройтись поверх сдохлей, я не нашел.
>>1371895 Серьезное лицо с легким оттенком безумия во взгляде, достойное CEO крупнейшей интернациональной компании, контрастирует с выбором одежды и поведением, создавая когнитивный диссо Баба, как баба, симпатичная. Держи сорсы, чтоб перегон не перегонять, может еще реалистичнее выйдет.
>>1372784 Ну какой из Столлмана дефлоратор? Он же был хацкером-гиком, писал с всякими шизами полезный швабодный софт, потом правда мозолей или ногтей переел и скатился в полный кукарекинг, но все таки.
>>1372789 > писал с всякими шизами полезный швабодный софт Ты хотел сказать придумал свободную лицензию, по которой будут писать свободный софт за него, а права на него останутся у него навечно?
>>1372574 Бля, охуеть, за целый день никто не ответил на реально важный вопрос, зато какие-то шизопосты про дефлоратора. Только не говорите, что вы сами не знаете
>>1373344 Ну то есть мой пост провисел день, все знают ответ, но ответить не хотят. Когда я спрашиваю почему - говорят, что вопросы не те и я нахуй буду посылать, когда ответят. Когда я удивляюсь этому, говоря, что это шиза - обвиняют в невежливости. Хуже треда на доске не встречал, надо медальку вам выдать за самое гостеприимное место для ньюфагов.
>>1373401 > Хуже треда на доске не встречал, надо медальку вам выдать за самое гостеприимное место для ньюфагов. Просто все за 3 года выявили твою манеру и заранее знают, что вопрос задаешь ты, а не ньюфаг. Продолжай в том же духе.
>>1373401 База. Самое смешное, что итт закрепились полтора криворуких долбоеба, которых отовсюду ссаными тряпками повыгоняли, и сидят три года, генерит одно и то же, судя по высеру >>1373414 этого петуча, которого, с его слов, уже так часто попускали, что он придумал личного протыка.
Шо вы, дегенераты, уже обучили лору на квен? Показывайте что получилось.
>>1372710 Оу. Спасибо большое за вф. Я уже и забыл про те эксперименты. Лора хорошая. Бед с цветными пятнами сильно меньше, иногда шакалит прямо как на ранней полторахе, но это уже промпты крутить надо. Можешь ещё объяснить что означает число r12 в версии HD-Flash_r12-fp32.safetensors и на что это влияет?
Блять, эта штука в принципе может хотя бы повторить просто сраную Лору персонажа без нихуя остального? Блять, то какое-то говно додумает, то лицо попидорит, то ебанутые пропорции выдаст... Я ебал нахуй.
Надо ждать ИИ, который будет с 3D полноценно работать. Загружаешь ему сраную Блендер-модель и говоришь че с ней делать. Он делает. Вот это тема будет, а 2Д это какая-то мазня лсд-торчка.
>>1365529 (OP) Аноны, порекомендуйте что сейчас хорошо понимает промпт. Хочу генерировать хентай 2D. Желательно в онлайне, так как у меня мак и чтобы вышло не дороже 20 баксов. в месяц.
>>1374225 >Надо ждать ИИ, который будет с 3D полноценно работать. Загружаешь ему сраную Блендер-модель и говоришь че с ней делать. У тебя уже 3 edit модели есть. Зачем ты там всё ещё со своими лорами страдаешь?
Аноны, а где можно нормально тренить в облаке лоры для актуальной qwen image edit? Только чур без самостоятельной установки, хочу чтобы готовый шаблон был, а не ебаться с зависимостями и ошибками. Так-то сервисов много для этого, но думаю что большинство просто под старый qwen image тренировку предлагают.
>>1374830 Что для тебя есть хорошее понимание промта применительно к хентаю? Все хентайные модели известны прекрасно, это люстра и её миллион вариаций, они все до идеала надрочены на хентайных тэгах.
>>1375047 > Now the girl is lying on the bed in the guise of a nude Aphrodite. Light falls on her n_a_k_e_d breasts, shoulders, hips, abdomen. A light robe is open on her chest. Keep the facial expression, makeup, hair, and hairstyle unchanged. И приклеиваешь к исходнику снизу любые сиськи, чтобы контекст узнал как их рисовать.
>>1374990 Блять. Магия вне Хогвартса. Правда чето Kontext не со всех попыток вдуплил и несколько изображений оставил нетронутыми. Я так понял короткие промпты в 5 слов он хуево воспринимает.
>>1375157 >Kontext не со всех попыток вдуплил и несколько изображений оставил нетронутыми Контекст очень вариативен. В нём каждый промпт надо крутить раза по 4. Он может три раза вообще ничего не поменять, а один - годноту выдать.
Тут годноту для квен завезли. https://civitai.com/models/1551668/samsungcam-ultrareal Думал сейчас попробую и выскажу автору, что это говно и руинит другие лоры. Но нет, работает с лорами на лица и даже фиксит уёбищность ускоряющей лоры из-за которой я бросил квен.
>>1374990 >kontext Бляяяяяяять, вот это инструмент... Потыкал на openart.ai и мягко говоря в ахуе. Я так понимаю это щас самое пиздатое что можно юзать для пикчей с сохранением консистентности персонажей?
>>1377044 >Если опустить пердолинг в лоры, то wan2.2 - для фоточек. qwen - для картиночек. Квен поумнее. Вот сколько я не пердолил ван там фотки в 99% случаев как не живые, хз то ли тени, то ли выражение лица всратое, то ли потому что по дефолту делает слишком постановочное фото. Приходится изъебываться и всеравно не сильно слушает промпт. Уже думаю в сторону квена, но нунчака не умеет в лоры, а остальное долго
>>1377468 >нунчака не умеет в лоры один чел на гитхабе запилил поддержку лор, ждем когда в основную ветку добавят >>1376480 >А без этой лоры ещё хуже? разница заметна, насчёт где хуже\лучше - хз
Я заебался, помогите пожалуйста. Мне нужен UltralyticsDetectorProvider Я его поставил через эту ноду. Но в логах пишет, что найти такой не может. Десктопный comfy. Я просто хочу своим 2d тяночкам делать лица детальнее...
Если здесь есть лохи с вендой у которых при юзе qwen image edit лапша падает нахуй, а в eventvwr ошибка torch.dll, просто.. увеличьте ебаный файл подкачки по формуле гб рам * 2 на том диске где стоит комфипараша.
>>1377841 Лохи это те, кто изначально сам "решил" что вот такой вот размер, по его мнению, достаточен для системы. А нормальные поцики доверяют системе и система сама ставит размер.
>>1377432>>1377505 Я заметил, что это сильно зависит от лица. Кто-то хорошо с контекстом сохраняется, кто-то наоборот - только в квене. Кого-то везде пидорасит. Надо пробовать и то, и другое. В целом квен конечно послушнее, он умеет сильно больше, но у контекста как-то результат поживее, подушевнее. Лично я сначала пробую ворочать в контексте, если не выходит - переобуваюсь на квен. Он даст средненький, но гарантированный результат. мимо
>>1378010 > запустится, если в системе нет видеокарты Да. > или можно проще это нарулить? 1 крутит на чем есть, 2 - можно выбрать, на чем крутить, 3 - нужна карта, если напердолишь, будет и на встройке крутить (если она поддерживает).
>>1378589 Нунчака всё же обычно хуёвит качество за счёт скорости. Дистиллят-лоры имеют побочный эффект улучшения картинки, но снижают вариативность и разнообразие, соответственно падает следование промпта, тупо динамически снижается уровень знаний, если грубо говорить.
>>1378676 >пиксельарт Пиксельарт лучше всех рисует qwen. Возможно даже qwen edit, потому что в него можно прямо стиль загружать. Wan2.2 тоже справляется, но он часто проваливается в лоуполи кубики-воксели как на последней картинке. >в духе олдскульных игорей типа Дюк Нукем 3Д С этим беда, технически нарисовать сцену как в скриншоте можно, но она всегда будет вылизанной, наигранной, постановочной, неживой.
>С этим беда, технически нарисовать сцену как в скриншоте можно, но она всегда будет вылизанной, наигранной, постановочной, неживой. Хуево. Чето последнее время люто торкает стиль старых игрушек.
>>1378839 Я не пробовал edit, квен юзаю на фп8. Обе лоры скачай и смотри нахуй они нужны. Lightx2v пиздец ебёт. Жаль, они на флакс не делали, чтобы с хромой юзать. >>1378849 На 16гб, изображение на 0.3МП больше тоже на клоунском res_2s 50 шагов генерило 20 минут.
>>1378880 У меня наоборот на обычном рендере какой-то пиздец с ебалом происходил. На лайте ни разу кривого лица не было, просто бывает не похоже на лору. А фейсдетайлить я не могу, импакт какие-то дегенеративные параметры сделал, совершенно не понятно как добиться точно таких настроек как на фордже. Каждый параметр факапит другой с какими-то непредсказуемыми последствиями. Это уже не говоря, что этот конч не соблюдает базовых принципов проектирования. Его говно должно только маску и кроп выдавать нахуй, а я уж сам разберусь в какой модели и как это рендерить.
>>1378967 То, что ты довольствуешься хуитой импактной, не делает эту хуиту сносной. Просто значит, что у тебя отрицательный самоконтроль качества. Если самому васянить фейс инпейнт, получается намного лучше.
По прошествии трёх лет, что я генерирую вангерл стендинг, я выиграл только в одном: у меня появилась хоть какая-то память на лица. Раньше она была ужасная, вообще не получалось запомнить людей, только по косвенным признакам: определенному месту встречи с этим человеком, голосу, одежде, по его собаке. Но теперь я четко могу вспомнить лицо раз встречного человека. Это прям удивительно интересно. Только сегодня я это понял.
По прошествии трёх лет, что я генерирую вангерл стендинг, я выиграл только в одном: у меня появилось умение троллить. Раньше оно было ужасное, вообще не получалось троллить людей, только по шаблонам: определенному месту встречи с этим человеком, голосу, одежде, по его собаке. Но теперь я четко могу затроллить человека. Это прям удивительно интересно. Только сегодня я это понял.
>>1379491 По прошествии трёх лет, что я генерирую вангерл стендинг, я выиграл только в одном: у меня появилось умение общаться с LLM. Раньше оно было ужасное, вообще не получалось общаться с ботами, только по шаблонам: определенному месту встречи с этим ботом, голосу, одежде, по его собаке. Но теперь я четко могу отвечать LLM на все посты. Это прям удивительно интересно. Только сегодня я это понял.
Я так понимаю что вся тема нейрогенерации сейчас состоит из шизофреников у которых крыша потекла от созерцания лапши и бесконечных срачей по поводу очередной китайской модели на +1B, и им на сами эти генерации уже давно похуй и они просто лениво пошвыриваются подтекающим из головы говном?
>>1378528 збс, наконец-то может точно следовать запросам make background black make 3d white wireframe 1 пик - новая лора остальные - различные предыдущие ускорялки, цвет с оригинальной фотки просачивается и линии корёжит
>>1380134 Это хорошая, особенно если с еот лорой так же генерится в других позах, скинь параметры, пожалуйста. Я так понимаю, это явно без лайтинг, мало экспериментировал без неё, по 5 минут генерит. >>1380189 Это мыло, восковая фигурка, не ассоциируется с человеком.
Анон, помоги разобраться, я что-то делаю не так. Как работает разделение параметров у комфи в промпте и есть ли оно вообще? Т.е. условно есть указать что персонаж носит красные туфли то он вообще все вокруг будет пытаться покрасить в красное просто потому что цвет указан значит его надо запихать везде. С цветом еще ладно, но он и персонажей морфит в одного, как сделать двух и чтобы они были именно разные я вообще не понимаю. Как ограничить параметр для чего-то отдельного чтобы, к примеру, при вводе [Толстый Пахом стоит как цапля], [Братишка сидит рядом без штанов и охуевает] их не морфило в одного персонажа или не приписывало черты одного всем? А то если так и вводить то они в лучшем случае будут оба стоять как цапли, в худшем это будет один персонаж который совмещает все черты в себе.
>>1381294 Даже тут красную резинку на трусах добавил скорее всего потому что сапоги красные, а пальто у пахома наверно потому что у братишки пальто. Но хоть персонажа действительно два, это уже лучше чем склеенный один, как такого добиться стабильно?
Эту вашу комфи уже начала рекламировать Nvidia во время установки своих драйверов и я решил ее себе таки поставить. Поставил какую-то версию по ссылке с Nvidia, с запуском в собственном приложении, а не в браузере, которую та вроде понимает и обещает ускорять. И что же? Два часа сижу и не пойму как прописать пути к собраной тяжким трудом за два года библиотеки моделей (просто их задублировать в дефолтную папку комфи не вариант, все таки 400 гб на диске не валяются). И что правда никак нельзя прописать пути? Мне браузерную версию ставить надо?
>>1382057 Ты дурак или вендоблядь? Впрочем даже в говновенде есть симлинки через три пизды, хоть через mklink в cmd долбись, хоть через ni в powershell.
>>1382261 Файл то есть, да только нифига он не работает.
В конце концов разобрался. Есть два стула файла. extra_model_paths.yaml который тут не работает и нафига он нужен вообще и extra_model_config.yaml, который вообще в другом месте лежит и фиг его найдешь, вот его и надо править.
Как выяснилось, квен дружит с 4к. То есть родное для него разрешение это 2016*2016. Обратите внимание не 2048. Кратность у квена 112, а не 64 как у других моделей.
>>1383695 > 2016*2016 Квадраты не нужны. Уже на 2.5МП начинаются глюки с анатомией, на 4МП - клоны. 2МП - максимум, что может стабильно выдавать нормальный пик без рероллов.
a young woman in a pink fur tank top and with short dark messy hair sitting at the wheel of a convertible coupe, she is drawing a square in the air with her fingers with both hands, a thin red square is overlaid over the picture implying that is where she drawn the imaginary square, the scene takes place on a parking lot in front of casino in Las Vegas
Сей поток словестного поноса будет направлен на выводы по карточке, которую я с дуру купил за 136к рублей, когда повёлся на хайповые заголовки. Я сразу скажу, что я не думал перед покупкой, при покупке, да и после покупки у меня достаточно пустая голова, однако я сейчас поделюсь с вами информацией(а так же некоторыми цифрами), что эта карта могёт. Данный пост так же будет продублирован в SD тред, т.к. диффузии на карте тоже запускались и в LLM тред, т.к. языковые тоже, это общий вывод по железке. Для начала стоит сказать, что я нашёл людей, для которых создана эта карта, вам понадобится: купить сервер Kungpeng 200 на арм чипах 910, купить 4 таких карты что бы забить все слоты в райзерах. Суммарно на это у вас уйдёт около 1.5 миллиона рублей, быть житель материковый китай нефритовый стержень удар, что бы качать без заёбов себе драйвера, тулкиты, пакеты для деплоя, квантов и прочего, кроме того вам нужно иметь прямые руки, понимать в администрировании, девопсе и по хорошему говорить на китайском языке уверенно, что бы читать форумы Ascend. Для меня, пропитого эникея работа с картой была задачей со звёздочкой, хотя большую часть времени я вообще не то, что должен был. Если хотя бы по одному из пунктов вы проскакиваете, то вам не стоит покупать данную карту, ибо она сделана корпоратами для корпоратов, её тыкают в сервера умного видеонаблюдения, для ML(она умеет например в YOLOVv8 в 100фпс) и прочего. Теперь все подводные камни для тредовичков: 1)Не работает на винде. Вообще, даже WSL нет смысла пытаться, поддерживается на полутора дестрибутивах, ну хотя бы есть привычная ебунта LTS в списках, остальное это всякие эйлеры, кайлины, хуйлуны и пр. 2)Не поддерживает квантование. В теории оно умеет специальные кванты разработанные Ascend, на практике можно про это забыть, поддержка квантования сейчас крайне ограничена. Даже привычных легаси форматов типа Q4_0 нет. ТОЛЬКО FP16(BF16 тоже нет) 3)Поддерживает полторы модели. На данный момент поддерживает хуй да нихуя моделей, мало того почти все модели на которые хуавей говорит 100% будет работать - это 0.6-8В лоботомиты квена, даже ~80B квены старые и новые хуй. На практике чуть-чуть иначе, но всё ещё не сильно хорошо. Про запуск шизотюнов можете забыть. 4)Достать софт - боль моя дырка задница. Сразу покупайте виртуалку с пекинским айпи или запрягайте вашего продавца предоставить вам ваш необходимый для работы с картой софт, я выбрал второе. 5)Разумеется как проф карта она идёт без активного охлада и переходников для запуска на обычной пеке. Плюсы есть? Ну в теории есть, я даже выделил парочку: 1)Несмотря на то, что это по сути легаси говно 2022-го года выпуска на неё активно выпускают софт и обновления для поддержки. Буквально пол года назад я бы вообще нихуя не смог запустить на ней, сейчас есть хоть что-то. Учитывая. что рантайм для инференса MindIE от хуавея обновляется каждые 2-3 месяца(в этом месяце тоже должно выйти большое обновление), то через 3-6 месяцев этот пост вполне может перестать быть актуальным и появится значительная поддержка всего и вся под эту карту. Кроме того поддержку этой карты сейчас активно разрабатывают и развивают в llama.cpp, vLLM и прочих бекендах. Я успел пообщаться с разработчиком поддержки Ascend npu в llama.cpp, новости пока что удручающие, но работа кипит. 2)Пока что по сырым характеристикам эта карта ебёт всех своих конкурентов. 280 TOPS INT8, 96Гб памяти с 408гб\с псп(что всё равно больше чем у самых пиздатых цп решений на Epyc) и всё это при теплопакете 150W и цене в 1000-1500$. Теперь к практическим тестам: Diffusion: Бекенд llama-box SDXL стандартный генератор 1024х1024 35 шагов 1 чип справился примерно за 2 минуты без оптимизаций, пока что не разобрался как распараллелить и потестить с лорами и тюнами типа люстры. То есть работало только пол карты. Сама Huawei на MindIE заявляет скорость SD 1.0 512x512 20 шагов около 2.8с на картинку при полном распараллеливании задачи диффузии. LLM: GPT-OSS 20B почему-то в FP16 со странным антиквантом запустился, но криво. Скорость генерации около 9т\с на пустом контексте. Значительная часть модели(12гб) выгрузилась и работала на цп, на нп выгрузилось почему-то на 1 чип около 6гб в врам, по ходу ответов увеличивалось место, возможно KV cache или ещё какая залупа, непонятно. Дипсики все отказались запускаться, пока что качаю гемму и квен, ждите отписки завтра. В общем пока что покупка карты очень сомнительное мероприятие сопряжённое с пердолингом, красноглазием и невозможностью запустить карту в работу как обычную гпу. Я надеюсь, что китайцы в будущем исправят это недоразумение, добавят поддержку мейнстримного квантования и список поддержки моделей сильно разрастётся уже в 2026-м году, но надежда умирает последней, а карту я пожалуй выставлю на авито и куплю хорошую потребительскую гпу вместо неё, наигрался.
Теперь не нужно писать кастомный offloader (custom offloader) или работать с квантованными версиями вручную. Всё будет обрабатываться автоматически, если включить GDS. Но есть предупреждение: “be aware it’s Linux only atm” — пока что работает только на Linux системах.
>>1384424 Что тебе нужно сделать, чтобы “это заработало”
Вот предполагаемые шаги:
1. Использовать Linux Если ты пытаешься на Windows — возможно, пока что не будет работать. В комментариях прямо сказано, что “Linux only atm”. 2. Обновить или получить версию ComfyUI / фреймворка, где эта фича внедрена Эта “GDS функция” — новая фича, которая, по словам автора, ещё не вмержена в основную ветку (review is going on) Значит, тебе нужно: Получить свежую ветку или форк с этой фичей (pull request / patch), Установить её (сборка, установка зависимостей и т.д.). 3. Активировать флаг GDS Когда версия с поддержкой GDS будет доступна, нужно будет включить этот флаг — “GDS enabled” — в настройках или конфигурации запуска модели. 4. Хранить модель на SSD / быстрое хранилище В комментариях упоминается, что это особенно выгодно, если SSD быстрый, потому что модель будет читать / записывать данные с диска. То есть диск должен быть достаточно быстрым (NVMe SSD, например), иначе узкое место станет диск. 5. Проверить системную RAM Хотя цель — уменьшение использования видеопамяти, всё же части модели могут временно находиться в оперативной памяти. Чем больше RAM, тем лучше. В комментарии говорят, что у одного пользователя 128 ГБ RAM, и это помогает, потому что части модели могут “свопаться” туда и обратно. 6. Тестировать и отлаживать Возможно, часть функций пока что “сырые” — могут быть баги, недокументированные нюансы. Надо запускать, смотреть логи, проверять ошибки.
>>1384427 >Что тебе нужно сделать Что ты получишь в процессе: Еблю в несколько часов чтобы всё заработало. Потратишься на быстрый ссд чтобы действительно заработало. Испортишь быстрый ссд постоянными чтениями на каждую генерацию. Наебнешь свой комфи, начало будет него переустанавливать, чтобы вернуть все взад. Напишешь на двач, что оно у тебя летает на четырех килобитах врама, а на самом деле нет. Но надо же как-то оправдаться.
>>1384424 >пока что работает только на Linux системах. Можно подумать кто-то на говновенде ковыряет петухон с нейронками. Этож пиздец боль, попробуй параллельно держать python3.12 и 3.13, ебнешься. Не то чтобы это невозможно, но ну его нахуй.
>>1384583 > говновенде ковыряет петухон с нейронками. Этож пиздец боль, попробуй параллельно держать python3.12 и 3.13 Мамкин хацкер? В школу завтра, давай дневник собирай. Почитай про конду, про венв что ли
>>1384424 Пердолинг как оно есть. Проебаться пару суток чтобы оно там за 5 часов что-то отрендерило один раз. К тому же там вроде есть какой-то мультигпу который якобы позволяет выгружать часть чекпойнта в виртуальный врам.
Первый рендер изображения hunyuan 3.0 локально на rtx pro 6000 96GB, выглядит потрясающе.
50 шагов на конфигурации 7.5, 4 слоя на диск, 1024x1024 — заняло 45 минут. Сейчас пытаюсь оптимизировать скорость, думаю, получится ускорить. Буду очень благодарен за любые советы.
>>1380366 >Под 8гб юзаю 4_K_M Это как так? Я 3_К_S попробовал запустить, когда доходит до декодера люто все вешается. Приходится по куколдски сохранять латентных а потом их отдельно декодить в пикчи. Есть какая-то особая линуксная магия о которой я не знаю?
>>1385323 > Зачем ей пользоваться в 2025 - в душе не ебу. Чтобы скрывать /по/рашу, растекшуюся по всем доскам, очевидно же. Моче же похуй на ботов и беглецов из загона.