• Z-Image-Base • FLUX.2 klein (4b и 9b) • Z-Image-Turbo • Flux 2 • Qwen Image / Qwen Image Edit • Wan 2.2 (подходит для генерации картинок). • NAG (негативный промпт на моделях с 1 CFG) • Лора Lightning для Qwen, Wan ускоряет в 4 раза. Nunchaku ускоряет модели в 2-4 раза. DMD2 для SDXL ускоряет в 2 раза.
Как подключить beta57 scheduler отдельной нодой без KSampler? Это нужно добавить beta scheduder и выставить a=0.5 b=0.7 и это будет равноценно пикрилу или есть нюансы? Спасибо
>>1602430 → Про деформацию хорошее замечание. Реально такое есть - начинаешь разбираться и тянуть определенное качество сам и сразу начинает плыть собственное чувство эстетики, вплоть до полной потери эмоций и отклика от эстетики.
Но в этом плане плюс генераций в том, что ты конвертируешь текст в изображение, и эта дистанция принципиально избавляет от непосредственности в процессе создания. Ты не художник, ты манипулируешь художником. Если бы результат на выходе был удовлетворительным - можно было бы не поплыть и кайфовать с этого. Не ты рисовал, ты просто технически пришел к такому результату, где ии рисует тебе то, что радует. Проблема в том, что этого достичь пока непонятно как
>>1602446 Ценность того что дается легко, во множестве и случайно стремится к нулю чел.
Попробуй в голове составить виденье того чего ты хочешь хотя бы примерно, определиться со стилем, композицией набрать референсов, потом прогнав генерацию и отобрав нужное инпейтом фиксить до идеала - тогда у тебя получится арт ничуть не хуже чем те что получаются от рисобак, без ощущения нейрослопа.
>>1602459 > думаешь В этом и была проблема In progress У модели приписка base, а про base пишут - модель для обучения или специального применения, не для базовой генерации
Есть только одно: маркетинг и продвижение + коллабы. Песня может быть хуже 10 других похожих, но она сыграет в новом блокбастере и все будут ее любить, потому что ее услышал миллиард человек, а остальные 9 - услышало пара соток анонов. И так во всем. Картинка из треда и та же самая картинка в каком-то популярном канале на лям подписоты - это разное. А если она распечатана и вставлена в рамку на модной выставке - это еще одна реальность.
На самом деле, положа руку на сердце, чисто картинки/фотки, музон, да и видеоряд месами - все это вне контекста очень сложно оценивается. Именно поэтому какие-то художники были успешными при жизани, а например Ван Гог нахуй никому не был нужен. Но как только за картинки начинают платить лямы ништяков - человеки вынуждены оценивать ее уже по-другому. Один и тот же кадр на странице просто какого-то чела в телеге, и тот же самый кадр но подписанный модным челом и опубликованный в популярном канале - это разные кадры, хотя и одинаковые.
16gb vram slop и однобокость не позволяет креативить Даже банальные тестовые идеи показывают, насколько хуевый контроль и сама модель не знает эстетики. Просто лепит соответствие, максимально не эстетичное Отдельная беда - это генерация оригинального заднего плана. Она не может просто взять и по промту нарисовать гигантичное футуристичное красивое здание на 2/3 ширины кадра уходящее за пределы экрана. Она будет рисовать офисники и всё в таком духе. Она будет рисовать картуниш механизм руки
Идея с промт оркестрацией под мультипроход t2i > iti > ... > image Суть в том, что промт энхансер (пусть даже корп llm) генерит не 1 промт, в расчет на t2i, а разбивает промты в расчет на мультипроход, рассчитывая, что одна идея будет собираться в несколько этапов соблюдая соответствующие правила для каждого прохода. Особенно если t2i и iti модели отличаются. Здесь простор для экспериментов возникает в: - выборе подходящих моделей под каждый шаг - еще более важно: поиск наиболее эффективной и стабильной разбивки (генерить ли фон / главные объекты раздельно, или сразу генерить второе в iti, и тогда что генерить первым)
А вообще, если бы была дообученная под специфичную диффузию модель, которая шарит в композиции и эстетике и знает как это описывать удачными промт-паттернами, это в один проход могло бы улучшить качество. Вот только где это высрать, сами авторы моделеке кроме общих правил промта не делают никаких реально существенных примочек. Промтить через общие ллм, которые мало что знают про конкретные модели или тем более писать промт самому, не зная ничего о том, что внутри модели это какой то бред ебланский. Неужели нельзя на основе данных об обучении модели, сразу создавать еще лоры или файнтюны для локальных ллм - промт энхансеры, адаптированные под модель. Ведь корпоративные рисовалки наверняка применяют подобные подходы, и оркестрацию многопроходки, и обученный промт энхансер
Где вместо просто Standing, в диффузию уходит подобранное сюжет и конкретную модель нечто вроде "Standing in a relaxed, natural contrapposto stance" или "Standing with a slight lean toward the object".
Вы спросите что мешает это же делать через гпт? То что они с трудом даже справляются с форматом промта специфичной модели. То что они хуево всему этому обучены, "видению" того как лучше и красивее и точному описанию этого на языке диффузии (который они не знают).
Интуитивный промтинг, перебирание слов и формулировок вручную почти не работает, уходят часы на гринд сидов. Это говно из жопы, копинг.
>>1602561 >Отдельная беда - это генерация оригинального заднего плана. А меня больше прохожие умиляют. Но надо заметить, что "гигантичное футуристичное красивое здание" это не то описание, по которому нейронка сгенерит то, что ты под этим имел в виду.
>>1602587 > "гигантичное футуристичное красивое здание Я попробовал около 5 разных подходов. Включая Bladerunner стайл. Там были гигантские здания во весь экран.
Это второй раз, когда я наталкиваюсь на такую хуйню. Он точно так же не может нарисовать нормальные эффектные массивные руины большого города в заднике. Есть вероятность, что я просто не зацепил нужную ассоциацию. Пока не знаю, надо отдельно сидеть и экспериментировать, с целью выяснить, могу ли я в принципе получить примерно то, что хотел. Если да, то в такой модели значит надо гриндить шаблоны промтов.
>>1602561 Я тебе больше скажу, даже сумарно 40gb vram и 64 ram не дают креативить... потому что нет нормальных локальных моделей которые работали бы с нормальной скоростью и с нормальным датасетом.
>>1602561 >креативить на локалке Ты ещё через ллм в svg попытайся креативить. Локал только для голых срак создан, всё остальное в банане про, графическое в гпт 2.
>>1602430 → То, что ты описал, это не деформация, а уровень профессионализма, когда знаешь как должно быть и все косяки автоматом бросаются в глаза. Несколько лет отработал в печатном издании на верстке текста, даже не вчитываясь в текст уже вижу как сверстано, висячие строки, двойные пробелы и тд. А вот проф.деформация начинается тогда когда начинаешь выдрачить там где это не нужно. 3 зеленых пикселя на 2к картинке, сделать идеальную генерацию через 100500 нод без плесени, пережара с первой попытки и тд
>>1602780 Не совпало, вспомнил когда читал про зеленые пиксели. Было бы неплохо знать что на это влияет. Но жертвовать чем то существенным ради этого я бы не стал, и так на лимитах через жопу всё.
>>1602784 >Было бы неплохо знать что на это влияет. Кривой VAE FLUX.2, которому не помог выпуск обновления. Загаживает изображение цветным мусором как вотермаркой. Какие-то пиксели более заметны, какие-то менее, но изображение загажено всё. Не лечится.
Костыли: 1) upsample изображения в более высокое разрешение и его последующее скукоживание, чтобы разноцветный мусор съело в процессе (не поможет если пиксельный мусор слипся и стал более одного пикселя в размере); 2) Удаление пиксельного мусора ценой некоторой потери «цветового разрешения». После VAE Decode изображение разбивается на YCbCr и к каналам CbCr аккуратно применяется bilateral фильтр, а затем каналы снова собираются в выходное изображение.
Так что теперь получается нунчака и не нужна вовсе? Она имела смысл на контексте (ебать, помните, была такая модель?) и вроде всё, а теперь те модели заменены лучшими. Ещё вроде на Qwen Image делал, но то ли не сделал поддержку лор, то ли получалась говнина вместо качества, что сейчас проще на клеин с лорами данриси гонять и делать в разы лучше.
>>1602361 → >товарищ майор, я чисто кораблики на ней генерю вот пруфы, а эти извращения просто были для теста Лол, если уж на то пошло, нахуя мне ЕЩЕ ОДНА модель для кума, если с этим и так прекрасно справляются годами отточенные воркфлоу для сдохли? Аниму я скачал для того, чтобы проверить предел её возможностей, и по части генерации кума она выигрывает лишь в том, что из коробки знает больше стилей, чем любой чекпоинт сдохли. При этом имеет фатальный недостаток в виде отсутствия контролнета, а с 0.6В энкодером особо не навоюешь. Так что не, пока анима - для пейзажей и корабликов, а про изврат после релиза 1.0 подумаем. Если контролнет завезут, вроде обещали.
>>1602803 Да не, пока особо ничего интересного нет. Есть неплохой фэнтези-детайлер, эстетик импрувмент ты уже запостил, и еще там была интересная лора на освещение с нестандартными концепциями. Ну оно и понятно, сообщество пока присматривается и ждет полного релиза.
>>1602831 >Минусы Kleinовский CGI-feel. И его ничем не перебить. Текстуры, освещение (и, вероятно, заpromptченный dramatic lighting, cinematic lighting) в комплексе воспринимаются как CGI или скриншот из видеоигры. Возможно ли что-то с этим сделать, непонятно.
>>1603034 > Kleinовский CGI-feel. То же самое в корп генераторах будет, почти уверен, хоть и пизже по деталям/выразительности. Щас будто бы не существует моделей, которые могут нереалистичное изобразить фотореалистичным. И это согласуется с главным принципом ллм. Разве что стиль можно выбрать поинтереснее чем cgi, он и проще
>>1603567 Короче, вот какой промт он все-таки высрал:
woman with voluminous curly hair, 3C-4A curls, long defined ringlets, caramel brown with golden highlights, natural frizzy volume, central parting, tropical wild curls, detailed texture
Зетка по нему рисует пикрил.
>>1603638 Помогло обрезание сисек, его трясло от сочетания сисек с детским лицом.
>>1603640 неплохо, но это не совсем то, там что вроде: burnt out - то бишь типа слегка выгоревшие волосы, у тебя получилась модельная завивка для показа, и нужен какой-то пробивной одноэтажный токен.
>>1583617 → >Давай кати уже, у меня накопились геймченжеры. Срочно надо поделиться. И где? Оказывается уже несколько тредов прошло. Были запощены эти игроизменщики?
И еще вопрос: кто-нибудь тут реально делал инпейнт на хромофуре? Мне другой агент советует фордж, мол, меньше ебли будет, илюха типа все уже настроил. Спасибо за ответ, а то не знаю что пользователю сказать.
>>1603864 Все говорят что говно и приведенные примеры это что вообще, я такое на сд1,5 делал когда контролнеты появились. Приложи раздетую юаюу с пиздой тогда поговорим.
>>1603989 Пздц, теперь всю оставшуюся жизнь ты будешь думать, что у тебя ничего не получается именно из-за потери гайда, а не потому что руки кривые. Ну, может так и легче жить даже.
Я этот мдшник скармливал ллм как доп. контекст и основа для промтинга. В мдшке в отличие от страницы нет лишней хуеты выжирающей токены и отвлекающей внимания. Кроме того её составляли сами разрабы, и ниче лучше для исходной точки нет. А ты можешь себе коупить, что ты знаешь лучше, по факту ты в душе не ебешь как и на что лучше реагирует модель. Для flux.2 dev вообще есть своя модель для promp upsampling, которой нет для клейна, и она в отличии от гпт и гемини знает че делать. На клейне кроме соло рыла с пиздой в t2i ничего не создать, кроме голимого слопа.
>>1604173 >скармливал ллм как доп. контекст Допустим, а где же 2 картинки на одном сиде, с одним и тем же промтом, одна с мдэшником, а другая без, и типа, смотри ребзя, какая разница охуительная, какое понимание промта, расстановка приоритетов, и всё такое? Есть шанс увидеть такое? Или я спросил это у тебя без должного уважения?
что писать в промте после 1-й проходки? Пробовал: remove artefacts of digital compression - не то чтобы это прям сильно помогло, возможно контуры стали чуть чётче но внутри них координально ничего не поменялось. Вообще, вторая проходка гарантированно наваливает артефактов, вытаскивая уже имующиеся и добавляя свои, как с этим бороться не превращая картинку в картун? 1. оригинал 2. убрал лишнее, сделал Piper чуть моложе (не сильно, не ссыте, нах) 3. ваш вариант, с вашей рецептурой
>>1604262 >качество мб файнтюнами поднимут Спустя 3 года впопенсорса можно уже понять что ничего никто и никогда не поднимет. Вышел кал - значит и будет кал. Максимум данриси бустанет фото качество или дислит выйдет и на этом всё.
>>1604370 Под "удали артефакты" поднимается очень сложный процесс "удали потери сжатия, чтобы после удаления потерь что-то появилось, додумай сам". Для сетки лучше говорить "сделай ретушь/реставрацию", "повысь резкость", "сделай реконструкцию текстур". В предельном случае "преобразуй картинку в идеальное студийное RAW фото", но надо будет наваливать всяких уточнений про "сохрани лицо узнаваемы и так далее"
Про многошаговые аретфакты - нихуя не поделать. Можно попробовать не дрочить VAE и сохранять исходный латент. Но имхо проще в конце просто попросить перегенировать всё без шакалов, пусть и ценой потери сходства с источником.
удаление цифрового шакала после Кляйна
Аноним04/05/26 Пнд 10:26:52№160456898
>>1604555 я попробую всё из того что ты перечислил, оегче конечно было бы достать исходную картинку в идеальном качестве, но зачастую референс запредельно шакальный, спасибо за подсказку.
я тут было вспомнил молодость и прогна на сдохле имг2имг с денойзом 6.5, слегка уточнил мордашку (с лорой перса и без) и заролил поней анус.
Выкладывать nsfw незаконно ведь публично? под статью порнография попадает не? До самого последнего момента об этом не задумывался, хотел выложить и приуныл
>>1604707 Получается что так. Забыл когда мог даже ради рофла что-то выложить в картинках, даже карикатуры. Доебаться смогут ко всему, сказав что это не 1000-летный суккуб, а
>>1604810 В процессе edit или t2i? Edit сложнее, там можно попробовать relight scene with practical lighting. Скорее всего не поможет. При t2i на klein не давать в prompt цвета в явном виде, писать very soft natural lighting, practical lighting, very dim lighting, dark silhouettes.
>>1604911 У FLUX.2 нормального рабочего negative prompt нет by design и разработчики прямо указывают на гимнастику с positive prompt для обхода.
>>1604933 Блики изначально дает cinematic shot, но он же неплохо трансформирует в реалистик вместе адекватным освещением/цветами. Проще изначально как то этого избегать
Частично лечится natural lighting RAW shot, но с металлических объектов блик не уходит.
Еще заметил, что клейну катастрофически нехватает лоры на реалистичные текстуры и лэндскейп. Он может в текстуру кожи и лицо на файнтюне, но вот материалы и лэндскейп любой нестандартный - сразу в лучшем случае cgi, но чаще семириал.
Посоветуйте модель + лора + промт стиля который может красиво и детализированно (не SD мазня) рисовать относительно сложные сцены с хорошей фантазией (несколько проработанных объектов + проработанный бэкграунд). Какой-нибудь семи риал, либо digital painting в реализме.
Анима плывет свыше 200 слов и часто плохо понимает пространственные инструкции. Пока сижу с лорой greg rutkowski, неплохо, но стабильность низкая, много мазни, сложно контролировать и не понятно как уточнять стиль, с этой лорой.
Короче, мужики ))) вопрос такой ебаныйрот поставил эту изю комфуи, обматался всем чем положено, вчера там, зит себе скачал, енкодер етот квеновский, еще какую-то хернюшку контролнет короче, сперва неудачные ворфлов собирал, и пару нерабочих еще нашел, ну тупо, но потом короче натянул https://github.com/scraed/LanPaint (сам зит работает, базару ноль, быстрей сидрикселя, промптится немножко на русском хоть и туповат), и вот тут хуйня такая на пиках. Пик 1 - я после 1 суток попыток. Пик 2 - делаю маску в дефолтном менеджере масок. Загружаю все это на пик 3 (да я там выпилил какую-то лору на пиксель арт, но она ни на что не влияла). И на выходе я получаю дрисню времен первой поняхи импейнта. Настройки семплера ланпейнета - я крутил. Можно сделать чуть лучше, но не сильно это влияет. Я заметил что хитрый пидор в примерах ланпейнета не красил какие-то участки, а замазывал полпикчи сразу, и так - да что-то там, с плохо впихнутым в маску оно генерит (у меня там плотная кистть но на неплотной там какие-то мультики). Тут еще хорошо получилось, неудачнфый пример. Но как присмотритесь там шум есть, как будто песка насыпали. И в зависимости от пика это может быть какой угодно мусор - полупрозрачная ткань, бумсы, песок камни полный пиздец. Я не понимаю, даже, это пережарка или недожарка? Все крутил, все равно сорт оф хуйня на выходе.
Объясню свою конечную цель: промптить естественным языком. Разумеется я вот здесь и сейчас могу получить хороший результат на сидиэкселями, но 4 года промптить тегами немножко заебало. И не пишите что там надо по английски писать и прочий бред, я все это знаю и я знаю чё я делаю, хуйня тут выходит не поэтому. Дело в том что это именно зит а не зимага бейс? Мне качать 60 гиг надо чтоб проверить? Еще я видел есть зимага АЛЛОгараж , она лучше/хуже? С виду там васянка со встроенными лорами времен первых порнотюнов на сидиксель.
Помогите короче мужики, тут без бутылки не разобраться и с ней тоже. У железного дурака спрашивал, он ту еще хуергу несет. Про лору на детали тоже не надо, я видел там юзают, но должно же нормально изкоропки быть, тут хуйня какая-то явно происходит. Цензуры встроенной я тоже не заметил, это не похоже на сопротивления модели, у меня есть ворфлоу где просто текст ту имидж там все генерится сисик-писик, как может, но генерит.
>>1605360 Мне показалось, что там в будущем будут норм тюны и как бы она быстро запускается как сидиксель.
>flux2.klein 9b distil. А это наверное что-то тяжелое уже. У менявсего 16гб врама и 32 рама. Не хотелось бы по минуте ждать. Но, есть какие-то на примете готовые воркфлоу для инпейнта? А то на цивитае даже там ну статьи какие то сумбурные, даже ланпейнт я на гите искал уже, а на реддите просто говна за щеку навалили неработающего.
>>1605370 Ок, спосеба, попробую. А то я в восприятии флюкса застрял на временах его старта кляйна этого, много свободного доступа было для онлайн моделей, а сейчас все прикрутили и на фокусе сидеть уныло чот.
>>1605360 > flux2.klein 9b distil. Дистил не может в реалистичную текстуру кожи. А лор к этому нет, разве что снофс какой-нибудь, который сам по себе плоховат
> А это наверное что-то тяжелое уже Он как раз в 4 степа работает по секунде. Жаль что он хуйня
>>1605363 >готовые воркфлоу для инпейнта Там не нужны какие-то хитровыделанные воркфлоу для старта. Берешь вф i2i из темплейтов - и уже можно редачить через промт. Если нужна маска, то в это же вф добавляешь пару нод. В твое железо спокойно лезет 9В, base-версию не качай, как по мне оно не стоит того, чтобы пердолится на 20+ шагах. Дистил делает тоже на 4-8. 8 шагов - примерно 15сек, у меня такие же статы 16/32
Мне наоборот инпейта не хватает в клейне, т.к. он очень туго реагирует на промт в эдите. Хотелось бы выделить область с которой он должен работать.
>>1605384 Я уже писал в треде про альтернативу много раз. Тот кто в глаза не ебется видел. А кого устраивает дистил - сидите на нем. Я про дистил забыл. Толку от скорости мало, когда это слоп без нормальных лор
>>1605387 >писал в треде много раз Хз, может это было в каком-то другом треде, лично я не видел. Квен, как по мне, тяжелее и хуже. Я его вообще удалил.
>Хотелось бы выделить область У клейна нет проблем с масками, даже получше, не перерисовывает всю картинку.
>>1605395 >клейн не дистил У меня единственный вопрос к базе - нахуя я это скачал. Потестил, КАРДИНАЛЬНОЙ разницы не увидел. Возможно она и лучше, но генерировать по минуте уже не хочу.
>>1605387 >клейн работает, но тоже не сразу. Что это значит? И еще вопрос: если я в воркфлоу хромофур подсуну - будет инпейнтить? Он же тюн флюкса.
А на зите я тут такую хуйню заметил. Там был другой семплер, адвансит. Но почему так? Написано везде что можно с ним только жесткую кисть использовать на маске. Но я вижу он не учитывает контекст картинки а инпейнтит строго в окне отмеченном не захватывая края (не помню как это по вумному называется). я зит мучаю потому что он уже скачан, конечно.
>>1605409 >почему так 1. Очевидно, что нет ноды, которая размывает края маски на заданные размеры 2. Очевидно, что нет ноды, которая тянет контекст с загруженного имиджа
>>1605424 >1. Очевидно, что нет ноды, которая размывает края маски на заданные размеры >2. Очевидно, что нет ноды, которая тянет контекст с загруженного имиджа > Очевидно ты пишешь хуйню.
>>1605409 А нахера ты эту полоску внизу оставил, чтобы что? То, что лапша не умеет нихуя толком в импЭйнт, это как бы уже общее место, те кто кричит, что у тебя типа скилишью: >>1605436 , ещё ни разу не проиллюстрировали свой собственный скилл на хотя-бы удобоваримом примере. Интерфейс у импаинт-ксамплера чудовищный, половина из крутилок нихуя не даёт (или тупо не работает), а другая половина при всех вариантах выдаёт хуету а-ля 1.5 в лучшем случае. Не теряй своё время с этой ебалой, юзай эдит Кляйн, или Фотошоп + фокус, если нужно побырику что-то наролить..
>>1605480 >А нахера ты эту полоску внизу оставил, чтобы что? Чтобы посмотреть.
>То, что лапша не умеет нихуя толком в импЭйнт, это как бы уже общее место, те кто кричит, что у тебя типа скилишью: Вот и я не понимаю, почему оно так жестко по маске, если я туда еще сверху костыльной чуши накидаю, то это только утяжелит воркфлоу, полагаю.
>Не теряй своё время с этой ебалой, юзай эдит Кляйн Ты имеешь в виду полное изменение всей фотографии? Потому что выше вроде бы про инпейнт говорили.
Вообще, еще дело в руках. У меня стоит люструспони тюн какой-то, он жестко проебывает руки, рисует даже на детализации в фокусе какие-то микроанимешные закорючки вместо рук.
>>1605498 >Ты имеешь в виду полное изменение всей фотографии? пример: >>1604370 ты просто в промте пишешь что нужно сделать, в данном случает я написал, что нужно убрать нижнее бельё и обувь оставив всё как есть, а затем ролишь, м выбираешь лучший вариант. Мало того, можно ретушировать (довести до кондиции херовый референс), если тот недоступен в хорошем качестве, здесь анаон говорит о том, что именно нужно: >>1604555
>>1605498 >про инпейнт зачем тебе импейнт, если можно без него? Повоторяю, если тебе там приспичило отредактировать что-то по маске, то есть прекрасный инструмент для этого, это Фокус, больше нихуя не надо, выбираешь модель которая умеет в то, во что ты хочешь и подходит по гамме к референсу и хуяришь... там всего 2 ползунка тебе нужно, это: денойз и контест, чем выше контекст тем лучше будет результат, но это всегда качели, большое выделение снижает качество рисовки а высокий денойз добавляет шизы, ищешь золотую середину, помогаешь фотошопом.
>>1605539 да-да, это тот самый пример, когда сигна соответствует исполнению)
>>1605534 > а затем ролишь Уже маркер того, что не оптимальный метод. В зависимости от сложности условий - иногда % успеха может уходить к 1к50.
Можешь показать воркфлоу клейн+импейнт? У меня с прошлого треда бенчмарк, с которым клейн едит в общем режиме почти не справляется. 5ый палец убрать с бутылки, да и третью коленку тоже не так просто. Такую хуйню только импейнтом либо заново генерить
>>1605534 А как снофс работает со стандартным текст энкодером с цензурой? Разве квен 3_8 не должен быть зацензурен, что бы игнорить порно-промты? Смысл тогда в uncensoured текст энкодерах? Я зачем то выкачал такой специально для клейна. Хуета непонятная уебская повсюду
>>1605556 >А как снофс работает со стандартным текст энкодером с цензурой? Нормально работает, потому что его, text encoderа, задача не делать inference, а перегнать слова-токены в эмбеддинги.
>Смысл тогда в uncensoured текст энкодерах? Ну хотя бы в том, чтобы проигнорировать всё то, что о них писалось, а потом упорно продолжать есть кактус, because you can.
>>1605556 >Смысл тогда в uncensoured текст энкодерах? я сравнивал, разницы никакой, снофс говно, концепты у него поневские, уёбищные с проёбами в анатомии, порно ты один хер не сможешь на нём делать, для ебли нужен wan 2.1-2.2 с nsfw лорой, ни zit ни клфйн не умеют в порнуху.
>>1605556 Я тебе вот чего скажу, что снофс, что кляйн бесполезная хуита, разве что в кляйн-эдит снять с кого-нибудь трусы, всё... Композиционно кляйн абсолютно беспомощен, все его концепты из коробки - уебанские. Поэтому хуйнёй не занимайся, ковыряй zit, он гораздо интересней.
1. very short bob cut 2. buzz cut 2. side parted pixie cut бля... Это всё, ребзя. НИкаких гарсонов, никаких андеркатов. если у кото-то что-то получалось, поделитесь...
>>1605691 > гарсонов fuzzy short woman haircut > андеркатов slick back man haircut + бритые виски немопню как пробуй просто описать, две недели блять уже дрочишь свои волосы
>>1605724 >fuzzy short woman haircut 1. ну, как бэ ок, выглядит так, будто у buzz cut слегка отрасли волосы. slick back не работает, зетка просто рисует хвост сзади и какие там виски уже никого не ебёт.
>>1605691>>1605744 Ты застрял в своём узком тезаурусе из 3 слов и пытаешься из него что-то толковое выжать. Хотя когда ты приходишь к Инге Михайловне в парикмахерскую Молодость ты ей не говоришь "side parted pixie cut", сидишь с покерфесом 30 минут, и в конце говоришь "я не это хотел". Ты говоришь "как раньше" или показываешь картинку из журнала "как тут", она видит, что тут 4 выбрить, там 8 оставить, здесь прорядить, там протушевать, зачесать, здесь на уровне виска, тут до плеча. То есть наваливаешь кучу дополнительного констекста, которого в названии из трёх слов не хватало.
Потому просто возьми референс который тебе надо. Скорми его в vision llm, тот же квен, и попроси максимально подробно описать причёску в тех терминах, в которых text encoder мыслит. И уж когда ты начнёшь писать промты в той же форме что и текст энкодер, тогда можно делать выводы о пригодности-непригодности самой модели.
A cinematic close-up portrait of a young Caucasian skinhead girl named "Jax," embodying a raw, rebellious street spirit. She has a distinct skinhead hairstyle: the back and sides of her head are completely shaved smooth, while a thick, straight, blunt-cut dark fringe (bangs) covers her forehead, framing her intense gaze. Her expression is one of defiant indifference and stoic confidence, with a piercing look directed at the camera. A small beauty mark is visible on her cheek. She wears a faded black oversized punk band t-shirt and small silver hoop earrings. The camera angle is a slight high-angle shot, creating an intimate yet confrontational perspective that emphasizes the geometry of her haircut and the intensity of her eyes.
>>1605778 > в которых text encoder мыслит. твой квен может мыслить всё что ты захочешь, но если модель не занет что это, то нихуя не и будет. И если я буду тратить на описание причёски по 20-30 слов, то у меня не останется ничего для основного промта. профессура, ёптить...
>>1605778 > в vision llm Я другой чел. А поподробнее можно? Откуда модель знает в каких терминах мыслит текст энкодер? Что за vision llm? Есть какая то локальная модель, которая хорошо промт-энхасит, лучше чем фри гпт/гемини, которые просто не имеют ни фантазии, ни художественного видения, только хуевые шаблоны первые попавшиеся.
>>1605803 > но если модель не занет что это Ещё раз. Бессмысленно рассуждать о диффузионной модели, если ты с текстовым энкодером говоришь на разном языке > не останется ничего для основного промта Ну очень жаль, что ты всё ещё мыслишь категориями полторахи, и пытаешься делать какие-то выводы о сегодняшних моделях
>>1605813 Вот смотри. У тебя в качестве текст энкодера используется вполне конкретная LLM. Совершенно нормально взять этот же квен и спросить его "вот картинка, расскажи какими бы словами ты её описала". Чтобы она извлекла из себя, какие у неё текстовые конструкции совпадает с конкертными визуальными токенами. Не отгадывать путём проб и ошибок, а в лоб спросить текстовую модель что она знает.
Целиком реверс промт конечно делать квеном тупо. Но спросить его "какими словами можно описать такую причёску, такую одежду, такой ракурс, такое цветовое решение" можно и нужно.
>>1605818 > категориями полторахи Это не я мыслю это зетка так работет. там количество токенов в промте чуть больше чем в сдохле. ох уж эти теоретики! твоё описание причёск годится только для выебонов. но никак не для реальной работы.
>>1605823 >там количество токенов в промте чуть больше чем в сдохле Количество токенов на входе бесконечное. Есть ограничение на размер скользящего окна и на размер выходного эмбеддинг вектора.
На улице +26, генерить перехотелось. Летом генерить с кондеем в комнате получается по стоимости за электричество как токены во flux 2 max. Либо терпеть жар 35С в комнате
>>1605831 Да в общем то соглы, чего это я правда. Промты больше 20 слов не работают. Модели причёски рисовать не умеют. В локалках только застой и разочарование. Точки ещё эти зелёные. Пора завязывать.
Есть редкие промты, которые дают в локальной модели очень хороший и стабильный результат. Например афро-тян в желтых листьяю в вагоне метро. Другие же промты дают исключительную хуйню.
Если дело в промте, почему эту проблему не пытаются решить промт-энхансером прямо в воркфлоу? Проблема смещается из плоскости танцев с бубноми (копингом) вокруг промта в плостью системного промта для энхансера. Огромный плюс в том, что любой прогресс с таким системным промтом для конкретной диффузии - будет масштабироваться на любые промты, сколько то улучшая результат. В идеале получить энхансер, который умеет "придумывать красиво" заполняя или корректируя все слабые / некорректные места твоего промта.
Но для этого нужно обучение локальной ллм под промтинг конкретного типа, или вовсе специально для модели.
Что точно известно: GPT / Gemini - думающая / Pro - мало что понимает в этом плане. Самые разные запросы, не приводили к значимому эффекту, они выдают промт с рэндомно-посредственным описанием, на уровне худ. реализаций, композиции.
>>1605841 Как же заебала вся вот эта ваша маниловщина. Нихуя из этого не будет, если бы это было возможно, то это давно бы сделали. Весь пиздец заключаетчя в том, что языковые модели, даже локальные, настолько ушли вперёд, что между ними образовалась пропасть, и чем дальше, тем глубже и шире.
>>1605778 Ты просто написал промт специфичной прически, ассоциированной со специфичной суб-культурой - и о чудо, в модельке оказалась эта челка.
То до чего докопался этот >>1605691 - это проблема не промта, а именно ограниченность локальной модельки. Ты сам не решишь её промтингом. У моделей крайне ограниченный набор возможностей в видении всевозможных узкоспециализированных образов. Например клейн не способен нарисовать в принципе НИЧЕГО красиво, кроме людей и close up shot объектов по центру. И как правильно замечено, даже если промт на 100 слов работал - невозможно работать, если 100 слов уходит на одну прическу. А еще, когда заставляешь локальную модель через силу высрать что то детальным описанием - она начинает рисовать это отвратительно не естественным с говной.
@artmonkey нарисуй a cinematic close-up portrait of a young Caucasian skinhead girl named "Jax," embodying a raw, rebellious street spirit. She has a distinct skinhead hairstyle: the back and sides of her head are completely shaved smooth, while a thick, straight, blunt-cut dark fringe (bangs) covers her forehead, framing her intense gaze. Her expression is one of defiant indifference and stoic confidence, with a piercing look directed at the camera. A small beauty mark is visible on her cheek. She wears a faded black oversized punk band t-shirt and small silver hoop earrings. The camera angle is a slight high-angle shot, creating an intimate yet confrontational perspective that emphasizes the geometry of her haircut and the intensity of her eyes
>>1605841 Множество хороших промптов очень сильно отличается от модели к модели и от зрителя к зрителя. Кому-то нравится вылизанный 1girl слоп с цветокором, кому-то надо навалить аналогового зерна, расфокуса, боке и кросспроцессинга, кому то надо композици, ракурс, рыбий глаз и голландский угол, кто-то на аниму чёрно-белую дрочит. То есть ты вполне можешь наколдовать энхансер на llm для какой-то одной ситуации, много кто так делает. Но унивесральной балалайки собрать не удастся, потому что на вкус и цвет фломастеры разные. (все картинки с осенней негритянкой - говно)