В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Это худшая идея такое добавлять в таком виде, оттуда и появляется это ваш слоп - у нейронки стоит задача двигать сюжет сообщением в 800-1000 токенов, в котором юзер статичен и его состояние не может меняться. Она и начинает изгаляться, описывая статичную картинку сотнями слов хуйни.
>>1325015 Котик, ты конечно прав по поводу низкого качества продукции нейронок. Но давай вспомним то что большинство людей — говноеды и а не схавают гораздо более примитивное чтиво, чем ты описал.
>>1326262 >Какой я тебе котик Обыкновенный: снаружи вроде нормальный, а так тупое животное. Тебе про рыночек а ты про качество. Качество чуть выше говна. А массовому потребителю этого и надо, особенно задёшево.
Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Тейлмейт требует столько предварительной работы лишь бы войти в ритм... Нужно по факту сделать свой собственный пресет с ноля но его части раскиданы по интерфейсу в сотне разных мест. И каждый раз когда хочешь сделать что то новое нужно сначала сделать это с ноля и сохранить чтобы потом не делать по новой. Это не карточка которую скачал и там все готовое в одном месте. И не сделанный кем то пресет который просто импортировал и оно работаает. Много ручной работы просто чтобы начать.
Господа. Вот какой спор у нас с анонами возник. Я говорю, что модели генерации отвратительны и недоросли (а может и не дорастут) до моей фантазии или требованиям к ним. А то что генерит 99% народа — такой же унылый генерик. Потому что и фантазии нет и нейронки не могут.
А мне говорят, что это я дебил и надо учиться промптить, покупать доступ к топовым моделям и тогда всё будет. Но где тогда оригинальные изображения?
Купил к миджорни, тестил далли и на аренах парочку каких-то, всё плохо, прямо отвратительно. Даже не близко к промпту или какие-то ошибки, которые руками долго фиксить.
Владею КомфиУИ.
Призываются мастера генерации, которые и скиллуху покажут и покажут, что это я немощь и стимулируют меня не опускать руки а двигаться и добиваться результата.
В тред я буду кидать промпты и свои попытки генераций.
>>1322279 > наклей маску туда где не нравиться в том и вопрос, как минимизировать поштучное маскирование и тонну коллажирования. Я это умею, но не хочу делать. Одно дело, когда это заказ на иллюстрацию и можно 80% отрисовать, апнув рендер в середине и додавив детали в конце нейронкой. Другое просто визуализировать идеи наскоро для ленты на уровне без явных косяков и согласовано с запросом.
>>1322544 Протестировал имагеном ещё один промпт, который с трудом вывозят нейронки. Из минусов только то, что не ставит персонажа на дорогу ногами часто. А так очень хорошее соблюдение промпта. Жаль, что всё будет зацензурено и кусь за пышную попу не нарисует.
Giant man wearing dark green business suit with big tomato instead his head standing on the street with his feet. Street surrounded with high buildings. Tomato-giant vomits with tomato paste and juice down on the street with cars and people. The flow of tomato paste with waves carry cars and people and floods the street.
3D graphics, semirealistic, daylight, B-rated comedy
Слегка заговорился с ИИ, так и кукухой можно поехать.
Аноним16/08/25 Суб 23:57:24№1321980Ответ
>>1320104 Дак это смысл всех доми чаров Если ты отыгрываешь как ебанат и пытаешься в чувства с ними, то сетка считает накормить тебя этим и сделать драму Отыгрывай без хуйни и наслаждайся тем, что дают, тогда драмы не будет
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Какую бы модель вы выбрали в случае глобальных перебоев с интернетом, ещё и поддерживающую на достаточном уровне русский язык? Чтобы примерно хотя бы понимала. Не для кума, а для тупых вопросов и решения задач (не кодерских, разве что уровня написания конфига для xtls reality).
То есть на цензуру строго похуй. Можно максимально задроченное корповское сефти дерьмо, лишь бы локально.
Мистраль сразу выпадает, ибо лупящийся кал и плохая работа с контекстом. Магистраль ещё туда-сюда, я его не распробовал толком, но вряд ли там существенные изменения.
Гемма окей отчасти, но скользящее окно = полный проёб контекста даже в рамках 32к. И нет ризонинга. А он критичен, весьма вероятно.
Важно, чтобы модель могла реально переваривать контекст хотя бы в пределах этих 32к, а желательно больше, без анальных рейпов и ярнов с деградацией то уровня хлебушка.
30б МоЕ квен с ризонингом мне кажется идеальным кандидатом, но у меня есть вполне обоснованные подозрения, что 4 квант поднасрет даже на английском при работе с большим количеством данных, где критически важна точность, так как на тестах я замечал разницу между квантами, которые при обычном рп не так влияют, но если туда научную статью копипастнуть и банально процитировать попросить что-то или ответить на вопросы из неё — разница есть.
Возможно, стоит взять что-то поменьше, но в 6 или 8 кванте? С учётом того, что штабильность и точность — это главный приоритет. Тонна мозгов из коробки не так важна, как навык обрабатывать тонну кала, который я буду подавать модели.
>>1313580 Не, это как раз полноценные свободные женщины, которые наравне с мужчинами учувствуют в жизни, конечно ничего не изобретают, как и остальное общество, проблем в этом нет. Сломленные патриархальными архетипами это бимбоунитазы, фемки, местные двачерши и прочий скам с психпроблемами, но они тоже креативить не могут потому что не смогли в задротство и компенсируют свои проблемы бредом в башке, наподобие того что пишут в вумаче.
>>1313469 >Ну, так почему, хуила, женщина не может так же решить? Потому что у женщины есть природный незакрытый гештальт, который плавит их и без того несчастный, плескающийся в гормонах, моск. Бабе нужны дети чтобы не ебануться окончательно. либо 40 кошек и безумие
Анон, какие каналы/блоги про МЛ ты читаешь? Ну вот чтобы полезные? Как вообще вкатиться в МЛ не только по учебникам, а вот типа я уже понимаю, но хз как в реальности делать? Кидай лучшие свои источники, чтобы стать наносеком
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1312289 Странная хуйня. Что-то ты походу не то скачал. Саппорт кубласа должен быть из коробки и на нем самые высокие скорости на зеленых. Короче, попробуй скачать другую сборку и перекатываейся в следующий тред с вопросами, этот уже в лимите.
> Important Change: The flag --usecublas has been renamed to --usecuda. Backwards compatibility for the old flag name is retained, but you're recommended to change to the new name.
Подозреваю что переименовали cublas в cuda. Но попробую скачать какую-нибудь 1.46 версию и посмотреть будет ли разница.
Я рисовал только в детстве, и быстро это бросил, так что ии не отнимал у меня работу, более того, м
Аноним# OP10/08/25 Вск 13:16:47№1309619Ответ
Я рисовал только в детстве, и быстро это бросил, так что ии не отнимал у меня работу, более того, мне очень интересно посмотреть, как вы, аноны, с помощью ии сделаете то, что мне не по силам. Однако давайте зададим рамки, сыграем на одном поле, чтобы, с одной стороны, никто не сказал, что это нельзя сравнивать, а с другой, чтобы всем стало очевидно, кто победил.
По таймеру я проигрываю в любом случае, поэтому постараюсь просто придать персонажам нужное выражение, опустив детали. Если интересно, заставьте своих иишек сделать чёрно-белый рисунок "2д" с примерно тем же сюжетом, не пытаясь задавить количеством элементов (реализм/мультяшность — на ваше усмотрение). И, пожалуйста, загружайте только лучшее — я хоть и не чсвэшная жируха с синими волосами, но рисую прилично, поблажек не надо.
Насчитав сотню ваших картинок, выложу свою. А может быть запрячу её в общей массе, чтобы угадали.
Хочу сделать карту, суть такова. Юзер начинающий детектив, которого навязывают в напарники ворчливому следователю. Вместе они начинают расследование, у них есть несколько зацепок, скажем, две. Сначала они идут в одну локацию, потом в другую, говорят с НПС, узнают что-то новое (или не узнают), это триггерит продолжение расследования и новые зацепки. Можно в любой момент остановится и просто отдохнуть там грабить корованы, но в какой-то момент если продолжить расследование, то можно будет по нему пройти до конца (который я допустим набросаю заранее, то есть в карте преступник предопределен). Моя первая, самая простая мысль была ебашить инфоблок как "записную книжку ворчливого следователя", но он разрастается если делать что-то сложнее 3-4 зацепок, и каждый раз требовать выдавать сетку его довольно расточительно. Плюс, с безжопом это становится сложнее. Моя вторая мысль была наплодить переменных и просить сетку проставлять их, заполняя ту же самую записную книжку которая уже есть где-то в контексте, где стоит миллион гетваров на все случаи расследования, а сетка пишет переменную которая через регекс превращается в сетвар. Тут проблема в том, что окончательное решение, как я представляю, отдается на откуп сетке. ТО есть это будет что-то типа "по итогам расследования этой конкретной зацепки, что важного узнали герои? Напиши вот в таком формате Зацепка {Комната Марии} Результат {(тут результат, например, найдено пиво/найдены трусы/найдено и пиво и трусы/Машка отказалась пускать героев в комнату/etc.)}". Может у кого-то есть мысли как сделать это средствами таверны лучше и более надежно? Хочется не полной заскриптованности как в The Rite of Belwick, но и не полного сэндбокса. Самая сложная задача пока для меня сделать хоть немного интересно и сделать так, чтобы тот лор, что есть в карте, который, например, скрыт от нейронки за триггерами, не противоречил в итоге тому, что наиграет юзер.
>>1308978 >сие начиналось на дваче, только на старом, зоевском >я лично в этом участвовал и даже пара моих обрисовок висит под статьёй >Занимались этим буквально несколько человек. >2008й год — дата редактирования картинки. Это притащили из ЖЖ, клон сибирской вальготы (погугли, маленький). Я тоже в тех тредах сидел, напомню, все эти "морозная история" - просто кальки фочановского сленга.
Не самая свежая новость, но все же. Прочитал про vertex ai memory bank. Так что с ее помощью можно в чистом аиде книгу закинуть или как то предварительно обработав и модельки с небольшим контекстом смогут давать качественное рп? Или там есть ограничения? Или хотя бы для экономии токенов в таверне использовать?