По итогу и в Ван и в Квин победили Лоры ускорялки - аналоги дмд2 для сдхл. Аха-ха-ха как же я рад. А сколько срача было от противников дмд2. Занюхайте.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1302533 (OP) Народ, подскажите, кто шарит. Сейчас докупил к своей rtx 3060 12gb cmp 90hx на 10 гигов, но есть вариант добавить ещё 7к и купить tesla p40 на 24 гига. У меня обычная мать ASRock B550 PG Riptide c 3 портами под видюхи. Я бы докупил теслу, но я не ебу как её нормально подключить и как она будет у меня охлаждаться будет. У cmp 90hx есть 3 вертушки + cuda есть и их больше чем даже у моей 3060, а значит в теории я могу даже картинки на ней быстро генерировать в 1024x1024 без доп фич. Что выбрать? cmp 90hx на 10 гигов которую впросто вставил и всё или доплачивать и брать p40 и потом ещё ебаться с охлаждением + она не умеет в генерации картинок?
AI Chatbot General № 717 /aicg/
Аноним08/08/25 Птн 07:25:38№1305526Ответ
>>1297805 >Что-то такое вышло. 2шт на на люстре и 2шт нубе впред. Датасет пришлось ковырять очень сильно - желтый, в шакалах, по 3-4 пальца. Где мог - поправил, можешь забрать, тоже закинул. >>1298133 >Так какие проблемы-то? Конфиг в томл остался же - можешь поставить Easy Traininig Scripts и сам делать пачками. Конфиг вообще очень простой - адаптивный оптимайзер, лр юнета 1, лр те 0.3, дим 32/16, лора, даже не ликорис, бс4. Ну и я их сотни наделать успел, а вот радости больше всего от первых было, да.
В ближайшей время я собираюсь сделать Лору на синие джинсы мне не нравится как illustrious рисует джинсы по дефолту
Можешь, пожалуйста, сказать кратко, что и где лучше на сегодняшний день скачать, чтобы самому на своей пекарне тренировать Лоры? И еще хотел спросить, ты как тогда делал лоры на униформу, ты 10 эпох ставил или 20?
Также я переписывал на цивите с одним японцем он выдал следующее мнение по тренировке Лор: Рекомендация про «100 изображений» в основном пошла ещё со времён раннего обучения на SDXL или SD1.5. В случае с Illustrious рекомендуемый диапазон — примерно 20–50 изображений, так что нет необходимости заставлять себя собирать все 100. Более того, слишком большой объём может только усложнить работу с подписями. Если всё же решишь использовать большое количество фото, можно минимизировать подписи и при генерации просто использовать самые часто встречающиеся теги из датасета"
>>1304694 Туда ей блять и дорога. 4 клауд лучшая модель для кодинга до сих пор, никто ее так и не переплюнул для меня. Отлично понимает в документации, знает каверзное спринг говно, генерирует рабочий код, хватай и беги буквально. 3 клод был +- на фоне прочих, но вот четверка до сих пор лучшая. Не ебу как они это делают не имея ферм как у гугла. Видимо не тратят бабки на штат по инклюзивности, а тратят на инженеров.
AI Chatbot General № 716 /aicg/
Аноним06/08/25 Срд 16:56:58№1301889Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1299698 (OP) Анончики, подскажите какая языковая модель лучше подходит для генерации кода на локалке. Сразу говорю комп слабый, но мне в принципе много не нужно - по сути только чтобы пайтон код генерировал по запросам.
>>1301752 Да нет, я делаю то же самое как если бы писал длинный инпут. Просто не подразумеваю эти детали в нём, а пишу их явно куда-то. Либо генерю и правлю, если это например лорбук.
>>1301829 Потому что все кроме 1girl, standing требует обмазываться лорами по самое не могу если локально генерить, коммерческие могут нормально промты воспринимать, но не могут в nsfw
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №151 /llama/
Аноним29/07/25 Втр 20:00:26№1292947Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1296275 Как минимум ленакапавир, но вроде что-то интереснее уже вышло. Конкретно этот при уколе раз в полгода даже от заражения защищает.
Про альфафолд хз на что тебе ссылаться. Спрашивай любого, кто работает с предсказанием биохимиеи белка и разработкой белков, пользуются ли они. Пользуются. Все.
AI Chatbot General № 714 /aicg/
Аноним02/08/25 Суб 06:12:57№1296127Ответ
>>1297529 Да, да, есть такое. Я рпшил долгое время с одной карточкой, можно даже сказать вайфой и вот, в какой то момент она начала себя так вести, что хуякс, она какую нибудь подлянку выдаст или хуйню жестокую скажет, потом ещё ОС вылазит, который реальным человеком представляется, его просишь эмодзи не писать, он пишет. Алсо, сейчас зашёл, а меня вообще в чайной забанили
Ищу нейросеть для обработки фото /design/
Аноним02/08/25 Суб 04:56:06№1296116Ответ
скачал флюс нунчакал, дифмодель, установил с плясками с бубном, наконец форкфлоу смогло открыться хуяк УСТАНОВИ ТЕПЕРЬ СУКА ЕЩЁ 3 ЛОРА, КЛИП и ТЕКСЭНКОДЕР. пиздос, удалил к хуям даже не стал выдрачивать. По кайфу как раньще фп8 флюс одним файлом где всё включено. Сука теперь вычищать это говно
>>1295950 Терпи, фокусник Можешь съебаться к своему брату по разуму в общем ии треде в б Это то, опущенное нищее чмо, что сюда приходит посрать примитивными генерациями из имагена
Что сейчас наиболее актуальное под задачу генерировать картинки для РП в Таверне? Т.е. чтобы оно нормально жрало описания персонажей, без ебейшего дроча с тэгами и лорами под каждый чих. Естессна какого-то гигарезультата с такими запросами не жду (ну либо если мой запрос совсем уебанский, то хоть скажите какие альтернативы)
How to Restore Photo with AI in 3 Simple Steps Learn how to restore image quality using our Restore Photo AI technology - it's fast, easy, and completely free.
1 Upload Your Photo for Restoration Start your restore photo journey by uploading any damaged image. Our Restore Photo AI supports JPG, PNG, GIF, and WebP formats.
2 AI-Powered Restore Image Processing Watch as our Restore Photo AI analyzes and repairs your image. Advanced algorithms restore photo quality by removing damage and enhancing details automatically.
3 Download Your Restored Photo Get your professionally restored image in seconds. Our Restore Photo AI delivers high-quality results ready to share, print, or preserve forever. https://restorephoto.online/
AI Chatbot General № 713 /aicg/
Аноним29/07/25 Втр 18:53:36№1292826Ответ
>>1293406 Люди косячат, если не фактчекают. Нейронка галлюцинирует постоянно. Но вообще да, можно отдельным проходом просить нейронку с доступом к поиску проверять факты именно через поиск, причём давать ссылки на то, что не так. Тогда да, нормально получится.
>>1293407 >>1293425 Нет. Это комплекс нейронок. Текстовая по твоему запросу формирует промпт для рисовальной. Промпт проверяется цензурой. Потом результат генерации проверяется другой нейронкой. А текстовая тебе отдаёт, если всё ок.
мультимодальные сети максимум читают картинку.
>>1293864 Нет. Сгенерированное пока с резиновой мимикой и не воспроизводит такие мелочи как сеточка над телом и тень под сеточкой и микродвижения одежды. Плюс выдерживание точной структуры везде.
>>1293905 >Это задача нейронки. Нейронки могут её решить, но это будет не лучшее и даже не самое дешёвое решение.
Хотя в перспективе компания может сэкономить, потому что специализированное оборудование требует более узкого спеца, чем камера и комп с видяхами.
>Не будут, они будут в тысячу раз дороже. Или в десять тысяч. ты отстал. Микроконтроллеры по тысяче баксов за ведро давно.
>нахуй там нейронка если товары сканируются товары по штрихкоду? Развесной товар. Выйди на улицу, траву потрогай.
>> Элементарно: куаркодовые наклейки >Дороже пиздишь и не краснеешь.
>Две камеры, нейронка и тысячи подключённых магазинов. На массе да, только нейронка дороже чем опознавание кодов. В разы.
>>1293920 Если автоматизировать более универсально, то да: выбрал что хочешь, показал пальцем или в менюшке, машина выдала. Для напитков в пластике вендинговый автомат действительно проще: микроконтроллер да моторчики в шкафу. И никаких зависимостей от интернетов, камер и галлюцинаций.
Метод обратного распространения ошибки устарел. Нужна возможность обучения нейронки с локальным изменением весов, чтобы не хуярить всю нейросеть полностью при запоминании новой информации. Тогда и можно будет о реалтайм обучении думать
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №150 /llama/
Аноним25/07/25 Птн 19:56:56№1288430Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.