Почему при апскейле уродуется картинка? пробовал разные апскейлеры, уродуется одинаково. 0.4 порог, но апскейл уже тухлый какой-то получается. это может зависеть от количества слов в промте?
Короче сетки эти ваши тупые пиздец. По сюжету моего рп два долбаеба сговариваются подсыпать постояльцу снотворное в сок, чтобы спиздить у него кое-какие важные бумаги. Но все идет не по плану. Одна тян, которая на ужине сидит рядом с постояльцем, обжигает язык супом, и он любезно предлагает ей свой сок. Два долбоеба при этом сидят с ними за одним столом. Тян подносит стакан к губам и в этот момент, когда от долбаебов должна последовать реакция (ну там, шок, недоумение, нервные переглядывания), не происходит нихуя. Они тупо сидят дальше и продолжают ждать, когда постоялец выпьет свой сок. Хотя тян его уже выпила. Я проверил со всеми сеткам, ни одна не доперла. Клодик только пукнул чето вроде ай бля, все пошло не плану, но гореотравители почему-то при этом ржали, как будто им норм и так и задумано. Как вы отыгрываете с этим говном не понимаю, если они не могут сориентироваться даже в таком примитивном сюжетном повороте.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №122 /llama/
Аноним13/04/25 Вск 03:04:05№1149538Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1159884 > советовался с гопотой на тему чипсета на ам4, по тз Вот такого никогда нельзя делать. Нейронка не усваивает нормально эту информацию, все перепутает, но по обрывкам копипаст что попали в датасет сочинит правдоподобно выглядящий бред. Считай что тебе повезло. > водянка-крута Хорошая - действительно круто, просто клепают ужасный ширпотреб, который уступает башням. > бери Асус Геймер Нагибатор Матьебатор Туф Пуф Защекуф вордофтанкс эдишон за цену жигуля. Пздц. Абсолютный пиздец. >>1159886 Спасибо за отзыв, значит лучше пока не обновляться на эти дрова.
>>1159885 Ну значит ремонтники хуи, у них стата искажена. А надо слушать 15 анончиков, каждый из которых красавец, миллионер и владелец 10 полностью рабочих 3090, во всяком случае на словах
>>1159666 Так у тебя и так что-то там есть что описывает, нахуя ты ещё и это добавил-то, да ещё и СОННЕТУ блять, когда речь о гемини? Дай дураку стеклянный хуй...
>>1157831 чтож поделать альцгеймер часто бывает неизлечим да не я его создал не мне с ним теперь бороться всех не спасешь. вколи очередную дозу слопа и радуйся главное в жизни быть счастливым остальное неважно даже если счастье для тебя жрать говно
>We will also begin deprecating GPT‑4.5 Preview in the API, as GPT‑4.1 offers improved or similar performance on many key capabilities at much lower cost and latency. 4.5 брос?...
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1147735 обозначь в префиле что больше не будет лишних комментариев(не рекомендую) лучше перед мемо напиши сценарий остановлен для скрытой напоминалки, и после мемо пиши сценарий возобновили. если и так будет протекать то во первых у тебя куча лишней хуйни в пресете и сетка тупит, во вторых используй то что я написал про префил. должно помочь
Какой вариант лучше? 1) Задонатить $8 на crushonai и получить готовый к использованию Claude 3.7 с 16К контекстом 2) Запердолится с gemini-2.0-flash отправляя запросы напрямую через гугл апи, выключив все safetySettings. У него 1 миллион контекста. Кто из них умнее и меньше зацензурирован?
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №120 /llama/
Аноним06/04/25 Вск 19:30:33№1134362Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1142695 > просто чархаб у меня лично только под впном открывается( Забавно. У меня по короткой ссылке не открывается вообще, по длинной - работает с большим скрипом, практически не загружая превью картинок. Мне вообще гораздо больше нравится https://character-tavern.com/ Почему-то у многих тематических сайтов совсем уродливый интерфейс.
>>1134362 (OP) Что есть для управления временем в чате? Хочу, чтобы была например дата когда начинаются события и другие определенные даты были тригерами для других событий. При этом, чтобы были таймскипы, типо персонаж А попал в тюрьму, там пару дней идет сюжет и дальше таймскип пару лет, дальше сюжет, дальше таймскип и на свободу. Или гиблое дело надеяться что время не проебеться? Нашел только такого бота https://www.characterhub.org/characters/Ayrtony/timey-the-clock-bot-b13e731c9070
>>1146511 Тебя опять наебывают выдавая настоящее фото за генерацию. Там ватермарки убраны инпаинтом и фон заблюрен, поэтому кажется что артефакты генерации. Ну может еще имг2имг с очень низким денойсом.
А знаете какая одна из самых больших проблем современного МЛ в плане концепции, а именно архитектуры
Аноним03/04/25 Чтв 01:57:28№1127685Ответ
А знаете какая одна из самых больших проблем современного МЛ в плане концепции, а именно архитектуры систем и подхода к трейну? По сути все современных большие модели представляют собой гигантского масштаба монолит, в который просто с одного маху запихивается сразу огромная куча разнородных данных в надежде, что модель как-то на этой куче мале чему-то научится и выдаст какой-то осмысленный результат. И вроде бы на первый взгляд модель в итоге выдает что-то осмысленное, может решать какие-то примитивные задачи или те которые часто встречались в трейне. Но шаг влево и шаг вправо за пределы каких-то банальных, стандартных, распространенных задач - все модели разом делают гигантский пук и начинают г а л л ю ц и н и р о в а т ь. И никто нихуя не знает, почему она это делает и как исправить конкретно то место, которое ведет к тому, что девять оказывается больше одиннадцати. Потому что модель - это можно сказать возведение в некий предельный абсолют того самого написанного индусами 10-15 лет назад гигантского монолита на жаве. Потому что это просто миллиардный набор цифр, которые невозможно интерпретировать. Вот и приходится изобретать всякие костыли поверх модели вроде ризонинга, рагов, которые решают проблему в итоге только частично.
Но ведь давным давно уже в кодинге придумали микросервисы. И вместо того чтобы end-to-end обучать гигантский монолит, можно же просто выделить большой сет микро-тасок и стандартных вентилей (как мультиплексоры, сумматоры, счетчики в схемотехнике). И под каждую такую микро-таску обучить мини-нейросеть. В контексте NLP такой микротаской может быть, разделение слова на морфемы, определение части речи, определение роли слова такой-то части речи в предложении и так далее... Также можно придумать стандартный набор каких-то стандартных гейтов с определенными задачами, например, гейт суммаризации (из длинного набора абстрактных токенов получить более короткий набор токенов, суммаризирующих вход), гейт сопоставления (на вход идут разные последовательности токенов, на выходе идуи некий веса 0...1, которык показывает некую величину комплиментарности между парами входных последовательностей), гейт обобщения (из какого-то n входных последовательностей токенов, получется одна новая последовательность токенов, которая описывает общее между входными последовательностями) и другие подобные, которые могут потенциально переиспользоваться в разных узлах одной системы или даже в других системах из той же области. Далее мы итеративно собираем эти блоки в более крупные и опционально мы можем файнтюнить (файтюн можно производить обучением некоей модели оркестратора, например, или обучением моделей которые вычисляют дельты к выходам субмоделей в схеме) их на более сложные и комбинированные задачи, которые как бы совмещают все подзадачи входящих в него блоков. И так мы инкрементально поднимаемся от мелких и узких задач к более абстрактным и масштабным.
Можно использовать даже какие-то unsupervised методы для выделения оптимальных подзадач и блоков, например создать эдакую модификацию метода конечных элементов для машин лернинга, где мы разбиваем пространство выходных параметров на какие-то подпространства по некому стандартному алгоритму оптимального разбиения, и для каждого подпространства обучаем свою отдельную апроксимирующую функцию.
И потенциально подобный "микросервисный подход" в ИИ системах может убить аж трех зайцев: 1) и обобщающая способность моделей повысится, что значит более эффективное решение менее стандартных задач, которые изначально широко в лерне не были представлены и требуют большего числа логических шагов 2) и проблема интерпретируемости решена, проблемый узел теперь возможно отследить и пофиксить 3) и во много раз расширяется поддерживаемость и масштабируемость системы, теперь для улучшения возможно не надо перетренивать всю модель целиком, а лишь перетренить, заменить, добавить какие-то ее отдельные блоки, не трогая все остальное.
Да, это ведет к большому росту системной сложности, само выделение "микросервисов" будет огромной нетривальной архитектурной и инженерной задачей. Но в то же время такой подход потенциально может дать существенный качественный толчок в ИИ системах.
>>1131469 Но как я уже сказал, это все еще не означает, что закидывание компутом - единственный и безальтернативный путь.
>>1131495 Ну это называетcя красивой аббревиатурой MoE. И это к слову не ново для дик пика. Внезапно, но 4o-mini тоже на самом деле MoE. Но там все равно эксперты и взвешиватель пропагейтятся вместе одним монолитом, разделение экспертов разрешается все тем же накидыванием компьюта.
>>1131198 А ничего что закон Мура к концу уже несколько лет как подошел? А этот старпер все рассуждает, будто в 90х застрял, и скоро ему новые пентиумы подвезут, можно надеяться дальше что новые чипы все порешают.
>>1132591 >Но как я уже сказал, это все еще не означает, что закидывание компутом - единственный и безальтернативный путь. Единственно доказано рабочий на данный момент. >>1140309 >А ничего что закон Мура к концу уже несколько лет как подошел? Ваще похую. И да, выебоны с ростом размера чипа/квантизацией/ростом числа чипов в стойках пока ещё работают. А жор датацентров в 5 гигаватт это мелкие побочные эффекты.