Что сейчас актуально для 3д (реалистичного) прона? Поскольку я вижу вот такую картину? 1) В ванильном флаксе любой намек сисик писик был выпилен из датасета целенаправленно, потому обучать проно-чекпоинты на базе флакса приходится с полного нуля. А поскольку сам флакс довольно тяжелый в плане ресурсов для обучения, с каким-то большим числом концептов и тегов особо не разгуляешься, в итоге получаются только какие-то очень урезанные в плане тегов и концептов модели, с однообразными мордами. 2) Люстра сделана для онеме и оптимизирована именно под онеме, по сути весь капасити люстры забит исключительно онемешными концептами и стилями. Что в общем-то адекватные люди (правильно делают) в основном и не задумываются делать реалистик чекпоинтов на основе люстры. И это либо кривые васяномержи с каким-то понями или олдовыми хл моделями. Либо получается как с флаксом, опять очень урезанный и ограниченный набор концептом с однообразными лицами, только еще хуже чем флакс.
И либо я что-то пропустил, либо за год в нише реалистик порн моделей до сих пор не появилось лучших альтернатив, чем продолжать насиловать пони?
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1200622 >Серия коммандеров - есть на разные весовые категории, заходит не только лишь всем, но регулярно всплывает в обсуждениях. ИЧСХ я не знаю в чем дело. Они не шизят, не лупятся, не хорни. Они действительно норм. Но ты ими пользуешься и такой : ну модель. Ну пишет. Ну местами умненькая. Но чего то не хватает. Рука хейтить или восторгаться не поднимается. Я не понимаю что со мной не так.
>>1199173 >еще две влезут смело под стекло, и еще одну (или даже две) мб можно как то присрать за стенку Фантазер, просто примерь 2шт 4-слотовых и увидишь как упрутся в расположение слотов и стенку. Не говоря уже о наличии китов для вертикальной установки. С виду - это мммаксимально бесполезный корпус, объем которого невозможно тематически использовать. Переворот мп не дал ничего
AI Image GeneratorsОбщий Картиночный #1 /image/
Аноним05/02/25 Срд 11:35:14№1042275Ответ
Общий тред для изображений, созданных с помощью онлайн ИИ-генерации.
Bing Image Creator и Designer https://bing.com/images/create/ https://designer.microsoft.com/image-creator Bing Image Creator - генератор изображений на базе DALL-E 3 от OpenAI, предоставленный компанией Microsoft. Designer - то же самое, но умеет делать широкоформатные и портретные изображения. Не доступны в России, используйте Proxy/VPN/Tor.
ImageFX https://aitestkitchen.withgoogle.com/tools/image-fx Нейросеть для создания изображений от Google на основе их модели Imagen 2. На данный момент доступна только для пользователей из США, Кении, Новой Зеландии и Австралии, необходимо использовать Proxy или VPN с IP этих стран.
Grok (X Image Generator) https://ximagegenerator.com/ Grok - ИИ, разработанный компанией xAI, принадлежащей Илону Маску. На данный момент имеет самую слабую цензуру.
я сейчас испытал рекурсию сна, когда-то давно я придумал (или мне она приснилась) идею инжектить пациентам сон о том как они звонят в морг и находят своё тело чтоб закодировать их от наркомании/алкоголизма етк. сегодня у меня был повторяющийся сон (по крайней мере мне так показалось, сейчас на холодную голову кажется что это был первый раз) про ритуал где нужно ходить по кругу и загадывать желание и ньярлатотеп его исполнит (подводных никаких). я загадал своё и потом сцена сменилась и я следовал за парой решал/жрецов которые пришли к каким-то якудзам чтобы исцелить тёлку которой они перебили ногу. перед ритуалом жрец её заставил звонить в морг и зачитывать данные о себе. не очень понятно зачем он это сделал ведь она ни в чём не виновата и особенно непонятно нахуя мой мозг ёбнул мне скример когда она зачитывала своё отчество. это относится к теме треда потому что это буквально генерация нейросети плюс тред давно утонул и перекачен иди нахуй
Помогите найти пресет на проверку успеха/неудачи, для RPG. Не который у хмылка, а до этого ещё как-то давно выкладывали. Там через thinking вроде GM, определяет.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №128 /llama/
Аноним08/05/25 Чтв 14:31:44№1194373Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Давайте хотя бы в этот раз без срачей? А то придётся просить администрацию катить этот тред раз в 1000 постов, а то блядь скоро кончай тред перегоним а я не успеваю катить потому что слоупок ПЕРЕКАТ
>>1198083 > Вот тебе милая webm из первой серии SukaSuka и карточка яндере Довольно урчит и дружески обнимает анончика добра > пока я стражу не позвал Но это порождает интерес остаться! >>1198086 > в ДС > половину из своей зп 12 лет Если только на самой-самой южной границе области, формально относящейся к ДС.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Конечно, я опоздал и вы уже все знаете, ну да похуй, значит повторюсь.
Итак, llama.cpp завезли --override-tensor, который позволяет выгружать не слои, а конкретные тензоры на видеокарту.
Умельцы сразу стали подбирать различные конфигурации.
По итогу читайте реддит, но что вышло у меня:
DDR4 ботлнечит, конечно. 3060 дает 5,4 условно, 4070 дает 6. Очевидно, видеокарты не на 10% отличаются. Но, ускорение есть, оно примерно 30% (эта часть постоянная, а моешка выбрасывается на оперативу). Для всяких 4-битных квантов это 6 гигов, плюс контекст куда сунете.
Итоговый конфиг такой:
Ubuntu 24.04.2 Cuda 12.4 Tesla P40 x2 (4070 я зажал из компа вытаскивать, а 3060 не моя) Собираем llama.cpp, накидываем -ot с 4-9 тензорами на оперативе (1-3 на видяхах). UD_Q3_K_XL квант (100 гигов) помещается: 40 в видяхи (плюс контекст), 60 в оперативу (64 гига, ибо 128 я ТОЖЕ ЗАЖАЛ).
Итогово получаю 5,5 токенов генерации, что для очень толстых 3 бит 235б модели — весьма недурно.
Короче, гуглите и изучайте -ot, берите оперативу и гоняйте 30b или 235b, по возможностям.
Я остался доволен технологией (но недоволен своим железом, на DDR5, вероятно, можно было получить вдвое быструю скорость, да).
Всем добра.
Кстати, выгрузка тензоров работает не только с МоЕ.
Можно обычные модели грузить не слоями, а хитрее. В зависимости от GGUF'а толстые тензоры (квантованные в Q5 какой-нибудь) кладешь на видяху, мелкие (в Q4/Q3) кидаешь на проц. По итогу распределение модель в VRAM / модель в RAM то же самое, но работает процентов на 10-50 быстрее, на реддите у кого сколько получилось. Тоже плюшка.
Аноны, хочу отыграть рп по Властелину Колец и назрела необходимость куда-то засунуть два языка - эльфийский и родной орочье наречье. Черновик лорбука накидал, лучше в него засунуть, или в карточку?
Я видел в TikTok у @catsoupai очень реалистичные видео и фото. Кто-то знает, как генерировать такие же? Что писать, где писать и, если да, то сколько это стоит? Может, это, конечно, их собственная модель, но в любом случае круто. Странно, что я раньше ни у каких компаний не видел такого качества, или я просто плохо искал.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1189001 Qwen3-30B Вроде как базарит всегда на уровне тупого негра 60 айкью, чего геммы не могут, сбиваясь в нейробредни. QAT версию я правда не нашел как для Геммы.
>>1189157 Если предполагается что чар не знает её, но она есть в контексте, то либо чар будет выбалтывать её сразу (даже на топовых по мозгам сетках типа гемини и клода у меня это случалось), либо сетка будет подстраивать рояли в кустах под бэкстори и через несколько сообщений забудет что чар незнаком с бэкстори, в конечном счёте он всё равно выболтает.
Если ты хочешь спрятать от лоботомита что-либо - спрячь это из контекста до поры до времени.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Парни, купил себе нынче для задач ерп в silly tavern AMD MI50, затестил, и в целом - заебись, но у меня сформировалась пара вопросов. 1) Стоит ли брать вторую чтобы запускать Q_8 модели и будет ли это эффективно 2) Можно ли рпшить с нейронками на русском без перевода в silly tavern или единственный вариант говорить на русском через переводчик 3) Есть ли модели для рп лучше чем nethena-mlewd-xwin-23b.Q5_K_S.gguf:latest
AI Chatbot General № 674 /aicg/
Аноним30/04/25 Срд 00:03:46№1183536Ответ
Google AI Studio Candidate text empty {candidates: [ { finishReason: 'OTHER', index: 0 } ] Google AI Studio Candidate text empty {сandidates: [ { finishReason: 'OTHER', index: 0 } ] Google AI Studio Candidate text empty {сandidates: [ { finishReason: 'OTHER', index: 0 } ]
Да что блять происходит - они фильтр обновили что-ли?