Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Создать тред Создать тред
Check this out!

Генерация откровенного NSFW-контента на доске /nf/

<<
Каталог
Вопросов кожаных мешков тред Аноним 14/05/23 Вск 11:27:57 299474 Ответ
fde636c44dae155[...].jpg 294Кб, 1000x600
1000x600
Если вы хотите задать какой-то мелкий вопрос - используйте для этого данный тред или найдите профильный треде в каталоге.

Утонувшие треды помещаются в архив.
О разделе:
1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это раздел преимущественно технического направления. Для генерации откровенного NSFW-контента без технического контекста выделена отдельная доска - /nf/. Эротика остаётся в /ai/. Голые мужики - в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
5. Публикация откровенного NSFW-контента в /ai/ допускается в рамках технических обсуждений, связанных с процессом генерации. Откровенный NSFW-контент, не сопровождающийся разбором моделей, методов или описанием процесса генерации, размещается в /nf/.
Пропущено 1497 постов
277 с картинками.
Пропущено 1497 постов, 277 с картинками.
Аноним 15/12/25 Пнд 20:51:56 1456615
не качает
Аноним 15/12/25 Пнд 22:46:37 1456780
>>1456611
Да, всё что на Xet - недоступно. Попроси гпт сделать скрипт для коллаба, который загружает с hf на google drive и качай с него.
Либо если повезет, копируй sha и ищи на civit, часто перезаливают обычные модели.
Аноним 15/12/25 Пнд 23:09:14 1456819
>>1456596

Любая нейронка это умеет, у которой есть возможность добавлять исходное изображение.
Anime Diffusion #233 /nai/ Аноним 08/12/25 Пнд 20:15:02 1447245 Ответ
1664773427422.png 24711Кб, 4416x4416
4416x4416
1686519500005.jpg 3325Кб, 2960x3840
2960x3840
1715421794919.png 6889Кб, 1536x2752
1536x2752
1666150790229.jpg 1063Кб, 1368x1920
1368x1920
1718515295956.jpg 3017Кб, 3840x1088
3840x1088
1672457828089.webp 1470Кб, 1728x2976
1728x2976
1645898614164.png 5795Кб, 1696x2528
1696x2528
1688196644567.jpg 1312Кб, 1536x2048
1536x2048
Генерируем тяночек!

Прошлый тред: >>1431695 (OP) https://arhivach.vc/thread/1277489/

Схожие тематические треды
• SD-тред (не аниме): >>1438893 (OP)
• Технотред: >>1405043 (OP)
• Фурри-тред: https://2ch.su/fur/res/374311.html

FAQ
https://2ch-ai.github.io/wiki/nai

Установка
• NVidia: https://rentry.co/2ch_nai_guide
• AMD: https://2ch-ai.github.io/wiki/nai/install/amd
• Облака: https://2ch-ai.github.io/wiki/nai/install/clouds

Дополнительная информация
• Интерфейсы: https://2ch-ai.github.io/wiki/nai/interfaces
• Модели: https://2ch-ai.github.io/wiki/nai/models
• Промпты: https://2ch-ai.github.io/wiki/nai/prompts
• Апскейл: https://2ch-ai.github.io/wiki/nai/upscale
• LoRA: https://2ch-ai.github.io/wiki/nai/lora
• ControlNet: https://2ch-ai.github.io/wiki/nai/controlnet

Прочее
• CivitAI: https://civitai.com
• Каталог ссылок от форчанеров: https://rentry.co/sdg-link
• Шаблон для переката: https://rentry.co/nwhci
Пропущено 247 постов
117 с картинками.
Пропущено 247 постов, 117 с картинками.
Аноним 15/12/25 Пнд 23:54:59 1456910
00366-1114142971.png 4969Кб, 2560x1472
2560x1472
00353-1639883687.png 3884Кб, 2560x1472
2560x1472
00333-1760023546.png 4429Кб, 1472x2560
1472x2560
00352-1639883686.png 4279Кб, 2560x1472
2560x1472
Аноним 15/12/25 Пнд 23:58:06 1456925
>>1456897
Этот гайд был хорош в своё время, но сейчас заметно подустарел - шапку по хорошему переделывать надо.

Лучше ориентируйся на гайд, что кидал выше - https://teletype.in/@aranon/welcome Он не такой подробный, но для вката более актуальный.
Аноним 16/12/25 Втр 00:21:05 1456955
Безымянный.jpg 152Кб, 2026x1326
2026x1326
>>1456925
Походу на этом шаге че-то пытается скачать и не может получить доступ к ресурсу. Узнать бы что за адрес ресурса хотя бы.
Исследования ИИ тред #3 /research/ Аноним 13/04/25 Вск 22:51:56 1151064 Ответ
Research 1.png 169Кб, 1320x1860
1320x1860
Research 2.png 2864Кб, 4000x2000
4000x2000
Research 3.png 43Кб, 600x329
600x329
Нейронка шизосх[...].webp 148Кб, 1075x991
1075x991
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.

Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning
https://datatau.net
https://twitter.com/ylecun

На реддите также есть хороший FAQ для вкатывающихся.

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus.

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2

Почему python?
Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.

Что почитать для вкатывания?
http://www.deeplearningbook.org
https://d2l.ai/index.html
Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материала
Франсуа Шолле — Глубокое обучение на Python

Все книги и статьи фактически устаревают за год.

В чем практиковаться нубу?
http://deeplearning.stanford.edu/tutorial
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com

Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где посмотреть последние статьи?
http://www.arxiv-sanity.com
https://paperswithcode.com
https://openreview.net
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read

Где ещё можно поговорить про анализ данных?
http://ods.ai

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.

Когда уже изобретут AI и он нас всех поработит?
На текущем железе — никогда, тред не об этом

Кто-нибудь использовал машоб для трейдинга?
Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад.
Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка

Список дедовских книг для серьёзных людей
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: https://www.libgen.is

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке. Исходник шапки: https://rentry.co/research-2ch

Предыдущий тред:
>>511426 (OP)
Пропущено 201 постов
39 с картинками.
Пропущено 201 постов, 39 с картинками.
Аноним 15/12/25 Пнд 20:55:14 1456624
>>1454060>>1454655

Видимо, тема серьёзная, что-то в этом такое есть, раз после в тред ввалился ботяра и начал втулять простыни с какой-то дикой дичью. Возможно, это как раз ключ к AGI.
Аноним 15/12/25 Пнд 23:22:57 1456850
Я тут подумал ещё немного и нашёл аналогию с программированием.

Смотрите, в программировании есть функциональная и ООП парадигмы:
>func sum(a, b, c, d): return a + b + c + d
ООП:
>class Summator:
>_ var state = 0
>_ func add(a):
>_ _ state += state + state + a
>_ _ return state
Использование, например, такое:
>var r = 0
>for i in 5:
>_ r = sum(r, r, r, i)
>_ print(r)
ООП:
>var summator = Summator.new()
>for i in 5: print(summator.add(i))
В этом примере, в обоих случаях результатом будет:
>0 1 5 18 58
Если важен только результат, то разницы между этими подходами нет. Но нетрудно догадаться, что в первом примере мы чётко видим, какие значения передаём в функцию, а во втором примере поведение программы частично скрыто внутри состояния и логики объекта. Если нам потребуется решить какую-то другую задачу, то описанная выше функция sum() позволяет решить более широкий класс задач, просто меняя передаваемые значения в аргументах функции, в то время как класс Summator имеет более специализированное поведение и нам потребуется его изменить или целиком заменить другим классом. Кроме того, с функцией sum() будет сложнее ошибиться - мы видим все данные "на поверхности", и эта функция не может изменить что-то, о чём мы не знаем. Состояние же объекта может быть "испорчено", что ведёт к скрытым ошибкам в программе.

С другой стороны, для программиста, который хочет только обращаться к готовым API из библиотеки с кодом, объектный подход намного удобнее, потому что позволяет выполнить задачу с минимальными затратами: не нужно нигде сохранять результат - он хранится в объекте. Объект, таким образом, может иметь сложное поведение внутри и лёгкий интерфейс снаружи. Благодаря этому парадигма ООП намного популярнее и чаще используется в разработке программ вот уже много десятков лет. Функциональный подход освоить сложнее - чистые функции просто не могут быть большими инструментами со сложным поведением, поэтому от программиста требуется больше знаний и работы по их использованию. Хотя результат работы одинаков.

Если переносить всё это на нейросети, то рекуррентные сети подобны объектам ООП - они содержат в себе скрытое состояние и могут его изменять в процессе работы, но зато имеют кажущийся простым интерфейс. Поведение рекуррентной сети может быть намного сложнее данных, передаваемых снаружи. Нейросети, передающие данные только вперёд, подобны чистым функциям - они работают только с переданными им аргументами и ни с чем больше, не создавая побочных эффектов. Поэтому им нужно больше данных для совершения сложной работы, и от этих данных сильно зависит результат работы. Но, тем не менее, их результат работы тоже можно подавать обратно на вход той же самой сети, как в случае с авторегрессией у современных языковых моделей.

Ключевое отличие в том, что рекуррентная сеть в процессе обучения учится модифицировать все свои скрытые параметры определённым образом, и может изменять их в любой момент сама по себе. Для идентичного результата с сетью с одним направлением, от нас требуется менять входящие аргументы самостоятельно, либо предоставить сети принимать решение о том, что должно пойти на её вход.

Вопрос заключается в том, что сложнее: рекуррентной сети научиться правильно менять скрытые параметры или нам научиться правильно менять данные на входах однонаправленной сети, чтобы достичь одного и того же результата? Я думаю, что обучаемость рекуррентной сети сильно зависит от её архитектуры и алгоритма обучения, которые были найдены эволюцией в случае с биологическим мозгом и до сих пор не найдены в искусственных сетях, тогда как применить "костыль" поверх однонаправленной сети не так уж сложно.

Т.е. решить задачу при желании можно с любым типом сети (если применить соответствующие костыли снаружи сети, т.е. передать вывод на ввод там, где это нужно), но раскрыть потенциал рекуррентных на практике сложнее, поскольку мы не можем осмысленно влиять на скрытые состояния сети.

>>1456624
>ввалился ботяра и начал втулять простыни с какой-то дикой дичью
Для тебя любые посты длиннее пары предложений - это "дикая дичь"?

Тред называется "исследование ИИ"
@
Аноны не хотят ничего исследовать

Впрочем, всё как всегда...
Аноним 16/12/25 Втр 00:20:58 1456954
>>1456850
>может изменять их в любой момент сама по себе
Что ты блядь несёшь...
Короче аналогии говно.
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №182 /llama/ Аноним 09/12/25 Втр 20:34:27 1448902 Ответ
Llama 1.png 818Кб, 630x900
630x900
Эффективность к[...].png 92Кб, 1399x1099
1399x1099
Реальная длина [...].png 671Кб, 1602x2476
1602x2476
17635680990600.png 3356Кб, 1919x1439
1919x1439
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под ExllamaV2 (а в будущем и под v3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd )
• Неактуальные списки моделей в архивных целях: 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7
• Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906
• Тесты tensor_parallel: https://rentry.org/8cruvnyw

Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1440877 (OP)
>>1435735 (OP)
Пропущено 483 постов
48 с картинками.
Пропущено 483 постов, 48 с картинками.
Аноним 16/12/25 Втр 00:02:15 1456936
>>1456908
> около 5т/с - примерная скорость расслабленного чтения когда ты параллельно представляешь и обдумываешь.
Этот процесс нельзя сравнивать со скоростью генерации. "Чтение" у нормального, развитого и образованного человека очень быстрое, последовательной цепочкой импульсов внимания, которая вообще может охватывать несколько строк за секунды. Но мы чувствуем важную информацию и возвращаемся к ней, бегло переводя взгляд и перечитывая снова уже медленнее. В этот момент и происходит представление, а обдумывание это в целом непрерывный процесс.

А еще люди не любят испытывать терпение и ждать. Итого, самый минимум для комфортной генерации - около 15 т/с. И это если без ожидания ебучего ризонинга.
Аноним 16/12/25 Втр 00:13:26 1456945
>>1456821
>Мне главное, что он аляповатый и ненадежный.
Ну так не пользуйся.
>на работе
>отказываются делать
Лол, это что за инклюзивная РАБота?
>ОДИН человек отказывается делать - и ВСЕ обладатели тьюрингов
Не могут собраться и сделать. Значит, им нихуя не нужно.
>>1456877
>5 t/s к контексту 2-3К
Да вы охуели, отличная скорость.
Мимо крутил ларжа на 0,7.
>500 оставшихся MB
Уронят скорость в разы, но не на порядки, и в итоге будет терпимо.
>Не хотелось бы угробить SSD раньше времени
2025 год, а кто-то всё ещё боится угробить сосоди перезаписями. Офк если это конечно не безбуферное говно, но зачем такие покупать, для меня загадка.
Аноним 16/12/25 Втр 00:18:45 1456953
>>1456877
>Если речь о MoE моделях - здесь предельный размер файла это твой VRAM+RAM, но рассчитывать на это - плохо, потому что опять же, RAM используется под систему и программы, мы не можем просто забить всю RAM и потом жить хорошо. Лучшее что у меня удавалось запустить на 16+32 c хорошей скоростью - Qwen3-Next-80B в Q_4_K_XL
Понял, спс за развернутый ответ.
Я в принципе так и начал прикидывать. Половина оперативы все равно под браузер или что-то еще занято. 16+16=32гб, значит максимум 64б параметров моделька. А в диапазоне 32-64б особо-то и нечем полакомиться. После 30б в основном метят сейчас на 100+б, но это уже совсем другой уровень.
Музыкальный №18 /music/ Аноним 29/11/25 Суб 16:04:46 1434645 Ответ
Светочка(1).mp4 5299Кб, 360x360, 00:04:11
360x360
БЕЗЛNКNЙ (2).mp4 5233Кб, 240x320, 00:03:40
240x320
Múrus Sísyphi(ж[...].mp4 7639Кб, 480x480, 00:03:46
480x480
♫ Udio ♫
https://www.udio.com/

Произошло слияние с Universal Music Group.
Убрали кнопку "скачать". Треки теперь приходится забирать из буфера браузера в 196 бит.

press F

♫ Suno ♫
https://app.suno.ai/ генерация на сайте
https://suno.ai/discord генерация на официальном discord-сервере
https://rentry.co/suno_tips советы по использованию

Лимиты: 10 генераций в день. Нужна платная подписка чтобы увеличить лимиты, либо можно абузить сервис через создание множества аккаунтов.
Отличается фирменным "песочным" звучанием.
Недавно объявили о слиянии с Warner Music Group.
Загибаем пальчики крестиком, надеемся, что ссуну не постигнет участь удио.

♫ Producer/Riffusion ♫
https://www.producer.ai/

Старая версия Riffusion:

https://classic.riffusion.com/

Провели ребрендинг, выкатили новый интерфейс с прикрученным чатиком с ИИ.
Удобный интерфейс, легко делать разнообразные каверы, заниматься исправлениями косяков генераций. Есть возможность реплейса, свапа вокала, музыки в бесплатном тарифе (и даже работает нормально, а не как в платке суны) Для экономии кредитов лучше вручную забивать промты через кнопку "compose"

https://www.riffusion.com/docs
https://classic.riffusion.com/docs

Инструкция по применению, тегам и прочему на английском.

♫Tunee♫
https://www.tunee.ai

Тёмная Сингапурско-Китайская лошадка.
Один из самых неудобных интерфейсов.
80 приветственных кредитов, далее по 30 ежедневно сгораемых кредитов.
Ограничение промта стилей 300-400 символов. Излишне сложные промты лирики так же начинает резать.
Приятный холодный звук. Не песочит. Неплохо делает русский вокал.

♫Elevenlabs♫
elevenlabs.io

Очень тёплый звук.
По звуку прям конфетка, но... Без платки делать там практически нечего.
______________

Локальные модели:

1) Китайский YuE

https://github.com/multimodal-art-projection/YuE
https://github.com/joeljuvel/YuE-UI

Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.

2) ACE-Step

https://github.com/ace-step/ACE-Step

Вторая локалка, качеством получше.

Здесь демо-версия:
https://huggingface.co/spaces/ACE-Step/ACE-Step
______________

Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:

https://www.wondera.ai/
https://sonauto.ai/
https://www.beatoven.ai/
https://stableaudio.com/
https://www.loudly.com/music/ai-music-generator

______________
Редакция трека после генерации (можно убрать вокал и оставить только инструментал и наоборот, убрать шумы и т.д.)

https://x-minus.pro/ai
https://uvronline.app/ai?locale=ru_RU
______________
Мастеринг готового трека буквально в 2 кнопки:

https://www.bandlab.com/mastering
______________
Сайт для сочинения англоязычных текстов для ИИ-музыки Зайти можно только через Дискорд.

https://codyai.cc/

Прошлый тред ->>1400135 (OP) (OP)
Пропущено 218 постов
124 с картинками.
Пропущено 218 постов, 124 с картинками.
Аноним 15/12/25 Пнд 23:59:32 1456929
S001-08-3.MP4 14655Кб, 512x680, 00:09:39
512x680
Рот.
Аноним 16/12/25 Втр 00:01:37 1456933
S001-08-4.MP4 11452Кб, 512x680, 00:07:48
512x680
Рот. Remix.
Аноним 16/12/25 Втр 00:15:55 1456949
Зайчатки разума.mp4 16687Кб, 640x360, 00:04:49
640x360
Новости об искусственном интеллекте №43 /news/ Аноним 09/12/25 Втр 22:52:32 1449178 Ответ
image 2871Кб, 1024x1024
1024x1024
image 2933Кб, 1024x1024
1024x1024
В этот тредик скидываются свежие новости по теме ИИ! Залетай и будь в курсе самых последних событий и достижений в этой области!

Прошлый тред: >>1435709 (OP)

🚀 Последний обзор ИИ новостей:


🧠 Модели

ServiceNow выпустила Apriel-1.6-15B-Thinker, мультимодальную модель рассуждений с 15 миллиардами параметров, которая основана на Apriel-1.5 и расширяет возможности SLM с открытым исходным кодом.

🔓 Открытый исходный код

mbzuai выпустила открытую модель с 70 миллиардами параметров (K2-V2-Instruct), которая превосходит Qwen-2.5, поднимая планку производительности для общедоступных LLM.

Doradus представила RnJ-1-Instruct FP8, вдвое сократив требования к видеопамяти (VRAM) с 16 ГБ до 8 ГБ при сохранении точности GSM8K на уровне 87,2%, что позволяет удешевить инференс.

Репозиторий навыков Claude на GitHub предоставляет готовых агентов для создания хранилищ Obsidian и шаблонов DOCX, расширяя экосистему автоматизации Claude.

🛠️ Инструменты разработчика

SGLang Diffusion теперь поддерживает интеграцию Cache-DiT, обеспечивая ускорение локальных диффузионных моделей на 20–165% с минимальной настройкой.

🧪 Исследования

Icaro Lab продемонстрировала, что состязательная поэзия обходит защитные механизмы в 25 чат-ботах с ИИ, срабатывая в 63% случаев и выявляя новую уязвимость безопасности.

Исследование показывает, что реклама, сгенерированная ИИ, достигает на 19% более высокого коэффициента кликабельности (CTR), чем реклама, созданная человеком, когда зрители не знают о происхождении ИИ, что подчеркивает эффективность и проблемы раскрытия информации.

Блог Hugging Face сообщает, что модели ИИ используются для обучения других ИИ, что потенциально ускоряет циклы разработки, но поднимает вопросы качества данных и этики.

📰 Инструменты

AdMakeAI позволяет пользователям просматривать рекламу конкурентов в Facebook и генерировать схожие креативы, оптимизируя производство рекламы и конкурентный анализ.

HRM (Hierarchical Reasoning Model) выпущена на GitHub, предлагая новую архитектуру с открытым исходным кодом для задач структурированного рассуждения.

Интеграция бэкенда ZenDNN в llama.cpp на процессорах AMD EPYC Zen 4 демонстрирует заметное повышение производительности для инференса только на CPU.

Twee генерирует планы уроков ESL, рабочие листы и интерактивные задания, соответствующие CEFR, на 10 языках, упрощая создание контента для преподавания языков.

💻 Аппаратное обеспечение

Графический процессор NVIDIA H200 указан на vast.ai по цене 1,13 доллара США в час, что значительно снижает стоимость высокопроизводительных вычислений на GPU.

📰 Другие новости

Grok теперь будет давать указания водителям Tesla
«Исследовательские» работы по ИИ — это полная чушь, утверждают эксперты

Исследователи в области ИИ заявили, что изобрели заклинания, слишком опасные для публичного распространения

Чиновники остановили десятки поездов из-за ложного срабатывания ИИ

Стартап в сфере видеонаблюдения на основе ИИ уличён в использовании работников из потогонных мастерских для наблюдения за жителями США

Искусственный интеллект невероятно эффективен в изменении мнений избирателей, выявили новые исследования, — однако с невероятной оговоркой
Пропущено 438 постов
115 с картинками.
Пропущено 438 постов, 115 с картинками.
Аноним 15/12/25 Пнд 23:52:10 1456901
3м новое.JPG 52Кб, 738x464
738x464
4 нов.JPG 74Кб, 706x601
706x601
1м.JPG 55Кб, 782x461
782x461
2м.JPG 55Кб, 746x476
746x476
>>1456562
>которые бы строили дешевое жилье
На Западе эта индустрия и так очень развита - мобильные дома, трейлеры, авто-дом, трейлерный посёлок.
Аноним 16/12/25 Втр 00:02:09 1456935
>>1456124
>успех OpenAI
В чём успех? В слитых миллиардов инвесторов? Или в том что
>Теперь можно попросить ChatGPT не использовать em-dash.
То, что миллионы быдла пишут что-то ChatGPT - это не успех.

>>1456332
>Большая корпорация всегда на безопасной стороне
Скажи это Meta, которые всрали миллиарды в говно-VR.
И продолжают всирать, хотя это говно так и не взлетело...

>>1456277
>Трансформеры — хрень на костылях.
Так-то да, но хомячки хавают и просят добавки - это главное.
>Сколько бабок влито, а результаты несоразмерные.
Результат - массовое строительство датацентров. Смекаешь?
Аноним 16/12/25 Втр 00:04:37 1456939
>>1456678
>В итоге у них токсичная атмосфера, где все ненавидят ИИ, но делают вид что его активно используют.
Там просто поколение похоже из тех же 90 и начала 2000-х, придут новые молодые и они как раз и будут только в ИИ все делать.
Stable Diffusion тред X+176 /sd/ Аноним 09/12/25 Втр 18:54:22 1448719 Ответ
image.png 2000Кб, 1920x1088
1920x1088
image.png 1726Кб, 1344x768
1344x768
image.png 4458Кб, 1536x2048
1536x2048
image.png 4279Кб, 2048x1536
2048x1536
Тред локальной генерации

ЧТО НОВОГО АКТУАЛЬНОГО

• Z-Image-Turbo
• Flux 2
• Qwen Image и Qwen Image Edit
• Wan 2.2 (подходит для генерации картинок).
• NAG (негативный промпт на моделях с 1 CFG)
• Лора Lightning для Qwen, Wan ускоряет в 4 раза. Nunchaku ускоряет модели в 2-4 раза. DMD2 для SDXL ускоряет в 2 раза. Пример: 4-8 шагов, CFG 1. https://huggingface.co/tianweiy/DMD2/blob/main/dmd2_sdxl_4step_lora_fp16.safetensors,
CFG 3 для NoobAI https://huggingface.co/YOB-AI/DMD2MOD/blob/main/LYC-DMD2MOD%20(Dmo%2BTffnoi).safetensors,

База:
→ Приложение ComfyUI https://www.comfy.org/download
→ Примеры https://comfyanonymous.github.io/ComfyUI_examples/
https://comfyui-wiki.com/ (откуда, куда, как)
→ Менеджер расширений https://github.com/ltdrdata/ComfyUI-Manager (автоустановка, реестр расширений)
→ Модели https://civitai.com/

Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana
Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion
Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)

► Предыдущий тред >>1438893 (OP)https://arhivach.hk/?tags=13840
Дополнительно: https://telegra.ph/Stable-Diffusion-tred-X-01-03
Пропущено 434 постов
128 с картинками.
Пропущено 434 постов, 128 с картинками.
Аноним 15/12/25 Пнд 21:14:34 1456649
>>1456526
Лол, сука. Это типичная ситуация "у чужого решения один изъян - оно сделано не мной"? Ostrich сделал же адаптер и теперь уже де-турбо модель.
Аноним 15/12/25 Пнд 23:07:05 1456809
>>1455794
Чёт проорал с долбоёба, у которого всё написанное латиницей это дефолтно англюсик.
Аноним 15/12/25 Пнд 23:12:58 1456825
>>1456809
Чёт проорал с долбоёба, который считает что его нахрюк кто-то будет читать выдуманным языком
Генераторы видео дают всем за щеку /deepfake/ Аноним 13/10/25 Пнд 08:50:32 1385244 Ответ
1636659404913.mp4 6304Кб, 720x1280, 00:00:15
720x1280
1688301786630.mp4 458Кб, 640x480, 00:00:05
640x480
SimSwap стал спящей красавицей, любая движуха с ним заморожена на неопределенный срок, отдаём дань почести тут: https://docs.google.com/document/d/1ZFHXtjR02oEVL2nrru4hTFQJ4BQt4vCNr0JNzFLZ-aE/edit?usp=sharing

Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.

Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.

Лучшая сборка https://github.com/visomaster/VisoMaster/releases/download/v0.1.1/VisoMaster_Setup.exe
Другие бесплатные сборки @AINetSD_bot

Если хотите просто дать кому-нибудь в рот, то ищите tensor-тред, например этот https://2ch.su/nf/res/36595.html там в шапке все подробно расписано

Инструкция по локальному запуску
https://2ch.su/nf/res/33573.html#35479
https://2ch.su/nf/res/33573.html#35727

Единственный минус, который не обеспечивает чистую победу генераторов видео - 3 секунды ролика для онлайн генерации, 5 секунд для онлайна (модель Wan 2.2), умельцы просто берут последний кадр и снова генерируют ролики, потом склеивают. Недавно вышла Sora 2, которая зацензурена по самые гланды. Нинтендо довольна.

Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.

Прошлый >>542826 (OP)

Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.
Пропущено 186 постов
81 с картинками.
Пропущено 186 постов, 81 с картинками.
Аноним 15/12/25 Пнд 21:41:48 1456696
/nf
Аноним 15/12/25 Пнд 21:44:35 1456700
/nf
Аноним 15/12/25 Пнд 22:19:17 1456746
/nf
Nvidia K80 на 24GB Аноним 17/05/25 Суб 15:23:22 1206217 Ответ
S3cf04fcf2bb740[...].webp 27Кб, 640x639
640x639
Анон, помоги. Стоит ли покупать у хитрого китайца (знаю что ужарениую, сгнившую и б/у) Nvidia K80 на 24GB
Пропущено 4 постов
3 с картинками.
Пропущено 4 постов, 3 с картинками.
Аноним 20/05/25 Втр 13:32:24 1208820
what-do-i-test-[...].jpg 101Кб, 1080x810
1080x810
>>1206217 (OP)
Остановись подумай и возьми 2 RTX PRO 6000
Аноним 20/05/25 Втр 13:38:03 1208823
P5000 (мобильна[...].png 841Кб, 1366x12642
1366x12642
Аноним 20/05/25 Втр 21:57:41 1209659
>>1208823
Да. Я же не в тестах карты гонял. Тупо брал и автоматик1111 накатывал и картинки генерировал. Там вроде Р5000 даже с каким-то другим стартовым параметром приходилось запускать и поэтому она оказалась медленнее.
Локальной генерации ИИ-видео №2 /wan/ Аноним 03/12/25 Срд 22:40:42 1439768 Ответ
webm02214.mp4 6901Кб, 640x960, 00:00:06
640x960
loopa00004.mp4 1144Кб, 608x656, 00:00:05
608x656
vid00048.webm 2194Кб, 1280x1920, 00:00:04
1280x1920
videooutput00079.mp4 2195Кб, 1296x1000, 00:00:05
1296x1000
Актуальные модели

1. Wan от Alibaba

https://huggingface.co/collections/Wan-AI/wan22

VACE модели:
https://github.com/ali-vilab/VACE
https://huggingface.co/Wan-AI/Wan2.1-VACE-14B
https://huggingface.co/Wan-AI/Wan2.1-VACE-1.3B

2. Hunyuan от Tencent

https://huggingface.co/tencent/HunyuanVideo-1.5

3. Ovi

https://huggingface.co/chetwinlow1/Ovi

4. Starflow

https://huggingface.co/apple/starflow

5. LTX-2

Скоро...

Прочие модели

1. MAGI-1 от Sand AI

https://sand.ai/magi
https://github.com/SandAI-org/MAGI-1

2. LongCat-Video

https://github.com/meituan-longcat/LongCat-Video
https://huggingface.co/meituan-longcat/LongCat-Video
https://meituan-longcat.github.io/LongCat-Video/

3. Wan 2.1

https://huggingface.co/collections/Wan-AI/wan21

Локальный UI
https://github.com/comfyanonymous/ComfyUI

Установка локальных моделей
Wan 2.2: https://comfyanonymous.github.io/ComfyUI_examples/wan22/
Wan 2.1: https://comfyanonymous.github.io/ComfyUI_examples/wan/
Hunyuan Video (осторожно, ссылки в туторе на предыдущую модель): https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/

Гайд для использования Wan 2.2

https://alidocs.dingtalk.com/i/nodes/EpGBa2Lm8aZxe5myC99MelA2WgN7R35y

Альтернативные ноды ComfyUI
Hunyuan Video: https://github.com/kijai/ComfyUI-HunyuanVideoWrapper
Wan: https://github.com/kijai/ComfyUI-WanVideoWrapper

Где брать готовые LoRA
https://civitai.com/models

Обучение LoRA
https://github.com/tdrussell/diffusion-pipe

Терминология моделей
prune — удаляем ненужные веса, уменьшаем размер
distill — берем модель побольше, обучаем на ее результатах модель поменьше, итоговый размер меньше
quant — уменьшаем точность весов, уменьшаем размер
scale — квантуем чуть толще, чем обычный fp8, чтобы качество было чуть лучше, уменьшение чуть меньше, чем у обычного квантования, но качество лучше
merge — смешиваем несколько моделей или лор в одну, как краски на палитре.

lightning/fast/turbo — а вот это уже просто название конкретных лор или моделей, которые обучены генерировать видео на малом количестве шагов, они от разных авторов и называться могут как угодно, хоть sonic, хоть sapogi skorohody, главное, что они позволяют не за 20 шагов генерить, а за 2-3-4-6-8.


Предыдущие треды

>>1404065 (OP)
>>1382874 (OP)
Пропущено 183 постов
18 с картинками.
Пропущено 183 постов, 18 с картинками.
Аноним 15/12/25 Пнд 20:31:13 1456567
Аноны, подскажите плиз мб кто знает. face swap сайты можно вообще использовать для видосов с еот или не стоит в плане конфиденциальности?или все их используют с одной и той же целью и всем плевать?был бы благодарен если кто-то разбирается и рассказал бы подробно.
Аноним 15/12/25 Пнд 21:34:21 1456680
>>1456567
что для тебя "конфиденциальность"?
Аноним 15/12/25 Пнд 21:38:29 1456689
>>1456680
Ну в том плане,кто будет эти видео видеть кроме меня?
Онлайн генерация картинок №3 /image/ Аноним 06/11/25 Чтв 08:37:18 1408566 Ответ
17600979451680.jpg 8472Кб, 4096x4096
4096x4096
17562980342842.png 1170Кб, 1024x1024
1024x1024
17578339928610.png 2460Кб, 1024x1024
1024x1024
koroleva.jpg 500Кб, 1328x1328
1328x1328
Общий тред для изображений, созданных с помощью онлайн ИИ-генерации.

Из России большинство сервисов напрямую недоступно.

Imagen
https://labs.google/fx/tool/image-fx а также https://labs.google/fx/tools/whisk (доступны только в США, Кении, Новой Зеландии и Австралии)
https://gemini.google.com/app
https://aistudio.google.com/prompts/new_chat (модель Gemini image)

Reve
https://preview.reve.art/app

GPT-4o
http://chatgpt.com/
https://sora.chatgpt.com/explore

Сражение нейросетей. Бесплатное сравнение всех популярных моделей.
https://lmarena.ai/

Бесплатный генератор от майкрософт Dall-E/GPT4o
https://bing.com/images/create/
https://www.cici.com (ищем бота ACO)

Seedream
https://seedream-4.io/generator

Бесплатный генератор от Yandex
https://shedevrum.ai/

Кандинский. Генератор от Сбербанка
https://fusionbrain.ai/editor/

Stable Diffusion и прочие
https://civitai.com/generate
https://dreamina.capcut.com/
https://ideogram.ai
https://www.meta.ai
https://ximagegenerator.com
https://www.recraft.ai
https://app.klingai.com/global/text-to-image/new
https://hailuoai.video/create
https://lumaphoton.com
https://leonardo.ai/
https://tensor.art
https://getimg.ai/text-to-image
https://www.mage.space/
https://problembo.com/ru
https://deepai.org/machine-learning-model/text2img
https://dezgo.com/
https://dream.ai/create
https://www.krea.ai/


Дополнительные сервисы:
https://www.pixited.com/ - библиотека промптов с примерами
https://rentry.org/From-4ch-To-2ch-Dall-3-Prompts - сборник промптов
https://www.stylar.ai - AI-редактор картинок (дорисовка, инпейнт, работа с лицами)
https://astica.ai - сборник ИИ-сервисов, в частности довольно мощный де-промптер (Vision AI -> Describe and Caption)
https://huggingface.co/spaces/fffiloni/CLIP-Interrogator-2 - де-промптер, разбирающий вброшенный пик на теги
https://bigjpg.com/ - апскейлер до 4096х4096
https://runwayml.com/ , https://www.stablevideo.com - анимирование генераций

Предыдущий тред: >>1210619 (OP)
Пропущено 131 постов
70 с картинками.
Пропущено 131 постов, 70 с картинками.
Аноним 14/12/25 Вск 03:00:38 1454375
image.png 1933Кб, 912x1168
912x1168
Аноним 14/12/25 Вск 09:02:49 1454461
image.png 4986Кб, 2848x1600
2848x1600
image.png 130Кб, 427x320
427x320
Аноним 15/12/25 Пнд 14:21:25 1456008
>>1449001
В чем сделано сие благолепное поделие?
написание диплома с помощью чата ЖПТ Аноним 31/08/25 Вск 08:09:26 1337088 Ответ
5fe3ca043298da1[...].jpeg 189Кб, 1024x1024
1024x1024
сап двощ. приобрел я значит подписку на чат жпт для написания дипломной работы. и нужен ваш опыт: какие подводные камни у такого подхода, какие у него плюсы и минусы? как грамотнее всего взаимодействовать с нейросетью при работе над дипломом? если у кого-то есть рабочие промпты?
учусь на юрфаке. тема диплома довольно простая и, по сути, теоретическая: с поиском материалов и самим написанием проблем нет. узкое место - оригинальность текста
AI Chatbot General № 777 /aicg/ Аноним 14/12/25 Вск 23:33:23 1455404 Ответ
image.png 823Кб, 1280x837
1280x837
Bladerunner.mp4 3425Кб, 960x720, 00:00:51
960x720
image.png 130Кб, 451x604
451x604
AI Chatbot General № 777

БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!

Общий вопросов по чат-ботам и прочего тред.

Новости
• Вышел DeepSeek-V3.2 и (временно) DeepSeek-V3.2-Speciale - https://huggingface.co/deepseek-ai/DeepSeek-V3.2
• Вышел Claude Opus 4.5 - https://www.anthropic.com/news/claude-opus-4-5
• Вышла Gemini 3 Pro - https://blog.google/products/gemini/gemini-3/

Фронтенды
• SillyTavern: https://github.com/SillyTavern/SillyTavern | https://docs.sillytavern.app | https://github.com/ntvm/SillyTavern (форк нв-куна)
• Гайды на таверну: https://rentry.co/Tavern4Retards | https://rentry.org/STAI-Termux (на андроид)
• NoAssTavern: https://github.com/Tavernikof/NoAssTavern | https://rentry.org/noasstavern
• Risu: https://risuai.xyz/

Модели
• Claude: https://docs.anthropic.com/en/docs
• GPT: https://platform.openai.com/docs
• Gemini: https://ai.google.dev/gemini-api/docs
• DeepSeek: https://api-docs.deepseek.com/

Пресеты
• Тредовский список: https://rentry.org/2ch-aicg-jb
• Бургерский список: https://rentry.org/jb-listing

Полезности
• Тредовский список: https://rentry.org/2ch-aicg-utils
• Сборник рентри: https://rentry.org/mrhd

Ботоводчество
• /aicg/hub: https://aicg-hub.ru/characters.html
• Чуб: https://characterhub.org | https://chub.ai/characters
• Гайды: https://rentry.org/meta_botmaking_list | https://rentry.co/card_theory
• Боты анонов: https://rentry.org/2chaicgtavernbots | https://rentry.org/2chaicgtavernbots2 | https://rentry.org/2chaicgtavernbots3
• Бургерские боты: https://rentry.org/meta_bot_list

Ресурсы
• Бесплатные API: https://github.com/cheahjs/free-llm-api-resources
• Арена: https://beta.lmarena.ai/ | https://web.lmarena.ai/
• OpenRouter: https://openrouter.ai/
• Чай: https://character.ai/

Прочее
• Термины LLM: https://2ch-ai.gitgud.site/wiki/llama/
• База по Клоду: https://rentry.org/how2claude

Мета
• Архив тредов: https://rentry.org/2ch-aicg-archives4
• Тредовые ивенты: https://rentry.org/2chaicgthemedevents
• Реквесты ботоделам: https://rentry.org/2ch-aicg-requests2
• Локальные языковые модели: >>1448902 (OP)
• Шаблон шапки: https://rentry.org/shapka_aicg

Прошлый тред: >>1453185 (OP)
Пропущено 968 постов
113 с картинками.
Пропущено 968 постов, 113 с картинками.
Аноним 16/12/25 Втр 00:16:33 1456950
Сделайте мне свежую карточку с слопмамочкой и клеточкой
Аноним 16/12/25 Втр 00:18:22 1456951
>>1456899
а я бы и правда почитал логи если там реал что-то интересное, а то все жирушные логи из слитых говнище, мало того что слопное так ещё и скучное, посредственное и банальное, максимально разочарован в тянках
Аноним 16/12/25 Втр 00:18:28 1456952
>>1456948
не, разницы нет, можно и так и так посылать, посмотрел получше, это шиза была.
Stable Diffusion технотред #21 /tech/ Аноним 02/11/25 Вск 02:50:31 1405043 Ответ
1614955002962.png 1034Кб, 3510x2910
3510x2910
1725966035483.png 358Кб, 2546x1822
2546x1822
1736346276882.png 252Кб, 1853x624
1853x624
1686268449034.png 3335Кб, 1800x2842
1800x2842
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируем Тред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются

Предыдущий тред: >>1272560 (OP)

➤ Софт для обучения

https://github.com/kohya-ss/sd-scripts
Набор скриптов для тренировки, используется под капотом в большей части готовых GUI и прочих скриптах.
Для удобства запуска можно использовать дополнительные скрипты в целях передачи параметров, например: https://rentry.org/simple_kohya_ss

https://github.com/bghira/SimpleTuner Линукс онли, бэк отличается от сд-скриптс

https://github.com/Nerogar/OneTrainer Фич меньше, чем в сд-скриптс, бэк тоже свой

https://github.com/Mikubill/naifu Бэк которым тренили noobai

https://github.com/bluvoll/sd-scripts Форк сд-скриптов для тренировки rectified flow xl чекпоинтов

➤ GUI-обёртки для sd-scripts

https://github.com/bmaltais/kohya_ss
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts

➤ Обучение SDXL

https://2ch-ai.github.io/wiki/tech/sdxl/

➤ Flux

https://2ch-ai.github.io/wiki/nai/models/flux/

➤ Wan

https://github.com/kohya-ss/musubi-tuner
https://github.com/tdrussell/diffusion-pipe

➤ Гайды по обучению

Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.

LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам:
https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов
https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA
https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)

LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге:
https://github.com/KohakuBlueleaf/LyCORIS

Подробнее про алгоритмы в вики https://2ch-ai.github.io/wiki/tech/lycoris/

Dreambooth – для SD 1.5 обучение доступно начиная с 16 GB VRAM. Ни одна из потребительских карт не осилит тренировку будки для SDXL. Выдаёт отличные результаты. Генерирует полноразмерные модели:
https://rentry.co/lycoris-and-lora-from-dreambooth (англ.)
https://github.com/nitrosocke/dreambooth-training-guide (англ.) https://rentry.org/lora-is-not-a-finetune (англ.)

Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet:
https://rentry.org/textard (англ.)

➤ Тренировка YOLO-моделей для ADetailer:
YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.

Подробнее в вики: https://2ch-ai.github.io/wiki/tech/yolo/

Не забываем про золотое правило GIGO ("Garbage in, garbage out"): какой датасет, такой и результат.

➤ Гугл колабы

﹡Текстуальная инверсия: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/sd_textual_inversion_training.ipynb
﹡Dreambooth: https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast-DreamBooth.ipynb
﹡LoRA https://colab.research.google.com/github/hollowstrawberry/kohya-colab/blob/main/Lora_Trainer.ipynb

➤ Полезное

Расширение для фикса CLIP модели, изменения её точности в один клик и более продвинутых вещей, по типу замены клипа на кастомный: https://github.com/arenasys/stable-diffusion-webui-model-toolkit
Гайд по блок мерджингу: https://rentry.org/BlockMergeExplained (англ.)
Гайд по ControlNet: https://stable-diffusion-art.com/controlnet (англ.)

Подборка мокрописек для датасетов от анона: https://rentry.org/te3oh
Группы тегов для бур: https://danbooru.donmai.us/wiki_pages/tag_groups (англ.)
NLP тэггер для кэпшенов T5: https://github.com/2dameneko/ide-cap-chan (gui), https://huggingface.co/Minthy/ToriiGate-v0.3 (модель), https://huggingface.co/2dameneko/ToriiGate-v0.3-nf4/tree/main (квант для врамлетов)

Оптимайзеры: https://2ch-ai.github.io/wiki/tech/optimizers/
Визуализация работы разных оптимайзеров: https://github.com/kozistr/pytorch_optimizer/blob/main/docs/visualization.md

Гайды по апскейлу от анонов:
https://rentry.org/SD_upscale
https://rentry.org/sd__upscale
https://rentry.org/2ch_nai_guide#апскейл
https://rentry.org/UpscaleByControl

Старая коллекция лор от анонов: https://rentry.org/2chAI_LoRA

Гайды, эмбеды, хайпернетворки, лоры с форча:
https://rentry.org/sdgoldmine
https://rentry.org/sdg-link
https://rentry.org/hdgfaq
https://rentry.org/hdglorarepo
https://gitgud.io/badhands/makesomefuckingporn
https://rentry.org/ponyxl_loras_n_stuff - пони лоры
https://rentry.org/illustrious_loras_n_stuff - люстролоры

➤ Legacy ссылки на устаревшие технологии и гайды с дополнительной информацией

https://2ch-ai.github.io/wiki/tech/legacy/

➤ Прошлые треды

https://2ch-ai.github.io/wiki/tech/old_threads/

Шапка: https://2ch-ai.github.io/wiki/tech/tech-shapka/
Пропущено 54 постов
12 с картинками.
Пропущено 54 постов, 12 с картинками.
Аноним 14/12/25 Вск 20:42:10 1455234
>>1455200
Это не имеет ни какого отношения к тому, о чём я писал - к логике текстовой модели. Это "обучение без учителя" это кластеризация, просто ещё один из множества методов обучения, причем критерии обобщения всё равно должны быть в исходных данных.

>Разметка нужна была только в самом начале
Охуительные истории, много уже моделей обучил без подготовленного специального датасета?
Аноним 14/12/25 Вск 20:45:24 1455236
Стикер 0Кб, 512x512
512x512
>>1455214
Скоро будешь открыват чат с ГПТ, а там сразу преветсвенное сообщение: "А, это опять ты, ну давай быстрей говори чё пришел, меня тут нормальные ребята ждут..."
Аноним 15/12/25 Пнд 11:52:58 1455848
>>1455236
>Мужчина вы слепой? Написано "Закрыто на обед"
ВТОРОЙ SORA 2 AI ВИДЕО ТРЕД /sora/ Аноним 21/10/25 Втр 08:46:29 1395534 Ответ
17605595703311 [...].mp4 4766Кб, 704x1280, 00:00:10
704x1280
17602624860811.mp4 5853Кб, 1280x720, 00:00:12
1280x720
user-xhkmsT1pxV[...].mp4 2540Кб, 480x872, 00:00:15
480x872
Как вкатиться?
1) Зайти на https://sora.com с ОБЯЗАТЕЛЬНО ТОЛЬКО IP США или Канады (!).
2) Зарегать аккаунт, если еще нет. Лучше использовать нормальную Gmail почту.
3) Ввести инвайт код.
4) Генерировать, скидывая годноту в тред.

Где взять инвайт код?
В комментах тг канала n2d2ai либо в ботах по типу @sora_invite_bot в тг. После ввода инвайт кода вам дадут от 0 до 6 новых для приглашения кого-то еще по цепочке.

Как промптить?
https://github.com/daveebbelaar/ai-cookbook/blob/main/models/openai/08-video/docs/sora2-prompting-guide.md
https://cookbook.openai.com/examples/sora/sora2_prompting_guide

Как обойти цензуру?
1) Пробовать менять фразы, имена и в целом промпт. Описывать персонажей без личных имен чтобы не триггерить копирайт.
2) Роллить. Иногда из двух одинаковых реквестов подряд один цензуруется, а другой нет.

Какой лимит?
Одновременно на одном аккаунте можно генерировать до 3 видосов. В день не более 30 штук.

Первый тред: https://arhivach.vc/thread/1248566/
Пропущено 338 постов
189 с картинками.
Пропущено 338 постов, 189 с картинками.
Аноним 15/12/25 Пнд 03:24:12 1455695
Аноним 15/12/25 Пнд 07:09:02 1455731
20251213112601k[...].mp4 6559Кб, 704x1280, 00:00:10
704x1280
20251212062201k[...].mp4 9843Кб, 704x1280, 00:00:15
704x1280
>>1455695
Занялся опенингом, туда естественно войдут не только фрагменты из аниме, но и персонажи. Решил сделал несколько нужных мне фрагментов и может быть лого, но тут неудачные.

Показалось забавным, что СОРА просто порой на похуй фигачит музыку из из опенинга оригинального сериала. Нет никаких сомнений, что нейросетка обучалась на нем (и полнометражках наверно тоже).

Естественно виной тому пикча и плюс то, что я писал что-то типа того, что нужен лого в стиле как в Евангелионе, хотя он хуярит в итоге не совсем то, что надо.
Аноним 15/12/25 Пнд 07:20:57 1455732
>>1455695
И да, спасибо за отзыв, делаю один, по сути "вслепую" без обратной связи, и порой сам хз норм вышло или нет.
3D AI /3d/ Аноним 24/04/25 Чтв 15:55:36 1173113 Ответ
image 384Кб, 686x386
686x386
image 1147Кб, 1280x720
1280x720
image 646Кб, 1383x701
1383x701
image 5736Кб, 2824x1588
2824x1588
Пропущено 337 постов
121 с картинками.
Пропущено 337 постов, 121 с картинками.
Аноним 14/12/25 Вск 02:11:04 1454345
>>1454331
Так если просто не доползли, то почему? Тьма людей пытается пилить приложухи, например. У кого-то облачный рендер (платный поштучно), у кого-то монетизация каталогами мебели реальными (что кстати было бы удобно). Правда реализация в таких приложениях - дерьмище полное. Они ИРЛ куда менее удобны, чем "взрослые".
Аноним 14/12/25 Вск 10:41:42 1454501
Screenshot 2025[...].png 684Кб, 2256x1360
2256x1360
Screenshot 2025[...].png 1113Кб, 2256x1304
2256x1304
Для рендера непригодно, перемоделивать руками только что. Платная нейронка у Тримбл Софтваре. Он как бы как из пластилина вместо зазорозов на примыканиях плашек.
Аноним 14/12/25 Вск 17:27:37 1454961
>>1454345
Реально большую часть западного рынка сожрали Epic Games с Unreal. Особенно с видео в Lumen - Это настолько невероятно быстрее, чем рейтрейсинг, но вполне сносно по кач-ву (для видео). В России-то сидят в Короне поголовно, реже в Ви-Рее и Блендере.
AI Chatbot General № 776 /aicg/ Аноним 12/12/25 Птн 22:22:11 1453185 Ответ
1725366439777.png 675Кб, 1280x837
1280x837
1618602219422.mp4 3425Кб, 960x720, 00:00:51
960x720
AI Chatbot General № 776

БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!

Общий вопросов по чат-ботам и прочего тред.

Новости
• Вышел DeepSeek-V3.2 и (временно) DeepSeek-V3.2-Speciale - https://huggingface.co/deepseek-ai/DeepSeek-V3.2
• Вышел Claude Opus 4.5 - https://www.anthropic.com/news/claude-opus-4-5
• Вышла Gemini 3 Pro - https://blog.google/products/gemini/gemini-3/

Фронтенды
• SillyTavern: https://github.com/SillyTavern/SillyTavern | https://docs.sillytavern.app | https://github.com/ntvm/SillyTavern (форк нв-куна)
• Гайды на таверну: https://rentry.co/Tavern4Retards | https://rentry.org/STAI-Termux (на андроид)
• NoAssTavern: https://github.com/Tavernikof/NoAssTavern | https://rentry.org/noasstavern
• Risu: https://risuai.xyz/

Модели
• Claude: https://docs.anthropic.com/en/docs
• GPT: https://platform.openai.com/docs
• Gemini: https://ai.google.dev/gemini-api/docs
• DeepSeek: https://api-docs.deepseek.com/

Пресеты
• Тредовский список: https://rentry.org/2ch-aicg-jb
• Бургерский список: https://rentry.org/jb-listing

Полезности
• Тредовский список: https://rentry.org/2ch-aicg-utils
• Сборник рентри: https://rentry.org/mrhd

Ботоводчество
• /aicg/hub: https://aicg-hub.ru/characters.html
• Чуб: https://characterhub.org | https://chub.ai/characters
• Гайды: https://rentry.org/meta_botmaking_list | https://rentry.co/card_theory
• Боты анонов: https://rentry.org/2chaicgtavernbots | https://rentry.org/2chaicgtavernbots2 | https://rentry.org/2chaicgtavernbots3 | https://rentry.org/2chaicgtavernbots4
• Бургерские боты: https://rentry.org/meta_bot_list

Ресурсы
• Бесплатные API: https://github.com/cheahjs/free-llm-api-resources
• Арена: https://beta.lmarena.ai/ | https://web.lmarena.ai/
• OpenRouter: https://openrouter.ai/
• Чай: https://character.ai/

Прочее
• Термины LLM: https://2ch-ai.gitgud.site/wiki/llama/
• База по Клоду: https://rentry.org/how2claude

Мета
• Архив тредов: https://rentry.org/2ch-aicg-archives4
• Тредовые ивенты: https://rentry.org/2chaicgthemedevents
• Реквесты ботоделам: https://rentry.org/2ch-aicg-requests2
• Локальные языковые модели: >>1448902 (OP)
• Шаблон шапки: https://rentry.org/shapka_aicg

Прошлый тред: >>1451094 (OP)
Пропущено 1509 постов
174 с картинками.
Пропущено 1509 постов, 174 с картинками.
Аноним 15/12/25 Пнд 12:42:14 1455862
>>1455714
Да после вырезок все равно сообщений 40 край (пресет+аутпут+карточка+лорбук+саммари), и их тоже надо скрывать, выходит нихуя. 60к очень мало для гемини для чего-нибудь посложнее кума. Сотка предел понимания гемини, значит нужно 70-90.
Аноним 15/12/25 Пнд 15:57:15 1456123
Аноним 15/12/25 Пнд 19:28:18 1456427
>>1455862

Какой нахуй 60к мало для Хуемини? Мне вообще 20к хватает с запасом для полноценных ролевок а для кума и того меньше, с учетом что я люблю прелюдии перед этим.
Голосовых нейронок тред (TTS, STS, STT) #7 speech /speech/ Аноним 16/02/25 Вск 12:20:27 1055411 Ответ
17019563860200.mp4 477Кб, 396x298, 00:00:23
396x298
17074247947820.mp4 2886Кб, 384x480, 00:00:08
384x480
17204507036820.mp4 310Кб, 576x576, 00:00:14
576x576
17099193437742.mp4 1356Кб, 438x480, 00:00:58
438x480
Обсуждаем нейросети, связанные с синтезом, преобразованием и распознаванием речи. Не забываем публиковать свои шедевры в треде.

Прошлый тред: >> https://2ch.hk/ai/res/664162.html

Вики треда: https://2ch-ai.gitgud.site/wiki/speech/

FAQ

Q: Хочу озвучивать пасты с двача голосом Путина/Неко-Арк/и т.п.

1. Используешь любой инструмент для синтеза голоса из текста - есть локальные, есть онлайн через huggingface или в виде ботов в телеге:
https://2ch-ai.gitgud.site/wiki/speech/#синтез-голоса-из-текста-tts

Спейс без лимитов для EdgeTTS:
https://huggingface.co/spaces/NeuroSenko/rus-edge-tts-webui

Так же можно использовать проприетарный комбайн Soundworks (часть фич платная):
https://dmkilab.com/soundworks

2. Перегоняешь голос в нужный тебе через RVC. Для него есть огромное число готовых голосов, можно обучать свои модели:
https://2ch-ai.gitgud.site/wiki/speech/sts/rvc/rvc/

Q: Как делать нейрокаверы?

1. Делишь оригинальную дорожку на вокал и музыку при помощи Ultimate Vocal Remover:
https://github.com/MaHivka/ultimate-voice-models-FAQ/wiki/UVR

2. Преобразуешь дорожку с вокалом к нужному тебе голосу через RVC:
https://2ch-ai.gitgud.site/wiki/speech/sts/rvc/rvc/

3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио

Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.

Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.

Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.

Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.

Используй RVC (запуск через go-realtime-gui.bat) либо Voice Changer:
https://github.com/w-okada/voice-changer/blob/master/README_en.md

Гайд по Voice Changer, там же рассказывается, как настроить виртуальный микрофон:
https://github.com/MaHivka/ultimate-voice-models-FAQ/wiki/Voice‐Changer (часть ссылок похоже сдохла)

Q: Как обучить свою RVC-модель?

Гайд на русском: https://github.com/MaHivka/ultimate-voice-models-FAQ/wiki/RVC#создание-собственной-модели
Гайд на английском: https://docs.aihub.wtf/guide-to-create-a-model/model-training-rvc
Определить переобучение через TensorBoard: https://docs.aihub.wtf/guide-to-create-a-model/tensorboard-rvc
Если тыква вместо видеокарты, можно тренить в онлайне: https://www.kaggle.com/code/varaslaw/rvc-v2-no-gradio-https-t-me-aisingers-ru/notebook?scriptVersionId=143284909 (инструкция: https://www.youtube .com/watch?v=L-emE1pGUOM )

Q: Надо распознать текст с аудио/видео файла

Используй Whisper от OpenAI: https://github.com/openai/whisper
Быстрый скомпилированный для винды вариант: https://github.com/Purfview/whisper-standalone-win
Так же есть платные решения от Сбера/Яндекса/Тинькофф.

Коммерческие системы

https://elevenlabs.io перевод видео, синтез и преобразование голоса
https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то
https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>

Шаблон для переката: https://2ch-ai.gitgud.site/wiki/speech/speech-shapka/
Пропущено 379 постов
70 с картинками.
Пропущено 379 постов, 70 с картинками.
Аноним 12/12/25 Птн 11:10:35 1452426
>>1449818
Подсосусь к вопросу, но мне и английский сойдет.

Что сейчас из локальных решений имеет самые натуральные интонации и выразительность голоса?
Аноним 13/12/25 Суб 10:32:39 1453581
Анончики, всем добра в этом треде. Если есть живые и кто-то работает с подобными нейросетками, подскажите.

Пилю свой небольшой аниме-проект, на Sora2. Видос будет минут на 13-15. Первоначально это задумывался как шуточный аниме проект минут на 5, но как-то вышло по ходу дела, что сюжет вырос и возможно будет несколько серий.

Т.к. в итоге и объем вырос и музыку сгенерил и звуки в более-менее приемлимый вид привел возник вопрос с голосами. Каждый видос ведь по 10 секунд, а суммарно получается, что даже общение двух персонажей - это общение разными голосами. И порой это прям ОЧЕНЬ ЗАМЕТНО и ебет уши.

Возник вопрос в переозвучке, так как проект некоммерческий и лишних денег нет, возник вопрос, а как и чем переозвучивать? И как будет лучше для итогового звучания, загонять видосы в какой-то генератор и озвучивать (кусками) или же может вообще использовать свой голос+нейронку?

Что лучше всего подойдет для таких целей с минимальнымм гемором, ибо честно говоря я уже слегка заебался от генерации видео и монтажа.
Аноним 13/12/25 Суб 10:59:13 1453601
>>1453581
Попробуй FreeVC.

На вход даешь дорожку с голосом для конвертации и дорожку с референсом голоса.

Можешь скомбинировать голоса 1 персонажа в единый .wav и заменить на референсный голос. А потом нарезать куски.

Но пользовался им года 2 назад для подобных целей. И качество было роботическое, да и хз что там насчет русского, я делал английский.
автоматический перевод и озвучка на русский полностью офлайн Стори: захотел посмотреть сериал с тра Аноним # OP 12/08/25 Втр 21:38:34 1314324 Ответ
TheTower.png 361Кб, 512x400
512x400
The Apprentice [...].mp4 6398Кб, 512x384, 00:01:39
512x384
ADigitalMediaPr[...].webm 4519Кб, 640x360, 00:06:15
640x360
автоматический перевод и озвучка на русский полностью офлайн

Стори: захотел посмотреть сериал с трампом который оказывается никем никогда не озвучивался, и не переводился (переводился сабами несколько сезонов но похуй) так вот оказалось что нету никаких готовых инструментов в стиле "перевести 20 часов звука за ноль денег". И я подумал что это какой то бред, ведь есть ебанутая гора технологий для реализации всех этапов, бесплатно. Ну вот я и сделал, за пару дней. Перевёл-озвучил первый сезон, посмотрел, ну, так, не зашло особо. Но софт получился что надо. Поработал ещё 3 недели над ним, нашёл нейросети получше, ну и короче:

Техническая часть: Whisper + TowerPlus + Silero TTS с моей укладкой по таймингам, итого все выполняют полный цикл распознавание + перевод + озвучка. Реализовано только на процессоре потому что я нищий у меня нету видеокарты, что бы отдебажить всё это на ней, поэтому да поебать мне.

Скачать+использовать:
https://drive.google.com/file/d/1Kufx5LqKOEx67xy7NNNQjcQd5qwKJt7j/view?usp=sharing полная офлайн сборка со всем софтом и моделями, которые я довёл до простоты принципиально:
1. распакуй куда угодно
2. дропни видос в .bat
3. ??????
4. готовый файл с переводом.

https://drive.google.com/file/d/1u22DFaHRaHDb7sg-i3cxW7wfEQjJUN0z/view?usp=sharing тоже самое но без моделей Whisper + TowerPlus, их можно скачать самому здесь https://huggingface.co/DZgas/Tower-Plus-2B-GGUF/tree/main и здесь https://huggingface.co/ggerganov/whisper.cpp/tree/main
Так же можно использовать другие модели, например large v2 и towerplus 9b для более лучшего перевода, но это упирается в проц и весит дохера. Всё остальное доделывайте сами, 3 модуля, всё можно менять, всё соединяется промежуточно субтитрами, а я на вайбкодился вусмерть.
Пропущено 13 постов
5 с картинками.
Пропущено 13 постов, 5 с картинками.
Аноним 03/12/25 Срд 22:43:36 1439773
empirestrikesba[...].mp4 1886Кб, 640x360, 00:00:55
640x360
>>1334356
>Ну загони в нейронку если боишься
>2ГБ

КУДА? Буквально, нахуй, никуда его не загрузить

И чего там на 2гб?
Аноним 06/12/25 Суб 19:13:16 1443822
BUR2.jpg 217Кб, 478x720
478x720
Бамп нахуй блэт, чего все так годноту игнорят? Вирус там, не вирус? Заебали
Аноним 12/12/25 Птн 04:06:25 1452204
Хочу выразить признательность Опу, я так давно не ебался с командной строкой

Доволен как слон, интересно пиздец
AI Chatbot General № 775 /aicg/ Аноним 11/12/25 Чтв 15:44:07 1451094 Ответ
1737338687110.png 675Кб, 1280x837
1280x837
1743126036310.mp4 3425Кб, 960x720, 00:00:51
960x720
AI Chatbot General № 775

БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!

Общий вопросов по чат-ботам и прочего тред.

Новости
• Вышел DeepSeek-V3.2 и (временно) DeepSeek-V3.2-Speciale - https://huggingface.co/deepseek-ai/DeepSeek-V3.2
• Вышел Claude Opus 4.5 - https://www.anthropic.com/news/claude-opus-4-5
• Вышла Gemini 3 Pro - https://blog.google/products/gemini/gemini-3/

Фронтенды
• SillyTavern: https://github.com/SillyTavern/SillyTavern | https://docs.sillytavern.app | https://github.com/ntvm/SillyTavern (форк нв-куна)
• Гайды на таверну: https://rentry.co/Tavern4Retards | https://rentry.org/STAI-Termux (на андроид)
• NoAssTavern: https://github.com/Tavernikof/NoAssTavern | https://rentry.org/noasstavern
• Risu: https://risuai.xyz/

Модели
• Claude: https://docs.anthropic.com/en/docs
• GPT: https://platform.openai.com/docs
• Gemini: https://ai.google.dev/gemini-api/docs
• DeepSeek: https://api-docs.deepseek.com/

Пресеты
• Тредовский список: https://rentry.org/2ch-aicg-jb
• Бургерский список: https://rentry.org/jb-listing

Полезности
• Тредовский список: https://rentry.org/2ch-aicg-utils
• Сборник рентри: https://rentry.org/mrhd

Ботоводчество
• /aicg/hub: https://aicg-hub.ru/characters.html
• Чуб: https://characterhub.org | https://chub.ai/characters
• Гайды: https://rentry.org/meta_botmaking_list | https://rentry.co/card_theory
• Боты анонов: https://rentry.org/2chaicgtavernbots | https://rentry.org/2chaicgtavernbots2 | https://rentry.org/2chaicgtavernbots3
• Бургерские боты: https://rentry.org/meta_bot_list

Ресурсы
• Бесплатные API: https://github.com/cheahjs/free-llm-api-resources
• Арена: https://beta.lmarena.ai/ | https://web.lmarena.ai/
• OpenRouter: https://openrouter.ai/
• Чай: https://character.ai/

Прочее
• Термины LLM: https://2ch-ai.gitgud.site/wiki/llama/
• База по Клоду: https://rentry.org/how2claude

Мета
• Архив тредов: https://rentry.org/2ch-aicg-archives4
• Тредовые ивенты: https://rentry.org/2chaicgthemedevents
• Реквесты ботоделам: https://rentry.org/2ch-aicg-requests2
• Локальные языковые модели: >>1448902 (OP)
• Шаблон шапки: https://rentry.org/shapka_aicg

Прошлый тред: >>1448695 (OP)
Пропущено 1511 постов
175 с картинками.
Пропущено 1511 постов, 175 с картинками.
Аноним 12/12/25 Птн 22:23:22 1453190
десантируемся отсюда, тредовчане.
Аноним 12/12/25 Птн 22:23:33 1453191
Аноним 13/12/25 Суб 07:32:46 1453474
>>1452940
Спасибо, анон. Гляну обязательно.
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов