Кто желает следить за порядком на доске, чувствует в себе силы и готов принять на себя эту ответственность — присылайте свою анкету на [email protected]. В ней нужно рассказать о себе, сколько вы сидите в день на доске, указать свои посты, а также контакт в дискорде/телеграмме для будущей связи.
1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это раздел преимущественно технического направления. Для откровенного NSFW-контента выделена отдельная доска - /nf/, эротика остаётся в /ai/. Так, порнография и голые мужики теперь отправляются в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
>>1295676 Все что угодно же. Сейчас все топят за новый тип нейронок "агентов" что могут выполнять любые действия что ты им поручишь. Собрать статистику, сделать анализ, сыграть на бирже и заработать пару миллионов баксов. Играть вместо тебя в игори и петь песни. Можешь дать ей свои анализ крови и она поставит диагноз. Можешь сделать ее мастером в ДНД.
То что ты скачал это все хуета, нормальные нейросетки на домашнюю пеку не поставить та же Kimi K2 требует минимум терабайт оперативки, а она единственная что хоть что то может из локальных версий.
>>1295755 У них какая-то жопа была в эти дни, он писали о проблемах. Я охуел, когда запостил свои шедевры и не получил привычные сотни лайков от поклонников. Подумал, неужто плохо вышло в этот раз. Но нет, это хуета с сайтом.
>>1295794 >>1295804 >>1295818 Лору может не ту подключил (или вообще не подключил) проверь что она точно выбралась, и это должна быть не вторая версия лоры для t2v а первая.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1295780 Это будет детанционный двигатель так-то.
Но очень жаль что в реальности какой-то математик придумал какую-то манягипотезу, довольно простую, и решил её снабдив нейросеть всеми необходимыми подсказками.
А ещё до этого было решение этой этой гипотезы в открытом доступе, конечно нейросеть немного иначе это решила, но никто никаких пояснений не дал. Что очень странно, ведь это действительно прорыв.
Кажется нейродебилам опять в голову поднасрали, лол
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
______________ Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио
Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.
Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.
Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.
Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.
https://elevenlabs.io перевод видео, синтез и преобразование голоса https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>
А как заменяют текст в существующей песне на свой? То есть остается все как было и голос исполнителя и музыка, а меняется только текст на какой-нибудь матерный или смешной.
Что сейчас торговое для tts и stt? Хочу сделать себе бота-Харухи, нужно клонировать голос и потом синтезировать его из текста,который будет выдавать llm. Ну и распознавать голос соответственно тоже нужно
Проблема тупизны ИИ
Аноним# OP30/07/25 Срд 19:04:50№1293981Ответ
Меня последнее время очень сильно тяготит тема ИИ, программирования и так далее. И тут у меня встал такой вопрос: как мне что-то накодить если я нихуя не умею? Решился обратиться к DeepSeek, а он мне такой хуйни наговорил которой и в помине не существует что диву даешься. Нахуя вообще текстовые модели иногда по приколу пиздят? Нет чтоб сказать что я хуй знает как это делать, но нет, он выдумывает код и команды которых даже сука не существует. И наконец самое главное: как это фиксить? На просьбу не выдумывать он забивает хуй и продолжает ошибаться....
>>1293981 (OP) >как мне что-то накодить если я нихуя не умею? Если тебя эта тема привлекает, то что мешает просто взять и по-человечески выучить программирование?
>>1293981 (OP) >И тут у меня встал такой вопрос: как мне что-то накодить если я нихуя не умею? Изучи основы синтаксиса и спроектируй приложение желаемое (представь, какие функции там нужны, как оно в целом будет работать ). Потом проси ии генерировать по 1й функции и проверяй корректность этих функций, потом скомпонуй и ты победил, а если не победил, то надо исправить архитектуру, скорее всего.
Если что то в коде нейросети не понятно, спроси у нее и она ответит.
>>1294012 >>1293981 (OP) На самом деле человеческий мозг тоже так работает. У детей это заметно, что они всякую хуету несут, как языковые модели. Я так в инвестаче порой делаю.
Но в нашем мозге в конечном итоге может произойти осознание контекста, и понимание происходящего.
Не исключено, что даже не смотря на то, что они так задизайнены, в них как надстройку можно будет добавить что-то, что позволит им понимать мир по настоящему.
Исследования ИИ тред #3 /research/
Аноним13/04/25 Вск 22:51:56№1151064Ответ
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
>>1281474 Везде одинаково считается. Я про это писал выше. Делается обычный проход, только в обратную сторону и вместо параметров их транспонированные матрицы. Производные прям в расчетах вообще обычно возникают только по функциям активации. Если тебе нужно вычислять первую производную по одной конкретной текущей точки функции, где функция это вся нейросеть, то в принципе оно эквивалентно математически. Но только эта математика нахуй не нужна, она ничего не дает. В случае с вторыми производными вообще вся математика рушится и начинает расходится с реальностью. В лучшем случае оставаясь ее приближением/апроксимацией.
>>1281584 Ну короче я так и предполагал. Теоретически алгоритм кривоватый немного, но на матан ML-щики просто забивают и вытягивают за счёт гессианов, методов второго порядка или мощных оптимайзеров типа Адама. Спасибо бро. Просто пойми, я теоретик дохуя, я не критикую что типа вы все хуесосы, а я Дартаньян. Мне просто нужно знать теоретические ограничения метода и технологии. Вот я их и знаю теперь. Всем добра.
Я расковырял вопрос полностью. Докопался даже до оригинальной статьи РумельхартаХинтонаУильямса 1986го года (пикрил). Короче нет, у них всё нормально, а значит сегодня алгоритм нормально применяется, но нет, я не обосрался (не совсем точнее). Скажем так: и они правы, и я, т.е. у задачи теоретически есть два способа решения. Они сделали по одному, а я увидел, что есть второй. Знали они про второй? Вполне возможно, что да, но второй почти нереализуем на практике, он только в теории есть, так что вполне возможно поэтому они никогда о нём не заикались, а сразу всё делали по первому, который на практике реализуем. Такие дела.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>1294476 > Какая-то каша у тебя в башке. Я бы поотвечал на каждый пункт, но ты невоспитанный и категоричный, чувства такта нет, да и пост написан в ультимативной форме (я понимаю что тебе очень нужно чувствовать себя экспертом на анонимном форуме, но впредь держи себя в руках, мне лично твои "ря ты криворучка, просто дыши пук пук хрюк" неинтересны), я по таким правилам не буду играть. Добра, щастья, здоровья.
Двачую >>1294476 а ты >>1294488 слишком болезненно реагируешь на замечание по сути. > невоспитанный и категоричный, чувства такта нет, да и пост написан в ультимативной форме (я понимаю что тебе очень нужно чувствовать себя экспертом на анонимном форуме Вот этот пост >>1294449 много постулатов, никакой конкретики и примеров.
>>1294476 >Фид-форварды нужны для нелинейности трансформера, т.к. трансформер только трансформирует данные, в трансформере даже активаций нет. Нелинейность и в софтмаксе атеншена есть. Ну и чет с "Фид-форварды нужны для нелинейности" орнул. Типа, по твоему они нужны ТОЛЬКО для нелинейности? >Во всех тренерах, в том числе у кохи, по умолчанию фф не тренится. Пиздабол. ff_net адаптеры присутствуют для всех млпшек, в дефолтной лоре. >Для корректного обучения надо просто правильно обучать, ничего там не ломается при обучении фф/конволюшенов, если сделал всё правильно. И по классике ты нам конечно не расскажешь как правильно. Просто пук в воздух.
Так что реакция вполне оправдана. >>1294449 Впрочем, какие-то осмысленные выводы из изначального поста я не могу сделать. Настройку лр по слоям обычно просто так не делают, те же проекции атеншена частично впитывают в себя инфу вместе с ff, которая выбьется только другим устойчивым сигналом и переполнением емкости. Нахуя просто понижать лр для ff? То есть хочешь сказать, что нам надо усиленно тренить атеншн? Опять же, даже если мы треним только атеншн, проекции спокойно навпитают инфу как и ff. У меня одна из самых популярных лор одноранговая, на стиль, вполне хватает. Работает нормально. Про переобучение спорно, какого-то конкретного пайплайна и сравнений нет. Кароч, очень интересно но нихуя не понятно.
Ищу конфу по нейронкам
Аноним31/07/25 Чтв 21:55:48№1295018Ответ
Хочу сделать своюб нейронку обученную на текстах великих мыслителей(выкачаю оптом сабы с некоторых ютуб каналов и дам их для обучения)
Вот пример текстов которые в нейронку всуну: бульба престолов,Вихорьков,юрий нестеренко,Денис Чернухин,Абдуловера ну и прочие людишки смешные, мб ещё классики нафигачу и тд Просто кучу ткст файлов кинуть планирую надеюсь норм сработает
Собсна 2 темы 1)Как впринципен пользоваться гугл колабом чтоб такое сделать я ниче не умею, минимум интеллекта у меня 2)Норм ли это сработает каких людишек мне лучше ещё вставить? порекомендуйте чтоб интереснее вышли текста
меня тоже интересует такое кучу текста хочу закинуть в нейронку и чтобы она имитировала по запросу например вот закинуть да субтитры вихорькова и нейронка будет знать кто он вообще и я могу создавать чаты как бы с вихорьковыми и она на основе текстов будет вести себя как вихорьков
я думаю купить какойнибудь райзен со встройкой купить дохуища оперативки ддр4 ну например 128 гб и выделить 64 гига чисто как VRAM для встройки получится типа медленная видюха для ИИ приколов ну потому что настоящая мощная видюха на 64 гига будет стоить как милиард говяжих анусов а так хоть и медленно зато реально чтото достойное из моделей сможет запускаться
че думаете парни и насчёт софта напишите чё вы морозитесь понятно даже если идея хуйня допустим да но вы напишите всё таки как сделать интересно же ёпты бля
>>1295605 Да, качество норм, но работать с ним дальше сложновато будет. Я к тому что всякие флюксконтексты будут херачить каждую новую генерацию, так что исходнк нужен почётче что ли. Потом можно конечно поправить фейсфьюженом, впрочем его всё равно придётся использовать.
>>1295587 Так и собирался сделать, когда получу более годный исходник. Я именно хотел посмотреть работу локальных машин и тех кто в этом разбирается, а не вездесущих сервисов.
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с ограничений, лимитов и банов, генерим пикчи в стиле Studio Ghibli и Венеры Милосской и обоссываем пользователей других нейросетей по мере возможности.
Общение доступно на https://chatgpt.com/ , бесплатно без СМС и регистрации. Регистрация открывает функции создания изображений (может ограничиваться при высокой нагрузке), а подписка за $20 даёт доступ к новейшим моделям и продвинутым функциям. Бояре могут заплатить 200 баксов и получить персонального учёного (почти).
Гайд по регистрации из России (устарел, нуждается в перепроверке): 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chatgpt.com/ и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Если попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей. Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.
Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.
Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.
Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить его на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.
>>1293525 ну что формат и одно выбранное имя можно установить я понимаю, но мне нужно именно чтобы сохранялось имя целевого файла. У меня предположения только что надо как-то зависимости имен там настроить типа в таргете [name] и в output [name] тоже, чтобы одно из другого переносилось или что-то типа такого Спасибо не равнодушен и пытаешься помочь
>>1294024 Если не сложно и время будет, то покажи пожалуйста как сделать. Ебался по разному насколько есть понимание, так и не получилось. В любом случае спасибо за наводки