>>1402651 > Штраус Зельник: ИИ не сможет создать игру вроде GTA Тоже самое пиздели хуйдожники пару лет назад, когда визжали что ии не сможет создать красивую картинку. И где они сейчас?
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1399952 Ахх, сейчас бы туда, где тёплое солнце, белоснежный песок, ласковое море и друзья-подружки лисики-лисички. А не вот эта вот постылая серая "реальность". Спасибо за эту возможность свидеться с мечтой, анончик.
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он только для обмена реальными историями успеха, пусть даже очень локального.
Мой опыт следующий (golang). Отобрал десяток наиболее изолированных тикетов, закрыть которые можно, не зная о проекте ничего. Это весьма скромный процент от общего кол-ва задач, но я решил ограничится идеальными ситуациями. Например, "Проверить системные требования перед установкой". Самостоятельно разбил эти тикеты на подзадачи. Например, "Проверить системные требования перед установкой" = "Проверить объем ОЗУ" + "Проверить место на диске" + ... Ввел все эти подзадачи на английском (другие языки не пробовал по очевидной причине их хуевости) и тщательно следил за выводом.
Ответ убил🤭 Хотя одну из подзадач (найти кол-во ядер) нейронка решила верно, это была самая простая из них, буквально пример из мануала в одну строчку. На остальных получалось хуже. Сильно хуже. Выдавая поначалу что-то нерабочее в принципе, после длительного чтения нотаций "There is an error: ..." получался код, который можно собрать, но лучше было бы нельзя. Он мог делать абсолютно что угодно, выводя какие-то типа осмысленные результаты.
Мой итог следующий. На данном этапе нейрогенератор не способен заменить даже вкатуна со Скиллбокса, не говоря уж о джунах и, тем более, миддлах. Даже в идеальных случаях ГПТ не помог в написании кода. Тот мизерный процент решенных подзадач не стоил труда, затраченного даже конкретно на них. Но реальная польза уже есть! Чатик позволяет узнать о каких-то релевантных либах и методах, предупреждает о вероятных оказиях (например, что, узнавая кол-во ядер, надо помнить, что они бывают физическими и логическими).
И все же, хотелось бы узнать, есть ли аноны, добившиеся от сетки большего?
Двач, я топ 400 мирового рейтинга соревновательного мл, спрашивай свои вопросы. Планирую стать кагл грандмастером Девять лет опыта работы над разными задачами, так что могу пояснить буквально ща любую хуйню
>>1308340 (OP) Насколько шаришь за ллм? Есть ли сейчас в индустрии идеи, как бороться со слопом? Тот же оверфит весов из-за семплеров при rl трене. Как думаешь, есть ли вообще будущее у текстовых нейронок или они уперлись в стенку и корпы так и будут бенчмаксить без видимого перформанса?
Музыкальный №16 /music/
Аноним28/09/25 Вск 18:58:21№1368361Ответ
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
______________ Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
>>1395283 Айти это просто отрасль. Твой вопрос звучит как "вкатываться ли мне в автопром?". Среди автопромщиков есть и инженеры, зарабатывающие больше миллиона рублей в месяц, и лузеры, убирающие мусор на задворках последнего завода автоваза. Если тебя искренне увлекают компьютеры, вкатывайся, конечно, в айти хорошие возможности для таких как ты. Если тебя интерует что-то другое - ну, прикинь возможности в любимой сфере, и реши для себя какие там перспективы, и стоит заниматься этим, или же бросить взгляд на нелюбимое.
По своему опыту так скажу, все лучшие спецы с которыми я работал - это те, которые занимаются любимым делом. Но это не значит, что любое дело можно монетизировать. Мне повезло, и мое любимое дело перспективное, а потому спрашивать тебе, наверное, стоит не меня, раз ты сомневаешься.
> Новая архитектура Adamas предлагает радикальное ускорение механизма внимания до 4.4× быстрее, при сохранении качества даже на длинных контекстах (100k+ токенов). > Главная идея — отказаться от сравнения каждого токена со всеми. Вместо этого Adamas динамически выбирает 128 наиболее релевантных токенов для каждого запроса. Чтобы определить релевантность, применяется преобразование Адамара. Оно сглаживает распределение значений и переводит их в 2-битные представления, после чего сходство оценивается с помощью Manhattan-метрики.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>1403044 >Я уже вижу мутантские отростки на твоих пиках вместо них, не надо больше, я не фанат бодихоррора Какая нежная пуська, старательно игнорирует лимиты разрешения, 20 шагов и голый ген. Ну ладно, не хочешь как хочешь. >У тебя в прошлом посте латинка превратилась на половину в то что ты сейчас показываешь Это твои нейрон активейшены. Латинки разные бывают, загугли колумбиек или ники минаж. >Хуёво если ты не видишь этого, наверное просто уже привык к дженерик лицам XL и не отличаешь их. Это у тебя проблемы с определением т.н. этнисити. Глаз узкий - значит ру азиатка уиии хрююю, хотя вот допустим есть пикрел, даже интересно куда бы ты ее выписал со своим сломанным детектором. Хотя скорее всего тебе опять лишь бы доебаться и срач развести, рак треда.
>>1403048 >SRPO может в такой реалистик, что XL и не снилось Верим, я поверил. >Ну да, стили не нужны А причем тут стили? >на каждый стиль натреним лору Анимешизы так и живут. Основная модель должна сохранять универсальность и среднюю температуру по палате для когерентности.
>>1403112 >Анимешизы так и живут. У анимешизов даже древнейшая NAI, основанная на полторахе, знала тысячи стилей безо всяких лор. С тех пор положение только улучшалось. Вот если что-то уникальное нужно - тут можно и потренить.
AI Chatbot General № 753 /aicg/
Аноним23/10/25 Чтв 15:48:47№1397631Ответ
В этом треде обсуждаем нейронки генерящие 3д модели, выясняем где это говно можно юзать, насколько оно говно, пиплайны с другими 3д софтами и т.д., вангуем когда 3д-мешки с говном останутся без работы.
>>1397594 Потому что это сетевой фильтр, останови процесс и снеси. Много ты майнеров видел, у которых тупо блять в описании файла стоит урл ведущий на сайт создателя и кошелек для добровольной поддержки его деятельности?
Привет Двач, у меня пришла такая идея: создать мир где ты как бог смотришь на людей и можешь управлять всем. Сначала ты учишь первого нпс как ходить и все такое, потом настраиваешь так чтоб они учили самих себя (от начало времен, до наших дней). Если кто-то заинтересован, хотел б узнать что вы думайте на этом счете, или есть кто-то кто пробовал!
Такая возможность есть, можно сделать через Unity.
>>1395755 (OP) > Здраствуйте. Я, Кирилл. Хотел бы чтобы вы сделали игру, 3Д-экшон суть такова… Пользователь может играть лесными эльфами, охраной дворца и злодеем. И если пользователь играет эльфами то эльфы в лесу, домики деревяные набигают солдаты дворца и злодеи. Можно грабить корованы…
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №172 /llama/
Аноним14/10/25 Втр 21:23:00№1387128Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1395402 > добавили таки нового китайца в Жору Наконец-то будет что изучающе потыкать палкой. Шаблон еще буквально копия ChatML, только теги зачем-то заменили. Видимо, чтобы представить как свой собственный шаблон ¯\_(ツ)_/¯
Экспериментальный.В перспективе будет реформирован в "Тред онлайн-видео генераций" Создан с разрешения завсегдатаев раздела >>1388146 →>>1388111 →
Как вкатиться? 1) Зайти на https://sora.com с ОБЯЗАТЕЛЬНО ТОЛЬКО IP США или Канады (!). 2) Зарегать аккаунт, если еще нет. Лучше использовать нормальную Gmail почту. 3) Ввести инвайт код. 4) Генерировать, скидывая годноту в тред.
Где взять инвайт код? Либо на сторонних площадках по типу @sora_invite_bot в тг, в коментах канала n2d2ai либо ждать подачки от добрых анонов. После ввода инвайт кода вам дадут от 0 до 6 новых для приглашения кого-то еще по цепочке.
Как обойти цензуру? 1) Пробовать менять фразы, имена и в целом промпт. Описывать персонажей без личных имен чтобы не триггерить копирайт. 2) Роллить. Иногда из двух одинаковых реквестов подряд один цензуруется, а другой нет.
Какой лимит? Одновременно на одном аккаунте можно генерировать до 3 видосов. В день не более 30 штук.
>>1391707 а толку от этого говна, если там кодинг ассистент? или удалось джейлбрейкнуть его? подозреваю что после джейлбрейка довольно быстро блокнут... та и апишки нет
ИИ: "Если отношения с Соединенными Штатами не наладятся к концу осени этого года, тогда проэкт моста
Аноним18/09/25 Чтв 03:57:50№1357194Ответ
ИИ: "Если отношения с Соединенными Штатами не наладятся к концу осени этого года, тогда проэкт моста Аляска-Евразия следует передать Китаю и Соединенным Штатам (в обход России все равно не получится... ) пусть сами решают и строят переправу, соединяющую континенты. В проэкте бетонные платформы закреплены спиралями из цементных геоупаковок в металлической сетке, образующих клетку, связывающую дно и плавучую опору моста. Получается подводная башня, так же с возможностью размещения подводных турбин для самообеспечения. Ночного освещения подвесных ЖД и автомагистралей. А я еще и картинки умею генерировать.. 😁."