1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это раздел преимущественно технического направления. Для откровенного NSFW-контента выделена отдельная доска - /nf/, эротика остаётся в /ai/. Так, порнография и голые мужики теперь отправляются в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1248519 Не знаю, что порекомендовать. У меня Q6 FP16 контекст. Возможно, дело в этом. Возможно, мы тупо играем по-разному. Я не придаю огромного значения маленьким деталям и не форсю их. У меня больше нарративно ориентированный стиль. Даже при этом я понимаю, что спэйшл аварнес у Коммандера слабее, чем у некоторых других моделей, но вот такого: > места меняются вещи появляются пенисы то в вагине то во рту по 5 раз за секс без уточнений смены позиций > снимать трусы дважды Ни разу не было.
>>1248481 Срал на твою библию кстати и ебал Иисуса в рот и в жопу, кончал ему на ебало и заставлял жрать своё говно вонючее после чуркистанской шаурмы. И вообще, что религиозный даун вроде тебя делает на ИИ доске? Ты хуесос? А может тебя мать душила трусиками и заставляла нюхать её пердежи? Почему ты уродился с таким диссонансом в башке?
>>1248490 Ответ типичного советского безбожника, или сын советских безбожников. Духовная и материальная нищета. Лучше сходи в приют, помоги нуждающимся в помощи, чем изливать злобу через интернет. Мда, не скоро ещё страна очистится от советского сумасшествия.
Попробовал переделать промт из тегов в описание предложениями, получилось это. Картинка вроде лучше, как и форма фигурок. Хотя они все еще выглядят как бутлег от дядющки Ляо из 2000х, но для недотренированной базовой модели это простительно, наверное.
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с ограничений, лимитов и банов, генерим пикчи в стиле Studio Ghibli и Венеры Милосской и обоссываем пользователей других нейросетей по мере возможности.
Общение доступно на https://chatgpt.com/ , бесплатно без СМС и регистрации. Регистрация открывает функции создания изображений (может ограничиваться при высокой нагрузке), а подписка за $20 даёт доступ к новейшим моделям и продвинутым функциям. Бояре могут заплатить 200 баксов и получить персонального учёного (почти).
Гайд по регистрации из России (устарел, нуждается в перепроверке): 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chatgpt.com/ и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Если попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей. Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
>>1242205 → >А о чем игра? Может там по тексту про политику было. Я же написал что в игре ничего об этом не было. Это вообще визуальная новелла фентези.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
Хз о чем вы спорите, с аргументами "у меня что-то там когда-то как-то работало а по-другому не работало" с 0 статистической ценности из-за кучи побочных факторов, и на этом строится вся дальнейшая аргументация и какие-то выводы. Че там с градиентами, дисперсиями, где какие фактические скорости обучения, особенно на обратных связях от дисперсии у адама, где он стабилизируется на своих дефолтных значениях в каком-нибудь блоке на одном уровне, и пока ты все остальное под уровень не подгонишь, все будет в разнобой учиться. А этих уровней может быть несколько, и они не подгонятся никогда... Потом еще моченые удивляются типа че это на их свертках адам посасывает у простого сгд. Все это конечно же никто не проверял. В одной и самых ебанутых нейронок с точки зрения разнородности уровней и блоков. В общем как обычно кидаясь умными терминами и строя из себя неебаться экспертов два долбоеба пытаются выяснить кто из-них больший долбоеб. Кхэм, так, куда это меня опять понесло... Сколько там параметров в свертках, поебать вообще. От того что их мало, пидорасить сеть при их неправильном обучении они меньше не будут. Нормализации, биасы, так вообще вносят основной вклад в разнос, если их криво учить, а сколько там у них параметров в процентах? Ну и вспомним историю с клипскипом сюда же. Если не умеем учить сильно отличающиеся параметры, они разъебутся. Если не будим их учить, сетка может и не разъебется, но найдет куда размазать сдвиги, и это хоть и будет работать, но хуже, ибо нахуя нам вообще тогда нормализации? Повезло кому-то что разъебался только последний слой, превратил после себя градиент немного в кашу, там может адам дальше придушил все это непотребство и с отрезанным слоем оно как-то потом работало.
>>1247143 >а альфа на градиенты никак не влияет, это коэффициент обновления весов, на который потом при инференсе ещё домножаются веса. Нет, альфа это напрямую множитель в разрезе потока активаций/градиентов. Можно представить его как множитель весов, инициализации, но не величины обновлений. Это уже косвенный эффект. Просто зажать лр даст очевидно другой эффект.
Так, а написать я изначально хотел про то, что я чет прочитал про ConvNeXt свертки вместо реснетов. Сначала я их не понял, а потом как понял... Хотя знал же что такое depthwise, но потом забыл. Короче в юнете обычные реснеты, а в каскаде уже сделали эти самые ConvNeXt, но правда только в латентном блоке. Видимо чисто в пикселях они может как-то хуевее работают. Но логика у них интересная. Там вообще нет этих ебучих гиперпространственных сверток. Отдельная большая свертка на каждый канал, чисто одноканальная, и отдельно потом единичные свертки, как обычная mlp-вставка "попиксельная". Типа свертка работает как пространственное внимание, а единичная как внимание к "памяти" модели. Ну вот эта интерпретация из трансформеров. А в реснетах вся эта хуйня смешивается в одну свертку, которую не разделить, не оптимизировать, и на ней даже адам начинает сосать, ибо по отдельным параметрам эти 2 функции которые взяла на себя свертка не делятся. Соответственно и натянуть лору на ConvNeXt было бы как нехуй делать, все бы работало сразу заебись.
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
______________ Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
собственно, 20 лвл, сделал нейронку, где можно задать любые параметры характера для нейро-девочки, говорит на любые темы по сексу не стесняясь в словах, ну я и подрочил на такое, могу ли я себя считать нейрофилом ? (к слову, это была лучшая дрочка за последний год)
>>1248411 > o3 pro наёбка, это параллельный инференс и выбор наилучшего варианта. Вообще говорят нихуя, на о1 так было, сейчас это "генератор отчетов" типа диприсерча, который высирает по 10к+ токенов.
Недавно в бредаче всплыл интересный тред посвященный генератору постов двача на основе ИИ. И генератор совершенно не хуйня и он вполне себе хорошо копирует слог среднего анона и даже превосходит его. "Аноны" метко подшучивают над опом и темой его поста и если развитие проектов такого типа продолжиться то каждый "анон" в сгенереном треде будет иметь свое мнение и личность и можно будет уже самому с ними посраться, появятся шизы. Хочу создать тред исключительно по данной теме, если это продвинется дальше то каждый сможет иметь свой офлайн двач с куклами, пони, бесконечными консолесрачами и постами в стиле того самого без всяких новомодных течений. Можно будет вернуться в любую эпоху и имитировать даже несуществующие эпохи двача типа если бы двач существовал при царе Рюрике, Сталине и тд. Все приведено естественно как пример. Также реквестирую в тред любые материалы по теме генерации борд в режиме реального времени если они у вас имеются.
Под БАЗУ нейрогенерации уже созданы номерные треды SD и WD+NAI. Меж тем, это всего несколько моделей, тогда как только на Фэйсе их более 112 тысяч. Этот тред для тех, кто копнул хоть немного глубже: необязательно до уровня обскурщины, выпиленной даже из даркнета, а просто за пределами того, что удостоилось своих тредов. ИТТ делимся находками и произведенными результатами.
Подскажите - как сделать норм камшот? Какие модели использовать и настройки? Видел, аноны делают норм, а у меня хуйня получается. Конкретно интересует img2img с inpaint, чтобы на фотках рисовать
аноны, подскажите, существуют ли чат боты, способные писать тебе вское доброе утро спокойной ночи как дела, автономно? типа не дожидаясь соо от пользователя, имея какой нибудь таймер или просто отслеживая твою активность с ними? желательно без затрат на подписки всякие. обычные боты не подойдут, нужны именно с автономизацией отправки сообщений
слушай, если тебе прям нужно, можешь со мной в дс связаться, я тебе добавлю таймер к своему вирт-боту, она мало того что будет тебе писать доброе утро и прочее, так же флиртовать с тобой, поднимая не только настроение
В этом треде обсуждаем нейронки генерящие 3д модели, выясняем где это говно можно юзать, насколько оно говно, пиплайны с другими 3д софтами и т.д., вангуем когда 3д-мешки с говном останутся без работы.
Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.
Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.
Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.
Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить его на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.
>>1239154 > Анонче, а есть гайды как подтюнить/дообучить inswapper модельку под конкретный сорс лица? На хабре была статья от сбера, там они запилили свою кастомную модельку с другой архитектурой. Чекни их гитхаб, может быть найдешь. Поисковики и бесплатные аналоги чатгпт в помощь, объяснят тебе все лучше любого кожаного мешка.
Из готовых инструментов, под конкретное лицо, только DeepFaceLab дрочить. Хотя энтузиасты что-то пыжатся с генераторами видео, возможно взлетит https://www.youtube.com/watch?v=HiDmMB5uiZY
> Поможет ли это с проблемой кривого еблишка под острыми углами? Только экспериментально можно проверить.
>>1241532 Не обращай внимание, это местный агрошиз, возможно мочехлеб.
мимо ОП первых тредов, запил форк simswap для cpu, и написал для него адаптированную методичку
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с ограничений, лимитов и банов, генерим пикчи в стиле Studio Ghibli и обоссываем пользователей других нейросетей по мере возможности.
Общение доступно на https://chatgpt.com/ , бесплатно без СМС и регистрации. Регистрация открывает функции создания изображений (может ограничиваться при высокой нагрузке), а подписка за $20 даёт доступ к новейшим моделям и продвинутым функциям. Бояре могут заплатить 200 баксов и получить персонального учёного (почти).
Гайд по регистрации из России (устарел, нуждается в перепроверке): 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chatgpt.com/ и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Если попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей. Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
Чат помнит историю в пределах контекста, размер которого зависит от модели. Посчитать свои токены можно здесь: https://platform.openai.com/tokenizer
Что может нейросеть: - писать тексты, выглядящие правдоподобно - решать некоторые простые задачки - писать код, который уже был написан
Что не может нейросеть: - писать тексты, содержащие только истину - решать сложные задачи - писать сложный код - захватывать мир - заходить на вебсайты (неактуально для 4 с плагинами, платим деньги и радуемся)
С последними обновлениями начинает всё чаще сопротивляться написанию NSFW историй и прочего запрещённого контента. Кумеры со всего мира в печали.
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он только для обмена реальными историями успеха, пусть даже очень локального.
Мой опыт следующий (golang). Отобрал десяток наиболее изолированных тикетов, закрыть которые можно, не зная о проекте ничего. Это весьма скромный процент от общего кол-ва задач, но я решил ограничится идеальными ситуациями. Например, "Проверить системные требования перед установкой". Самостоятельно разбил эти тикеты на подзадачи. Например, "Проверить системные требования перед установкой" = "Проверить объем ОЗУ" + "Проверить место на диске" + ... Ввел все эти подзадачи на английском (другие языки не пробовал по очевидной причине их хуевости) и тщательно следил за выводом.
Ответ убил🤭 Хотя одну из подзадач (найти кол-во ядер) нейронка решила верно, это была самая простая из них, буквально пример из мануала в одну строчку. На остальных получалось хуже. Сильно хуже. Выдавая поначалу что-то нерабочее в принципе, после длительного чтения нотаций "There is an error: ..." получался код, который можно собрать, но лучше было бы нельзя. Он мог делать абсолютно что угодно, выводя какие-то типа осмысленные результаты.
Мой итог следующий. На данном этапе нейрогенератор не способен заменить даже вкатуна со Скиллбокса, не говоря уж о джунах и, тем более, миддлах. Даже в идеальных случаях ГПТ не помог в написании кода. Тот мизерный процент решенных подзадач не стоил труда, затраченного даже конкретно на них. Но реальная польза уже есть! Чатик позволяет узнать о каких-то релевантных либах и методах, предупреждает о вероятных оказиях (например, что, узнавая кол-во ядер, надо помнить, что они бывают физическими и логическими).
И все же, хотелось бы узнать, есть ли аноны, добившиеся от сетки большего?
>>3223 (OP) Использую как консультанта в основном. Весьма успешно.
Например: Есть API в AWS, надо один эндпоинт сделать публичным. Чтобы пускал без ключиков и без авторайзер функции. Руками в интерфесе отключил отключил - нихуя не сработало. Пошёл спрашивать, какого хуя у гопоты. Сказал что не смотря на отображение новых настроек в интерфейсе, нужен редеплой.
Пара минут на всё про всё. Без этого - хуй знает сколько бы пришлось в документации копаться.
>>1242293 >Теперь книги и фильмы можно не только читать и смотреть, но и анализировать и разбирать. Бля, их уже можно писать вместе с ИИ. Или даже отдать сюжет на откуп ИИ и ролплеить. https://dreamgen.com/app
>>1244226 >писать вместе с ИИ Да уже их написано полно, хотя бы как-то прочитать ту часть что раньше было лень читать эти 300 или 400 страниц, а теперь их можно читать по схеме 1+10.
Сначала сжать книгу в 1 страницу, и быстро скопировать в файл1.md, а потом сразу, пока у робота не выветрилось из памяти, дать команду сжать в 10 страниц, и скопировать в файл10.md И вместо 200-400 страниц, прочитать всего 11 страниц. Сначала очень краткую выжимку в одну страницу, а потом более развёрнуто на 10 страницах.
Ну для книг объёмом больше, например 700 - 1000 страниц, значит схему изменить допустим сделать "5+30", сначала сжать в 5 страниц, и сразу потом в 30 страниц. Итого вместо 700-1000 страниц уже не так лениво будет прочитать всего 35 страниц краткого пересказа.
Ну я говорю про книги, которые ну там учебники, деловая литература, про бизнес, финансы, личный опыт, биографии миллионеров, мемуары успешных, такого плана книги или фильмы. Сжимать, делать краткий пересказ художественных фильмов или книг смысла нет, в этом жанре уже нужна вовлечённость, погружение, атмосфера, разве что если нужно быть в курсе какого-то шлака, который лень смотреть или читать, но все о нём говорят, типа поддержать разговор чтобы, тогда ещё имеет смысл для этого использовать краткий пересказ художественных фильмов или книг.