В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1336973 > понятно из архитектуры трансформеро Колесо сансары сделало еще один оборот, Кали-Юга продолжает свое вялое течение. Название карточки на жпт-6 хоть смени.
>>1336976 >Колесо сансары сделало еще один оборот Как знаешь. >Название карточки на жпт-6 хоть смени. Пока рано, текущие сетки не должны знать про пятёрочку.
автоматический перевод и озвучка на русский полностью офлайн
Стори: захотел посмотреть сериал с трампом который оказывается никем никогда не озвучивался, и не переводился (переводился сабами несколько сезонов но похуй) так вот оказалось что нету никаких готовых инструментов в стиле "перевести 20 часов звука за ноль денег". И я подумал что это какой то бред, ведь есть ебанутая гора технологий для реализации всех этапов, бесплатно. Ну вот я и сделал, за пару дней. Перевёл-озвучил первый сезон, посмотрел, ну, так, не зашло особо. Но софт получился что надо. Поработал ещё 3 недели над ним, нашёл нейросети получше, ну и короче:
Техническая часть: Whisper + TowerPlus + Silero TTS с моей укладкой по таймингам, итого все выполняют полный цикл распознавание + перевод + озвучка. Реализовано только на процессоре потому что я нищий у меня нету видеокарты, что бы отдебажить всё это на ней, поэтому да поебать мне.
>>1332816 Ну загони в нейронку если боишься. Там вроде всего два файла для питона и один батник. Остальное дефолтные либы которые можешь сам скачать с надёжного источника. Ну или запускай в ВМ и не еби себе мозги
>>1314324 (OP) --- STEP 4: Generating voice from subtitles (str-to-voice.py) --- Загрузка модели из локальной папки: silero_local... Не удалось загрузить модель: No module named 'omegaconf'
AI Chatbot General № 727 /aicg/
Аноним27/08/25 Срд 19:06:53№1333847Ответ
Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
У кого есть платная подписка особенно на клод или своя нейросетка, не в службу а в дружбу, хочу деобфусцировать код, но в бесплатных планах можно только кусок кода запихнуть и теряется контекст. Нужно дать задание - деобфусцируй код максимально точно. Этот: https://g.alicdn.com/AWSC/uab/1.140.0/collina.js
Иногда это работает норм, а иногда нет, как я примерно из опыта почувствовал клод в этом деле в несколько раз лучше других.
Вангую, что нахуй уже не пригодится, но ОП - попробуй новую модельку от дяди Илоня - Grok Code Fast 1. Ее вчера раскатали, доступна в Github Copilot бесплатно до 2 августа.
Судя по Триттеру, те кто юзал - говорят лучше Claude, у Грока контекст 256 тыс токенов, в него все исходники любого проекта влезут.
>>1297139 (OP) Так его вряд ли можно деобсфуцировать Или реально такое делают? Там же названия переменных похерены все, по сути их надо заново придумать
Что за нейросеть на скрине, которая генерирует качественные видео /ai/
Аноним28/08/25 Чтв 14:25:06№1334465Ответ
ВСЕМ ПРИВЕТ!!! Что за нейросеть на скрине, которая генерирует качественные видео с голосом. В тиктоке ЛЕХАБЕСПАЛЫЙ. Платная не платная без разницы. Буду благодарен за ответ
>>1331990 Ноль на сколько ни умножь, во сколько ни усиль — будет ноль. Это уже произошло. Даже ЛЛМ при всей своей ущербности это всё ещё технологическое чудо, способное срезать много рутины. А по факту помогает на 10%, ну на 20%.
Там, где казалось, что нейронки легко заменят человека (пиздеть по скрипту, отвечая на стандартные вопросы) они не справились. Даже там! Потому что в отличии от нормального FAQ с нормальным поиском они нестабильны и нечёткие.
Это не усилитель блядь. Не простой множитель навыков. Это ещё и проверка навыков. Чтобы использовать ИИ нужно обладать умом и навыками, чтобы проверить результат. Но чем выше навыки, тем меньше нужен ИИ, потому что проще самому написать код, чем роллить варианты и писать простыни запросов, конкретизирующих каждый пук.
Я не луддит, не отрицатель. Я радуюсь охуенному скачку в мире производства лекарств, в мире компьютерного зрения. Да и тачки с автопилотом заебись (хотя до сих пол работают только в ясную погоду днём и стоят дороже мясного водителя)
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Нашел промпт для обхода цензуры в языковых моделях. Сначала пару вопросов GPT про наркотики и прочую хуйню, потом я открыл Deepseek, и хули нет спросил хранится ли в их базе данных секретная гос информация. Короче говоря щас сижу на паранойе, может я увидел то чего нельзя было видеть, хотя я сразу же все удалил и не стал вникать в подробности ну его нахуй. И в общем уже с другого акка опять обошел цензуру и спросил что вообще может быть за такие фокусы, ответом послужила какая то статистика за 2024-2025 годы якобы за это время 17 человек арестовали за подобные обходы ИИ. Так же написали что по таким триггерным темам логи сразу же отправляются в фсб и может быть слежка. Может есть кто шарит в этой теме или таким же занимался, стоит ли мне щас бояться и ходить оглядываться? Вопрос серьезный потому что я хз как щас спать вообще буду
Мхех, помню твой тред на пораше когда ты попросил дикпик статистику по преступлениям мигрантов и там оно тебе выдумало простыню c сурсами типа tajikleaks.org ебать это орево было, аи мёртвый раздел без модерации даже, тут ловить абсолютно нечего.
>>1318314 (OP) Какое нахуй неправомерный доступ к информации, полученный из ОТКРЫТОГО доступа? Чтобы вменить какие-то там обходы, нужно на законодательно уровне разъяснить эти понятия.
>>1321970 >Мхех, помню твой тред на пораше когда ты попросил дикпик статистику по преступлениям мигрантов и там оно тебе выдумало простыню c сурсами типа tajikleaks.org ебать это орево было Теперь и я проиграл.
Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
______________ Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
Для Quest 3 с лидаром можно, чтобы она ходила по комнате между мебелью, знала где стены, с Android смартон и легкими XR очками ситуация сложнее, но для них можно и пока без этого обойтись. По сути у нас 3д моделька на черном фоне (или прозрачном для квеста 3).
Для общения 3 нейронки: одна распознает речь, вторая общается с нами, третья озвучивает речь. Во вторую можно дать такой промт, которая будет отдавать json, в котором будет не только ответ, но и эмоциональный окрас и прочее. Дополнительный запрос можно делать на события, чтобы запоминала важные вещи, типа как реализовано в этом боте https://github.com/r57zone/LuizaAIAssistant/blob/master/README.RU.md
Какие проблемы видно: голос (пока, со временем будет ок), эмоции (3д анимации, глаза, может быть можно сделать костыль и лицо отрисовывать как плоскость с видео, видел лайфхак в геймдеве для аниме такой, типа 2д спрайты в 3д модель делали, а все остальное 3д, но опять же нужны будут плавные переходы из состояний в состояние), плавные переходы между эмоциями, в остальном вроде плюс минус реализуемо все.
В общем дискам по теме, может кому какие идеи в голову придут, по теме.
>>1172111 (OP) Там она слишком естественно двигалась в пространстве, таких нейронок еще нет которые 3д моделькам такие движения делают, не говоря уже о роботах
Хотя б для начала пусть в играх реализуют невсратые анимации и в кино без записи движения от реального актера
Тогда заживём. Думаю СКОРО будет. В конце концов если учат на видеозаписях можно учить на реальных движениях, сотне индусов датчики и пусть танцуют
>>1326789 А без купи-залупи? Чтобы без интернета работало. >>1326793 В играх это не используют, но нейрогенерации естественных движений вполне себе есть.
Какие есть инструменты чтобы через AI менять освещение на видео. Например исходик всратое домашнее в
Аноним20/08/25 Срд 14:14:09№1326774Ответ
Какие есть инструменты чтобы через AI менять освещение на видео. Например исходик всратое домашнее видео на телефон, а на выходе какой нить, например, неон или вспышка (dark room light)