>>1239449 → Ты забыл добавить про расстрел арбузов и забрасывания их гранатой, так как с этими генерациями тоже всё плохо)
>>1239526 → Ну да. Куда там лохам разрабам из Гугла (всего лишь мирового флагмана ИИ) до тебя анона сидящего на анонимном форуме в тредах которого постят дамочек с членами во рту. Расти им ещё и расти до такого гения))
>>1239571 → Всё так, во всех генерациях ассоциирует кувалду с глухим ударом по кирпичам, камням или дереву. Генерация звука ещё сырая. Хотя у конкурентов и такой нет)
>>1240311 (OP) Сап, объясните неофиту, у меня стоит Forge Webui и я генерю с него картинки локально на компе, хочу вкатиться в Wan Video, что по пунктам мне нужно качать?
>>1232093 → Ты сейчас ничего не можешь предсказать, даже когда железо сможет генерировать локально хорошие результаты. Возьми и освой пару онлайн-хуевин хотя бы на базовом уровне. Ну и задумайся о том, что в будущем скорее всего нужно будет хорошее железо. Что-нибудь в районе хотя бы двух топовых потребительских видюх или одной специальной, типа из серии RTX PRO, которая сейчас выходит. Или комп, созданный под ИИ непосредственно. Вряд ли все это будет дешево, исходя из текущего положняка.
А еще качай режиссуру и видение лучше, чем инструменты, скорее всего возможностей для генереации будет много и разных, и вряд ли они будут суперсложными. Вот только ты с ними не добьешься качественных реузльтатов, скорее всего. Сейчас нейронки генерируют случайный результат, который находится близко к запросу, но детали и точность всегда страдают. Решением, возможно, станут редакторы, которые сейчас используются для создания анимаций и фильмов. Blender, Unreal Engine. Думаю, на их базе с нейротехнологиями возможно будет что-то собрать более качественное, чем случайная генерация из шума. Скорее всего, дело дойдет до виртуальных актеров. Я вижу это так: создается декорация в движке, на не ставятся актеры, а потом нейрофильтрами это все до кинематографичности доводится, при этом остается глубина для редактирования сцены.
Но, опять же, как оно все будет развиваться, неизвестно, это просто предположения.
>>1240958 Сейчас после 6 сек всё ползет в говно, это ограничение архитектуры, пока не запилят что то принципиально новое кина не будет. Да и ты зря тратишь время на этого диванного пердуна. Нихуя он делать несобирается. Хотя бы потому что на нулевой раскрутке трепыхаться бесполезно. Я из принципа в это не вкладываюсь, за полгода уже норм видосов и клипов сделал, в целом просмотров минимум, это или дело случая что тебя хайпанет кто-то известный или надо идти кому-то очко лизать или спамить, ну короче как во всём. Такая диванная чмоня типа него не станет это делать всё.
>>1240958 > А еще качай режиссуру и видение лучше Факт. У меня есть возможности — но у меня нет идей и умения. Толку-то. А когда знаешь как поставить — получаются хорошие ролики даже сейчас.
>>1240311 (OP) Блять, аиноны, мне нужно сделать зацикленную статичную анимацию пикчи с морем, чтобы волны двигались, сука не могу найти где это сделать, половина аи говна стало платной, типа Лумы, вторая половина выдаёт говно, вы где-то ещё видели возможность зациклить видео в i2v?
>>1241324 Любой генератор поддерживающий режим start frame to end frame. Из шапки pixverse, wan и vidu могут это легко сделать, возможно даже в 720p. Самый простой способ - это использовать исходную картинку в качестве первого и последнего кадра.
Еще можно сделать интереснее в два этапа. Из исходной картинки сделать генерацию волн, из получившегося видео сделать скриншот последнго кадра. В режиме frame to frame использовать этот последний кадр в качестве первого, а в качестве последнего кадра использовать исходную картинку. Получится два видео, их склеить в одно зацикленное.
Тренируйся на vidu, там дают много кредитов при каждой регистрации. На pixverse и tensor.art можно задать конкртный seed, что теоретически позволит сохранить целостность при создании двух генераций.
>>1239418 → Ты забыл поди в промпт добавить, что и скамейка, и забор должны повреждаться. Робот же тупой и ленивый, ему не говорят - он и не делает. Зачем работать, если можно не работать?
>>1241702 Ну вот я пробовал первый и последний, оно часов 8 рендерилось, и выдало мне статичное виде где вообще ничего не происходит, но спасибо попробую со склейкой.
>>1240958 >Решением, возможно, станут редакторы, которые сейчас используются для создания анимаций и фильмов. Я считаю все эти блендеры отправятся на помойку за всей остальной киноиндустрией. Нейронки уже сейчас могут подменять человека, т.е. хороший нейронщик сам будет актёрствовать на камеру телефона, а потом подменять себя нейронным актером.
>>1240961 >Нихуя он делать несобирается. Собираюсь, я тыкаю палкой в камфи и пока осиливаю начальные гайды. И делаю я это ради себя, что бы реализовать свои нереализованные хотелки. Даже если осилю приемлемый уровень, очевидно что впереди меня будут профи, которые всю будущую индустрию и займут и которые уже давно в этом варятся. Впрочем сосировать будут все, из-за высокой конкуренции. Я сомневаюсь что нейронные фильмы будут "продавать", все уйдет в подписку и рекламу.
>>1242208 > блендеры отправятся на помойку за всей остальной киноиндустрией. ИИ будет как помощник, человек вместе с ИИ будут вместе что-то создавать, и так даже интереснее, чем тупо нажать на кнопку и сразу получить генерацию.
Причем любой сфере - дизайн, кино, музыка, кодинг, и т.д., вместе с ИИ работать интереснее.
Представь что человек это бригадир, и у него открыто во вкладках 10 ИИ-агентов рабочих, нужно снять допустим фильм, или рекламный ролик, у каждого ИИ агента-рабочего своя специальность, человек-бригадир раздаёт им задания, проверяет, говорит что исправить, дополнительно и сам тоже растёт и становится профи, это интересно. Если тупо жать на кнопку и копировать-вставлять результат, то это не рост, а будет деградация, падение.
Второй видос это Вео2 с наложенной звуковой дорожкой от неудачной генерации Вео3. Так как все видосы по одной теме делаются по одинаковому промту и Вео делает эти видосы достаточно последовательными, то перекидывать звук (весь или часть) между удачной и неудачной генерацией не составляет труда. В прошлом треде в некоторых моих видосах Вео3 звук и был сделан (например видос с эльфийкой в шапке этого треда).
ЗЫ: а вот для видоса чела в лыжах речь вообще делалась в генераторе речи Гугл студии. Неплохо бы им ещё отдельно сделать генератор звуков, чтобы менять неудачные звуки в видосе не генирируя для этого новый видос.
>>1241726 У меня пол промта было забито текстом о том, как красиво разлетаются скамейка и забор вместе с арбузами). В Вео3 неплохо сделали деформацию автомобилей, а вот со всем остальным. Например, пробивание пулей стекла осталось на уровне Вео2, то есть практически никаким.
>>1244150 Bytedance (создатели TikTok) тоже буквально на днях выпустили Seedance, который якобы круче Veo3 на бенчмарках для ИИ-видео, но не делает звук.
А появились нейросети которые самостоятельно делают красивые популярные видео из отпусков? типа им материал хуево снятый заливаешь а он нарезаетмилый ролик минут на 15?
>>1244150 >Predict Video2World Мы тут предсказываем как сиськи вывалятся из разных типов верхней одежды, да как хуй залетит в закрытый рот. >>1244161 Выглядит плохо, но вариативно. >~10x inference speedup through multi-stage distillation strategies and system-level optimizations. Seedance 1.0 can generate a 5-second video at 1080p resolution only with 41.4 seconds (NVIDIA-L20). Ох уж этот прорыв отдистиллированной в жопу модели на видеокарте за полмиллиона. Ещё и не опенсорс.
Что-то temporal extend или как там называют продление видео через vace совсем не extend. Может и выглядит чуть лучше, чем тупо брать last frame, но даже 50 кадров контекста нихуя не дают, человек не продолжает двигаться как двигался, эффекты видео пропадают (например, vhs фильтр) или генерируются совсем иначе, если их запромптить. И это на 14B модели. Анон, который любит позасовывать хуй в рот девкам на 12 шагах, с 0.5 козвид и кривой cfg, в воркфлоу все параметры осознанно выставлены? Хочу спросить и понять почему некоторые значения именно такие, а не другие.
>>1244348 >осознанно Да >почему 0.5 cfg для первого каусвида рекомендовали по дефолту, выше 0.6 пережаривает исходник. Остальные значения это просто промежуточные результаты тестов, я ищу баланс скорости/качества, так то и на 6 шагах часто можно получать неплохие результаты. Кривую можно заменить на "wanvideo cfg schedule float list" или убрать совсем и добавить accvid i2v + nag как в этом видосе. Если будет пережиривать картинку то accvid можно попускать, он и на 0.2 неплохо бустит картинку
>>1244838 >ты не понимаешь в чем слымсл обработки сырца с отпусков? У двачера сырец только под залупой, так как он моется раз в пару месяцев. Обрабатывают его обычно мылом и теплой водой.
>>1244506 А вот это прям хорошо, прям очень хорошо! 193 секунды для 7 секунд видео и с приемлемым качеством. Правда пришлось в WanVideo Model Loader квантизацию поменять на e5m2, по тому что я как понял 3090 с e4m3 не дружит.
>>1244235 >красивые популярные видео из отпусков? Типа приделать что жена в отпуске на морях с негром и турком загорает, а потом прислать мужу это видео. Аха.
Ребятки, подскажите пж, может вы знаете. Хочу сделать побольше порнухи со знакомой, но все сайты типа видео face swap ai платные либо дают 5 секунд видео сделать. Так вот и вопрос, есть ли где это можно сделать бесплатно?
>>1244506 Это понятно, кроме accvid, не пробовал его. У меня вопросы возникали зачем отключать блоки у лор, реально как-то помогает? Почему используется fast квантизация (fp8_e4m3fn_fast), разве она не херит качество, не давая ощутимого прироста скорости? Так много английских негативов, они вообще дали результат по сравнению с оригиналом, если смотреть тот же сид? Обращал внимание что повышенный ЦФГ выдаёт на первом шаге? Точно ли это улучшает? Про юнипц-бета не буду спрашивать, ты уже решил, что он хуже, тоже удивило почему не обычный юнипц, не видел такого у других. Чтобы ты понимал, я последнее время только и юзал твой воркфлоу без изменений, именно понять хочется. >>1245589 Конечно можно. Только не заливай клей пва в бак, есть другие жидкости.
Понемногу охуеваю с инпейнта. Реальный гем вэйса. Вот вам два воркфлоу. Это примитивный способ сделать маску через MaskEditor и предпросмотр. Для чего-то сложного можно попробовать совместить с segment anything. Лучше всего подходят видео, где руки всегда снизу. Хз как избавиться в сиськолоре с глитчем ебучих лямок, которые сквозь тело проходят, нередко оно снимает топ так, будто это приклеенный нагрудник. Алсо как давно появились нативные ноды Load/Save Latent? Они работают с Киджаем? Это же разъёб. Можно поставить генерить 2 шага, прийти обратно, оставить те, где хорошее движение и догенерить.
>>1245616 >У меня вопросы возникали зачем отключать блоки у лор, реально как-то помогает? Чаще нет, чем да. Автор лоры nsfw утверждал, что отключение помогает, я скорее заметил обратное > Почему используется fast квантизация (fp8_e4m3fn_fast), разве она не херит качество, не давая ощутимого прироста скорости? По моим тестам не херит качество от слова совсем, но дает небольшой прирост > Так много английских негативов, они вообще дали результат по сравнению с оригиналом, если смотреть тот же сид? С cfg1 негативы не работают, они просто фоном валяются, да и с кривой походу тоже. С NAG определенно работают, но лишь какие-то, например сперма стала реже пропадать когда я вписал "missing cum" и прочие. Думаю что конкретные по типу "черные волосы" на t2v и т.д. работать будут, а абстрактные на low quality и прочее скорее нет >Обращал внимание что повышенный ЦФГ выдаёт на первом шаге? Точно ли это улучшает? С causvid одной было вроде как получше, с accvid вдобавок уже начало пидорасить картинку поэтому я убрал его
Насчет семплеров - unipc и flowmatch пока фавориты. Кто-то еще писал что euler на высоких шагах лучше работает
Господа, знает кто-нибудь нормальные "сайты", который предоставляют облачные гпу-серваки, с оплатой из России без геммора, почасовой арендой, для нубов, можно даже с чутка преднастроенными образами (комфи), с нормальным выбором видях (кастомизацией железа) (в приоритете и по красоте консьюмерские видяхи 4060ti/5060ti/5070ti/)? В линухе не шарю. Что-то типа иммерса... Селектел в топку. Мне как бы потестить хочется... В планах что-нибудь купить. Всякие н100\а100 и прочие теслы не особо интересны. Да и 3090\4090 тоже не мои "клиенты" для "побаловаться" ???
>>1245651 Добавляется только то, что за маской. Такой же принцип как и в инпейнте картинок. Не самое подходящее видео, пришлось делать огромную маску, а сам тип вейс-преобразования простейший, нет даже контроля как должны двигать руки, это тоже как-то возможно сделать, но я хуй знает как точно, не пытался.
>>1245689 В самом верху где VHS? То ненужный кусок, с джокероцензурой. Просто грузишь видос, вытаскиваешь кадр, делаешь в нём альфа-дырку в которой и будет желаемый контент. Всё. Оно вытащит последний 81 кадр из видео, первые 16 кадров меняться не будут. В маске сгенерится то, что в промпте, если это не будет противоречить тому, что осталось за границами маски. Размеры маски и видео (наверное) должны совпадать, поэтому проще сначала подготовить видео и маску в другой вкладке.
>>1246112 На моей 4090 5 сек видео минуту генерит. 7 секунд пробовал - сильно хуже результат. Генерило 1:30. Вообще там еще скайрилс есть, который теоретически может работать лучше, но под него надо менять настройки лор видимо, с дефолтными не очень как-то. Зато там еще и 24 фпс есть из коробоки.
>>1246132 Казалось бы не большая разница, но у меня разрешение генерации меньше 512х512. А зачем ты используешь блоксвап? У тебя же все и так в врам помещается.
>>1246375 Обязательно поешь, 8 гб КРАЙНЕ мало. Надо дрочить GGUF и искать на civit воркфлоу под 8 гб, разбираться с оптимизациями и выгружать практически все в оперативу, если у тебя нет хотя бы 32гб озу то сразу забей.
>>1246395 >А зачем ты используешь блоксвап? У тебя же все и так в врам помещается. У меня до кучи вкладок открыто в браузере, без него иногда забивается. Оказывается, vace может работать как обычное i2v. Не уверен правда что в этом есть смысл, потому что вышло дольше в 1.5 раза, завтра потещу еще
>>1246405 Память чтобы влезало, чип чтобы быстро работало. Можешь купить 3080ти с 12, а можешь 4060 с 16, первая очевидно быстрее если все влезет. Но покупать 3080ти с 12, когда 3090 на 24 не многим дороже довольно глупо, даже если сейчас у тебя все влезает. Завтра выйдет новая хуйня и влезать перестанет во все кроме 5090.
>>1246607 >Ну вы поняли бизнес идею как прекол над корешем или тянкой, осталось лишь бота запилить и расфорсить Кажется статья есть за такое. Даже две статьи.
>>1247158 Сколько же шлака будет лет через 5-10. Они даже не стараются, не исправляют ошибки, видать конвейерным способом штампуют такие ролики на автомате.
>>1247158 Ты можешь мощными новыми нейронками делать такие 5 сек. куски на одну тему и склеивать их, как бы пересказывать несуществующий фильм, придумать сценарий, и в таком же стиле монтировать шортсы. Но это не так просто будет, наверное придется неделю тратить на съемку такого 2-х минутного шортса. Стоит ли оно того.
>>1246823 >молоко sd традиционно нихуя не знает о назначении груди и сосков в частности, попробуй сгенерить кормящую мать, так что-бы младенец сосал грудь, а не облизывал или ещё х.з что делал, это невозможно запромтить, все эти breastfeeding и breastsucking - просто пустые слова.
>>1247406 это удивительно, ведь столько референсов, да и на бурах этого полным-полно, но в sd этого не завезли почему-то) У меня получилось это сделать через рефайн pony>sdxl путём невероятного пердолинга в импаинте, только на одном сиде, через выделение фрагмента головы ребёнка с соском: ((sucking nipple)), всё-таки пони кое-что знает об этом, но опять же это исключение.
>>1247409 Ты больной? Весь класс гейп мерджей еще на 1,5 спокойно делал лактацию. Все понипроизводные и более поздние тюны без проблем делают лактацию. Всё названое делает так же и милк джетс и всё что душе угодно. То же касается и сосания/лизания. Иногда просто поразительно, насколько туповатые бывают аноны. И это всё, как водится, даже не начиная разговор о лорах. Что до анимации, то лоКАЛьно ван всё это нормально анимирует.
>>1247414 >То же касается и сосания/лизания. Иногда просто поразительно, насколько туповатые бывают аноны Слышь блядь, теоретик хуев, ты блядь сначала поебись с этим говном, а потом ебало раскрывай.
>>1247416 У меня в районе 2к подобного. На десятках моделей делал. Анимировал тоже много где, и на ване, на пиксверсе, пике, виду, клинге, да практически везде, где можно было пропихнуть. На клинге жидкости до сих пор конечно пососные.
Сап, а можно ли нагенерить простые видео эффекты, которые для видео заставок будут использоваться? Ну молния красная там на голубом фоне или сперматозоид с надписью Подпишись на наш канал летит. Я понимаю всё от модели завист, но какая для этого лучше? Я вижу Ван самый популярный и народный, но я кроме прона в нём ничего не встречал другого.
Стоит задача сгенерировать видео, на котором условный Ди Каприо (или любой другой известный актер/певец на мой выбор) будет поздравлять с днем рождения по тексту, который я передам. Какую нейронку для этого посоветуете? VPN есть. Саму нейронку хотелось бы бесплатную (или какой-то пробный бесплатный период), потому что сделать это надо один раз.
Старался высрать кринжовое шизоговно с "шутками" про говно и трансов уровня начальной школы? Напомнило сляпанный на деньги Суркова деградантский высер Ять тв, там тоже картинка на три головы превосходила ублюдское содержание. Старания в этом мире - ничто, результат - всё.
>Это тебе не хуи несовершеннолетним тиктокершам с молочными зубами в рот закидывать.
В этом контенте хоть какой-то смысл можно увидеть, в остичие от "сосовичка".
А я немножк проиграл с Сосовичка, потому что подумал, что в этот раз может быть что-то хоть чуток осмысленное. Но нет, автор мастерски разрушил ожидания в новой главе хоррора о своем внутреннем мире.
>>1248218 > Ну тут почти сосет уже, продолжай эксперементы Чтобы сосала сделать не сложно, вот чтобы сперма ей прямо в глотку летела с дистанции уже сложнее, видимо в лорах такого контента не было трень сам - кто, я???
Заморочился вопросом, можно ли делать с помощью AI полноценные клипы и не пора ли пилить своего виртуального артиста. В принципе можно, если чётко понимать куда потом свой контент заливать и как продвигать. Дрочился с нейронками по вечерам чуть более месяца, есть некоторый результат, более-менее смотрибельный. Использовал в основном kling и Hedra. Музыку и аранжировки делал в saSuno и Riffusion.