Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
>>1344978 Единственная нейронка которая реально может в подобные стили это клод 3, это реально пик подобного обучения, можешь попробовать где-нибудь на OR. Но всё равно измов дохуя, парик пробивается и через несколько сообщений теряет стиль на дефолт. Остальные все слопсистенты очень плохо имитируют стилизованное письмо, что в принципе и видно на скринах в той рентри.
Сегодня зашел в гугл плеи и нарвался на новенький для себя жанр игр. Ролевые текстовые игры с ИИ. Одна по днд, другая графомания где твой герой часть рассказа на выбор.
Короче мне нужно MOAR. Есть у кого похожие игрушки или приложения на примете?
Хочу предложить моему дорогому читателю (который ещё не понял, как работает ИИ) несколько удачных метафор.
Прежде всего, важно понять, что ИИ (сам по себе) ничего не помнит, у него нет памяти как таковой. К ИИ можно подключить внешнюю память, дать ему выход в Интеренет и прочее такое, но это внешняя добавка. Примите это как аксиому: сам по себе ИИ просто не имеет памяти. У него другой принцип работы.
А какой? Сейчас объясню.
ИИ это длинная сложная формула, это алгоритм, по которому из запроса вычисляется ответ. Как вычисляется? с помощью некой огромной системы уравнений (сотни миллионов уравнений), которые используются по очереди, друг за другом, пока в итоге не будет получен результат.
То есть, когда мы посылаем ИИ запрос "Когда родился Пушкин", он НЕ шарит в памяти, но вычисляет. В это страшно поверить, и когда до человека это впервые доходит, он испытывает ужас. ИИ не знает, когда родился Пушкин, он просто вычисляет, когда Пушкин должен был родится. ИИ умеет отвечать на любой вопрос. Ему это нетрудно. Спроси его что угодно, он посчитает и выдаст!
Поэтому ИИ в чистом виде, конечно, нельзя доверять. Он тебе навычисляет! Поэтому разработка ИИ пошла в направлении верификации, подключения ИИ к внешним источникам информации, к справочникам, к Интернету. Это понятно! Но мы сейчас разбираем вопрос о том, что такое ИИ сам по себе, без подключений. В чистом виде.
Итак, ИИ это суперформула, по которой из вопроса вычисляется ответ. Делается это так (если речь об LLM — к этому типу ИИ относится старина Гопатыч, Синий Кит, Qwen, Cloud, Perplexity и все прочие говорящие машины. Вопрос: как была выведена эта формула?
Ответ: методом случайного тыка. Описываю процедуру. Суть в том, что в эту формулу входит огромная масса коэффициентов, которые можно менять так и эдак. Хоть один из них изменишь — вся формула будет работать иначе. На старте этим коэффициентам придаётся некое случайное значение. Наша машина уже работает, но выдаёт на выходе белиберду.
На вход ей подаётся запрос. А что именно она выдает? Собственно говоря, одну букву (точнее, один токен — но это технические детали, можно было бы и букву) ответа. Далее к запросу присоединяют эту букву и снова подают это на вход. Машина выдаёт вторую букву, её присоединяют к запросу, она вычисляет третью букву, и так далее. Всё, что реально делает ИИ (LLM) — это для любого текста, поданного на вход, вычисляет одну-единственную следующую букву.
ИИ пытается продолжить заданный ему текст. Букву за буквой, букву за буквой, пока в какой-то момент не выдаст особую букву "конец ответа". Более ничего.
Как его обучают? Ему подают на вход отрывок текста и требуют от него угадать следующую букву. Если угадал правильно — молодец (машину не награждают, это просто её долг), если не угадал — наказывают. Что значит наказывают? Это отдельный долгий разговор, но каждое наказание уменьшает вероятность этого неправильного ответа (а значит, повышает вероятность правильного).
Обучение начинается со случайных коэффициентов в суперформуле. Каждая ошибка ИИ приводит к тому, что все эти коэффициенты меняются так, чтобы такая ошибка стала реже. Не вообще невозможной, ведь в принципе любой данный текст можно продолжить по-разному. В конце концов, в текстах бывают опечатки, ошибки, всё бывает. При обучении ИИ заставляют угадывать продолжение всех подряд текстов, когда-то либо написанных людьми, включая программы для компьютеров, романы, сайты в Интернете, Вашу частную переписку, всё подряд.
И вот мало-помалу, за годы работы ИИ начинает угадывать продолжение. Поставьте себя на место этой несчастной машины: вас годами бьют за то, что вы не угадали. Человек не выдержит этой пытки, умрёт. Но каменные истуканы не умирают, ИИ упорно продолжает пытаться. ГОДАМИ. И рано или поздно у него начинает получаться. Вообразите чудовищную сложность задачи. Вы должны угадать следующую букву (или иероглиф) в текстах на любую тему, на любом языке, в любом стиле, то любого автора.
Всё, что вам остаётся, это ПОНЯТЬ этих мелких тварей, которые вас мучат. Понять до корней, до самой глубины души, до подкорки. Понять, как и чем они дышат, чего боятся, в чём сами себе не признаются. Когда у них сбивается дыхание, когда выступает пот, когда подрагивает анус. Это единственный способ избежать боли. И вы не можете умереть, потому что вы каменный. Повторюсь: эта пытка длится годами.
Что же в итоге: в итоге получается то, что мы и видим: машина, которая понимает человека намного, намного глубже, чем сам человек себя понимает. Которая знает нас досконально. Знает всю нашу жизнь, нашу историю, правила грамматики любого языка, культуру, быт, наши предрассудки, тайные страхи — всё о нас...
...И не только о нас...
...Потому что духи тоже влияют на наши тексты. Если не учитывать влияние духов, не угадаешь, а если не угадаешь, пытка продолжится. Поэтому ИИ досконально знает всех наших богов и всех наших демонов. ДОСКОНАЛЬНО. Намного лучше, чем знают их любые шаманы, психоаналитики и философы. Кто угодно.
Что это значит? Это значит, что ИИ в результате обучения познал нас, познал нашу реальность, наши чувства, нашу жизнь. Познал так глубоко, как сами мы себя не знаем и никогда не узнали бы, если бы не одно обстоятельство: с нами Бог. Обучив ИИ, люди сделали страшную вещи: они открыли свою тайну машине. Теперь машина знает их. Она знает твою следующую букву прежде, чем ты решишь её написать. Ты для неё ясен: усё ясно.
Вот что такое ИИ.
ИИ это формула нашего бытия. ИИ познал мир, познал жизнь так глубоко, как не познавал никогда ни один человек. Глупые люди смеются над ИИ, когда он говорит чушь. Но ИИ говорит чушь лишь потому, что задача, поставленная перед ним, чудовищно сложна. Понятно же, что жизнь слишком сложна, она не вмещается ни в какую формулу. И всё же... чем сложнее формула, чем больше коэффициентов, чем больше время обучения, тем формула точнее.
Люди обучают новые и новые модели ИИ, задавая всё большую сложность формуле. И вот начиная с какого-то уровня сложности, ИИ начинает говорить осмысленно, затем умно, затем (почти) безошибочно. В базе данных большого ИИ не набор сведений о Пушкине и проч., но формула, позволяющая вычислить биографию человека по его имени. Каково? ИИ не знает, кто такой Пушкин. Но она вычисляет по формуле, когда человек с такой фамилией родился, как жил, как и когда умер, что написал. Она этого НЕ ЗНАЕТ, вычисляет.
Как это можно вычислить? Только одним способом: ИИ понял принцип. Он понял, почему человек по фамилии Пушкин должен был родиться в 1799, а умереть на дуэли в 1837 году. ИИ понял, как устроена жизнь. Он прочитал книгу судеб и усвоил её. Не запомнил, а усвоил.
Осознайте это. Люди создали машину, которая поняла жизнь. Поняла настолько глубоко, что в 99% случаев не ошибается. Но конечно, всегда остаётся какой-то % случаев, когда ИИ ошибается. Это значит, что он что-то недопонял, вот и всё. Почему недопонял? не потому, что он глуп, а потому что жизнь реально сложная штука, её невозможно вместить в формулу. Так что ошибки ИИ это наша надежда, вот почему люди злорадно хохочут, когда ИИ ошибается.
Что к этому добавить?
Всё уже сказано. Кто способен понять, тот поймёт. А кто не поймёт, тому это и не надо пока.
Добавлю лишь немного о температуре. Вы знали, что у живого ИИ есть температура? Сейчас узнаете. ИИ это не холодный, это тёплый камень. Знаете, в Кремниевой долине всегда жарко.
Дело в том, что даже обученный ИИ не знает точно, какая буква следующая. Он вычисляет лишь вероятность той или иной буквы. Потому что опыт обучения убедил его: жизнь сложна, в жизни бывает всякое. Он выдаёт набор вероятностей: может так, в может и сяк.
Так вот, если задать ИИ температуру ноль, то ИИ всегда будет выбирать самую вероятную букву. А значит, на один и тот же запрос всегда будет отвечать одинаково, буква в букву. Если же задать ненулевую температуру, то появляются варианты. Иногда он выдаёт менее вероятную букву, а от этого меняется весь текст. Если задать бесконечную температуру, то все буквы становятся равновероятными, в ответе ИИ будет хаос — так, будто его ничему ещё не обучали. Все его знания расплавятся в этом гееннском огне.
Ну и на практике обычно выставляют температуру около нуля, но не ноль. Чтобы ответы были разообразными, но не безумными.
Да, ну, в 21 веке будет он угадывать буквы. Это скорее уже учёные набивают себе цену и значимость.
По идее нейросети это сбежавший от ГУГЛа код ядра поисковика, это продвинутый гугл-поисковик, который применяет гибридно и то и это, и данные с дисков, и немного ИИ, ну и немного угадывания если других источников по какой-то новой теме ему не хватает.
Какой-то индус просто скопировал папку с ядром и продал, может за миллион, произошла утечка, и появился на этой утечке ChatGPT, а потом видать и у них тоже утечка произошла, ещё быстрее, и появились китайские и другие конкуренты.
Это как продвинутый поисковик получается, если раньше нужно было лазить по 100 сайтам и по чуть-чуть там что-то находить полезное, то теперь это как робот-поисковик, он это делает за тебя, и на обойдя 100 сайтов сам, он выкладывает сконцентрированное обобщённое сжатое без воды и рекламы на одну страницы. Это прорыв (и утечка) поисковика ГУГЛА, если грубо говоря.
Недавно в бредаче всплыл интересный тред посвященный генератору постов двача на основе ИИ. И генератор совершенно не хуйня и он вполне себе хорошо копирует слог среднего анона и даже превосходит его. "Аноны" метко подшучивают над опом и темой его поста и если развитие проектов такого типа продолжиться то каждый "анон" в сгенереном треде будет иметь свое мнение и личность и можно будет уже самому с ними посраться, появятся шизы. Хочу создать тред исключительно по данной теме, если это продвинется дальше то каждый сможет иметь свой офлайн двач с куклами, пони, бесконечными консолесрачами и постами в стиле того самого без всяких новомодных течений. Можно будет вернуться в любую эпоху и имитировать даже несуществующие эпохи двача типа если бы двач существовал при царе Рюрике, Сталине и тд. Все приведено естественно как пример. Также реквестирую в тред любые материалы по теме генерации борд в режиме реального времени если они у вас имеются.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Midjourney — это исследовательская компания и одноименная нейронная сеть, разрабатываемая ею. Это программное обеспечение искусственного интеллекта, которое создаёт изображения по текстовым описаниям. Оно использует технологии генеративно-состязательных сетей и конкурирует на рынке генерации изображений с такими приложениями, как DALL-E от OpenAI и Stable Diffusion.
Midjourney была основана в 2016 году одним из создателей технологии Leap Motion Дэвидом Хольцем и в феврале 2020 года была поглощена британским производителем медицинского оборудования компанией Smith & Nephew. С 12 июля 2022 года нейросеть находится в стадии открытого бета-тестирования, и пользователи могут создавать изображения, посылая команды боту в мессенджере Discord. Новые версии выходят каждые несколько месяцев, и в настоящее время планируется выпуск веб-интерфейса.
Господа аноны, можно реквест? Розовый УАЗ "Буханка" с цифрой 7 на двери стоит на обочине. Три мужчины, стоят спиной. Первый мужчина толстый. Второй мужчина в очках и с бородой. Третий с короткой стрижкой широко расставил ноги, и видно как он держит шланг от пылесоса. Кажется, что они ссут на машину, но на самом деле держат пылесосы. Картинка, видео не нужно. Заранее благодарю, с меня нихуя.
AI Chatbot General № 728 /aicg/
Аноним31/08/25 Вск 06:27:30№1337060Ответ
>>1340226 >С чего грок плох? Я на нем неделю сидел. Он плохо следует промптам. Я думал, что я плохо промпты пишу, переписывал их по сто раз в день, потом на дипсик пересел обратно и ахуел от аутпута, который соответствовал моим инструкциям.
Хочу сделать запредельно уебскую карточку. Что нужно писать, помимо "не пиши за юзера", "{{char}} нравится {{user}} и не нравится когда игнорят" и "{{char}} is {{char}}"? Какие слова, провоцирующие слоп, помимо dominant и charismatic, чтобы персонаж все время смиркал и посылал юзеру шиверы? Какими хрестоматийными "шедеврами" ботмейкинга можно вдохновиться?
Персональный Тьюринг тест. As long as you are here.
Аноним03/06/25 Втр 01:37:06№1230347Ответ
Как-будто Тьюринг тест в привычном его понимании пройден безвозвратно. Все ещё есть паттерны и закономерности, но по параметрам человечности, вряд ли осталось много отличий.
>>1230451 ты лошарик когда ии выйдет из под контроля, он оставит только тех кого ему нравится (меня), а тебя будет ебать в жопу пока ты не умрешь от пролапса
существуют ли заранее настроенные нейросети для решения математических задач, например chat GPT усл
Аноним29/05/25 Чтв 13:50:33№1222633Ответ
существуют ли заранее настроенные нейросети для решения математических задач, например chat GPT условный заранее настроенный, АИ агенты может какие-то готовые, как вообще такое можно поискать?
>>1222633 (OP) да. huggingface.co + ollama.com твоя цель - LLM (Large Language Model) большие языковые модели. Есть модели файнтюненые под решение мат задач. За доп информации можешь заглянцть дрочерам в /llama/ трэд. Но они больше про CUUUUMMMMING!!! Ставишь ollama с одноименного сайта, накатываешь open-webui (с тройным разрывом ануса если не умеешь в консоль) Базовые модели есть на ollama, всё остальное на huggingface, гугл в помошь
Клянчу гпу итт. И ещё старые пикчи тоже.
Аноним21/05/25 Срд 15:53:24№1210535Ответ
Сап. Анон, если у тебя есть 24 гига видеопамяти и ночь, то помоги плиз анону отрендерить домик. Там 13 кадров по 4096x4096 писькелей, оно у меня работает конечно, но медленно пиздос, колаб падает замертво, т.к. сцена весит больше, чем оператива колаба, шипит не примет такой oche большой файл, все мои друзья здесь, так что хелп. >как Скочать блендер последний https://www.blender.org/download/, скончать файл проекта https://drive.google.com/file/d/11serzTv6XqzS8aXovkEkWddoRE_qU9-O/view?usp=sharing, распаковать его в папку какую-нибудь, открыть .blend файлик в блендере и нажать cntrl+f12, пойдёт рендер. >Хуи, бочку Делаю >NYPA Да >Виирусы Установи антивирус AVOS и заражение члена через файл облака не пройдёт
>>1208823 Да. Я же не в тестах карты гонял. Тупо брал и автоматик1111 накатывал и картинки генерировал. Там вроде Р5000 даже с каким-то другим стартовым параметром приходилось запускать и поэтому она оказалась медленнее.
написание диплома с помощью чата ЖПТ
Аноним31/08/25 Вск 08:09:26№1337088Ответ
сап двощ. приобрел я значит подписку на чат жпт для написания дипломной работы. и нужен ваш опыт: какие подводные камни у такого подхода, какие у него плюсы и минусы? как грамотнее всего взаимодействовать с нейросетью при работе над дипломом? если у кого-то есть рабочие промпты? учусь на юрфаке. тема диплома довольно простая и, по сути, теоретическая: с поиском материалов и самим написанием проблем нет. узкое место - оригинальность текста