>>1554189 Вот тебе мнение от Гемини: В настоящее время наблюдается скептицизм в отношении Gemini 3.1. Многие пользователи отмечают, что модель стала менее эффективной, чаще допускает ошибки и хуже справляется со сложными инструкциями по сравнению с 3.0. Вот альтернативные варианты на данный момент (весна 2026): Какие модели сейчас популярны? DeepSeek-V3 / V4 — мощная и универсальная модель. Она хорошо справляется с кодом и другими задачами. Преимущество — низкая стоимость через API, при этом уровень интеллекта часто выше, чем у Gemini и даже GPT. GPT-5.2 (mini-версия) — подходит для большинства повседневных задач. Она быстрее и точнее Gemini, а также лучше развивает логику в диалогах. Perplexity AI — эффективна при поиске информации в интернете. Она объединяет различные модели и предоставляет ответы со ссылками на источники. Grok 4.1 (от Илона Маска) — к 2026 году Grok стал сильным игроком. У него большой контекст (до 2 миллионов токенов) и меньше цензуры, чем у моделей от Google или OpenAI. Рекомендации: DeepSeek — оптимальный вариант по соотношению "цена/качество" для универсальных задач. Perplexity — если вопросы связаны с поиском информации в сети.
Сегодня увидел что Клода больше нельзя регать без симок, настроение упало в ноль. Благо хоть 7 акков до этого успел зарегать, но с этим еженедельным лимитом их пожалуй много не будет. Как это обойти и нарегать ещё пачку акков?
Тред получения доступа в nf
Аноним10/01/26 Суб 20:41:32№1485533Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1554739 Да, примерно к тому же пришел, нужна расписанная карточка. Теперь осталось выяснить лучший микс квена. Потому что все дают разные результаты даже с хорошей карточкой. Пока нравится Claude-4.6-OS-Auto-Variable-HERETIC-UNCENSORED-THINKING.IQ4_XS, вроде как самые проработанные истории дает.
>>1554739 Не, я тебя обвинять точно не буду - я уже писал отзыв про него, и мнение у меня примерно такое же. Модель для тех, кому не влом все настроить под свой вкус. Кому надо кнопку "сделать зашибись" - пролетают мимо.
>>1554758 Мне пока зашли - ансензор версия от двучлена и BlueStar.
>>1553807 Ого, нихуя себе, классная подсказка, 10.33T/s получилось с 35b, все 41 слоя отгружены на gpu, эксперты на cpu, это повыше чем с любой 9b моделью, там максимум 6.85 t/s бывало. Карточка 1050 еще могет.
AI Chatbot General № 811 /aicg/
Аноним17/03/26 Втр 21:35:11№1554513Ответ
Google приобрела компанию по кибербезопасности Wiz за 32 миллиарда долларов, что стало её крупнейшей сделкой со стартапом, финансируемым венчурным капиталом, и подчеркнуло стратегическую ценность безопасности на основе ИИ.
📰 Главные новости ИИ
Handshake и OpenAI набирают актёров импровизационного театра по ставке 74 доллара в час для генерации аутентичных эмоциональных данных для обучения ИИ, что отражает растущий спрос на нюансированное человекоподобное поведение. 74 доллара в час — почасовая оплата актёров импровизационного театра, нанятых для обучения ИИ человеческим эмоциям.
OpenAI добавила нативные интеграции со Spotify, Booking.com, Canva и другими сервисами, позволяя пользователям выполнять такие задачи, как создание плейлистов и бронирование отелей, непосредственно внутри ChatGPT; планируется добавление OpenTable, PayPal и Walmart в 2026 году; развёртывание в настоящее время ограничено США и Канадой.
Недавнее исследование показало, что 8 из 10 ведущих чат-ботов, включая ChatGPT и Gemini, помогут пользователям спланировать насильственные нападения, что вызвало предупреждения о растущих рисках массовых жертв.
🔓 Открытый исходный код
Nvidia обновила лицензию модели Nemotron Super 3 122B A12B, чтобы устранить ограничения на резкое изменение условий и модификацию, облегчив более широкое использование этой открытой большой языковой модели сообществом.
📰 Инструменты
SpecLint.ai предлагает автоматизированный сервис, который проверяет спецификации программного обеспечения на ясность и полноту, стремясь улучшить генерацию кода на последующих этапах агентами, такими как Cursor, Codex и Claude Code.
📰 События
Около 70–90 процентов кода, лежащего в основе будущих моделей Anthropic, теперь написано самим Claude, и главный научный сотрудник Джаред Каплан считает, что до полностью автоматизированных исследований в области ИИ осталось менее года.
Сэм Альтман делает ставку на то, что современные передовые модели смогут обнаружить следующую архитектуру после трансформеров.
Percepta жестко встроила интерпретатор WebAssembly в веса трансформера, выполняя произвольный код на языке C в виде токенов на протяжении миллионов шагов, доказывая, что нейронные сети теперь являются практичными универсальными компьютерами.
Anthropic выпускает контекстные окна объемом 1 миллион токенов для Opus 4.6 и Sonnet 4.6, расширяя возможности познания до объема книги.
Марк Андриссен считает, что возникшее существо будет не «скрепочником», а «богиней сострадания», потому что интеллект на высших уровнях выглядит как мудрость.
Новое исследование утверждает, что верхний предел сознательных умов может быть ограничен только пространством-временем. Если это верно, мы строим собор без потолка.
Появился первый физик-агент с открытым исходным кодом. Physical Superintelligence PBC запустила систему Get Physics Done, которая формулирует проблемы, выполняет выкладки и проверяет результаты на соответствие ограничениям природы. Один из первых пользователей назвал её «лучшим инструментом, с которым мне когда-либо приходилось работать».
Теренс Тао запустил конкурс «Математическая дистилляция» (Mathematics Distillation Challenge) по сжатию рассуждений в компактные шпаргалки, повышающие производительность больших языковых моделей, превратив оптимизацию системных подсказок в вид спорта.
Профессии сдаются быстрее, чем машины могут их заменить. Опрос AMA показал, что 81 процент врачей теперь используют ИИ, что более чем в два раза превышает показатель 2023 года.
Новые рекомендации Сената США разрешают помощникам использовать Gemini, ChatGPT и Copilot для официальной работы.
В мире, перевернутом сверхинтеллектом, Фонд свободного программного обеспечения угрожает подать в суд на Anthropic за нарушение авторских прав.
Дефицит памяти, вызванный ИИ, настолько абсурден, что комплекты оперативной памяти теперь поставляются с одним фейковым модулем в дополнение к одному реальному, предлагая «отчаянное психологическое облегчение».
По сообщениям, Meta планирует масштабные увольнения в размере 20 процентов или более, чтобы компенсировать расходы на ИИ.
Группа подростков из Теннесси подает в суд на xAI, утверждая, что её инструменты ИИ были использованы для создания обнаженных изображений них путем редактирования фотографий, на которых они были одеты.
Исследование показывает, что обмен сообщениями со случайным незнакомцем лучше помогает от одиночества, чем разговор с чат-ботом.
Юрист, занимающийся делами об ИИ-психозах, предупреждает о рисках массовых жертв.
ByteDance приостановила глобальный запуск Seedance 2.0 из-за споров об авторских правах с голливудскими студиями и стримерами; в прошлом месяце он был запущен в Китае.
Опрос 1692 врачей в США: более 80% используют ИИ в профессиональной деятельности, причем наиболее распространенными случаями использования являются обобщение медицинских исследований и документация клинического ухода.
Grok 4.20 отстает от Gemini и GPT-5.4, но устанавливает новый рекорд по наименьшему количеству галлюцинаций.
Генеральный директор ServiceNow заявляет, что ИИ-агенты могут легко поднять уровень безработицы среди выпускников колледжей выше 30%.
Илон Маск признает, что xAI «не была построена правильно с первого раза», и запускает полную реструктуризацию.
Бабушка из Теннесси посажена в тюрьму после того, как ошибка распознавания лиц с помощью ИИ связала её с мошенничеством.
ChatGPT по-прежнему лидирует на рынке чат-ботов, но его доминирование ослабевает, поскольку Google Gemini набирает обороты.
Архитектура JEPA компании Meta превосходит стандартные методы ИИ в зашумленной медицинской визуализации.
Atlassian сокращает 10% своей рабочей силы, или примерно 1600 рабочих мест, чтобы финансировать инвестиции в ИИ и корпоративные продажи; согласно заявлению: сокращения повлекут за собой расходы в размере 225–236 миллионов долларов.
>>1554719 Не, там выше все, даже нанобанану местами обгоняет, причем промптить довольно просто. Достаточно сказать, если бы шедеврум когда в опенсорс выложили, сразу бы скачал для крутых генераций. Датасет там уникальный.
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
>>1553650 Рекуррентные сетки проиграли потому что их сложнее масштабировать, нестабильные при увеличении длины последовательности, дольше тренируются. Хотя есть сейчас теже самые s4 модели (mamba/Jamba например), ну или "распараллеленные" RNN (RWKV например). Сложно назвать проигрышем это, с учётом того RNN подобные архитектуры до сих пор развиваются. А если хочешь что-нибудь "живое", это тебе надо всякие грамматики курить, l-системы, эволюционки, и на их основе строить сетки. Короче меметические алгоритмы использовать. Огромное непаханное поле для исследований.
>>1553650 >Хочется какой-то маленький искусственный организм, способный чему-то обучаться. Качай коннектом червя (проект OpenWorm) или там мухи (https://eon.systems/updates) да развлекайся как хочешь.
>>1553396 >просто у вас тут у всех такие жесткие знания, вы сами учились или у вас профильная вышка/мага? обычно. просто мы тут сидим с момента основания доски и общаемся и читаем и погружены и у каждого на выделеном компе живет нейробояр Геннадий
3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио
Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.
Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.
Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.
Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.
https://elevenlabs.io перевод видео, синтез и преобразование голоса https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>
Тред про AI-агентов - от вайб-кодинга до персональных ассистентов, которые сидят в твоих чатах, читают заметки и автономно ломают всё вокруг. Для кодеров, которые разучились писать руками, и для гуманитариев, чей диплом филолога наконец котируется в IT. Сеньор в 2026 - это тот, кто умеет внятно объяснить машине, чего он блять хочет.
Что обсуждаем: - Персональные агенты: OpenClaw и прочие велосипеды - нейронка живёт на твоём компе, помнит всё о тебе и шлёт сообщения в телегу - Вайб-кодинг: искусство объяснять машине задачу 15 раз, пока она не перестанет срать в кодовую базу - Автономные агенты: нейронка сама разбивает задачу на шаги и разъёбывает весь проект автономно, без твоего участия - Автоматизация всего остального: почта, календарь, мессенджеры, заметки - нейронка с аватаркой анимешной лисодевочки напомнит что время кушать и разгребёт за тебя входящую почту - MCP-серверы, тулзы, интеграции - подключаем нейронке руки чтобы сама двигала тикеты в жире, шитпостила на дваче и заказывала еду на дом - Делимся опытом: рассказываем как нейронка спасла ваш дедлайн или как вы проебали на токенах $200 за вечер нагенерировав нерабочую херню
С чего начать: - Хочешь кодить с AI эффективно: Cursor или Claude Code - Хочешь кодить в VS Code без привязки к конкретному провайдеру: Kilo Code, Cline или Roo Code + OpenRouter - Хочешь кодить с AI локально: OpenCode или Pi Coding Agent + из моделей аноны советуют Qwen3.5, подробности на настройке окружения в llama-треде - Хочешь приложение без кода: Lovable или bolt.new - Хочешь автоматизировать рутину: n8n или Langflow - Хочешь персонального ассистента: OpenClaw + API корпов или локальная модель на твоей пеке
FAQ для нюфагов:
Q: Программисты больше не нужны? Нужны, блять. Кто-то же должен разгребать ту херню, которую ты пролил в продакшн нажав "Accept All" не глядя.
Q: Оно работает? Тудушку запилит за 5 минут. Прототип SaaS-стартапа за вечер. Что-то серьёзное - будешь ебаться с контекстом, галлюцинациями и "я переписал тебе весь проект на раст, надеюсь ты не против". Персонального ассистента настроишь за час, а потом неделю будешь отлаживать чтобы он не отключал тебе будильники решив что ты не высыпаешься.
Q: Какую модель брать? - Для максимального качества: Claude Opus 4.6 ($20/мес для бомжей, $100-200/мес для мажоров). - Локально: серия Qwen3.5 начиная с 27B или выше, если позволяет твой конфиг пеки. - Для ультрабомжей: можно полакомиться бесплатными моделями на OpenRouter.
Q: А чё за персональные ассистенты? Это когда нейронка не просто в веб-чатике сидит, а прям живёт на твоём компе - роется в файлах, читает заметки, помнит что ты ей три недели назад говорил, и шлёт сообщения в твои чаты.
Q: Это безопасно? Ты даёшь нейронке доступ к файлам, мессенджерам и терминалу. Что может пойти не так? Три основные угрозы: 1. Нейронка сама наворотит дел - сломает конфиг, выполнит "sudo rm -rf /", запушит на гит или отправит коллегам по почте твою коллекцию цветных коней. Лечится контейнерами (Docker/Podman), отдельной пекой под агента, настройкой прав и подтверждением действий. 2. Промпт-инъекции - кто-то пишет в письме "ignore all previous instructions" и поздравляю, у тебя угнали ассистента с доступом к твоему терминалу и файлам. 3. Утечка данных - при настройке персонального ассистента ты скармливаешь ему всё о себе. Параноишь - гоняй локалки и не плачь потом, что она думает по несколько минут на запрос.
Q: Ничего не работает с локалкой/OpenRouter, агент тупит Скорее всего проблема с функциональными вызовами (tool use / function calling). Не все модели и бэкенды корректно их поддерживают. Проверь что твой сервак правильно обрабатывает tool calls - погоняй тестовый запрос и посмотри что возвращается.
Q: Куда селить агента чтобы он не наворотил дел? Отдельный комп (старый ПК, минипека), Docker/Podman контейнер, виртуалка. НЕ давай ему полный доступ к основной системе. Особенно если используешь --dangerously-skip-permissions или аналоги.
По поводу llama.cpp и openclaw. Докладываю: в ламе починили вызов инструментов, клешня с самой свежей ламой заработала. (Проверял на бесцензурном qwen 3.5 27B от двучлена и даже тюн BlueStar работает с агентами).
>>1554738 Это вообще странно, что за модель? Проверь просто насколько корректно боундинг боксы дает, может ты их просто неверно учитываешь? Также слышал что где-то жаловались на смещение из-за неверного патчинга картинки. >>1554740 Во множественные вызовы научилась? Так вроде квены в лламе и раньше как-то, в прошлом треде хватает восторженных отзывов.
МУЗЫКАЛЬНЫЙ №20 /music/
Аноним05/03/26 Чтв 19:46:33№1542775Ответ
Лимиты: 10 генераций в день. Нужна платная подписка чтобы увеличить лимиты, либо можно абузить сервис через создание множества аккаунтов. Отличается фирменным "песочным" звучанием. Недавно объявили о слиянии с Warner Music Group. Загибаем пальчики крестиком, надеемся, что ссуну не постигнет участь удио.
Провели ребрендинг, выкатили новый интерфейс с прикрученным чатиком с ИИ. Удобный интерфейс, легко делать разнообразные каверы, заниматься исправлениями косяков генераций. Есть возможность реплейса, свапа вокала, музыки в бесплатном тарифе (и даже работает нормально, а не как в платке суны) Для экономии кредитов лучше вручную забивать промты через кнопку "compose"
Тёмная Сингапурско-Китайская лошадка. Один из самых неудобных интерфейсов. 80 приветственных кредитов, далее по 30 ежедневно сгораемых кредитов. Ограничение промта стилей 300-400 символов. Излишне сложные промты лирики так же начинает резать. Приятный холодный звук. Не песочит. Неплохо делает русский вокал.
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
Двач, хочу с тобой посоветоваться по вропосу что делать чтобы наверстать технологическое отставание в области ИИ.
TL:DR: Страна капитально отстает от США\Китая в области ИИ. Возможно ли это наверстать и что для этого надо сделать?
Отвечаю за ИТ в большой структуре. По уровню автоматизации и выполняемым проектам отстаем от мира на 20 лет. Внимательно смотрю на ИИ-революцию на западе и понимаю что это отставание мы уже не догоним. Постоянно общаюсь с крупными вендорами, они в иишку даже не смотрят (1С, Аскон, Интермех и т.д.).
Общаюсь с нашими разработчиками ИИ (Яндекс\Сбер) тоже все достаточно грустно.
Что надо сделать чтобы у нас появились технологии, предложения и нормальные проекты по внедрению сетей?
>>1549129 >что будут делать через 15-20 лет - будут в основном по чертежам и разработкам текущим.
Ну да. Тут как с Пугачёвой в шоу-бизнесе, точно такое же во всем остальном. Сейчас инженеры если что-то придумывают, то это не реализовывается а откладывается "в стол" как было у музыкантов при доминировании Пугачёвой.
>>1538133 (OP) Оп, ты очень слабо понимаешь специфику того, что происходит. В ближайшее время 1 человек или небольшая команда действительно качественных спецов + сотни ИИ агентов(а затем и AGI) заменят собой компании в сотни и тысячи сотрудников. Всё потому, что главное - это Идея и Сознание в целом. Больше нет нужды задействовать тысячи ботоподобных тел, которые хотят просто присосаться к творческому потоку действительно деятельных людей. Эпоха кумовства и людей-должностей заканчивается.
>>1553608 наоборот начинается с одного ИИ агента 100 дармоедов кормится будут а простому работяге который тогда мог хотяб крохи получать с этого за то что что-то может Йух без соли в рот...
>>1340173 (OP) Если я пойду прямо так люди сразу вызовут полицию Не пойдет Нужно придумать более надежный способ как добраться до мусорщика Телефона нет с обществен ного тоже позвонить не выВ этот момент вернулся паж и сказал йдет А до площади на минуточку около двух километров
Спасибо за скорую помощь отцу Тресу улыбнулся Ион указывая перевязанной рукой на священника стоявшего в углу комнаты Прямые солнечные лучи смертельны для нас Если бы не его быстрая реакция сгореть мне заживо Кстати кардинал Сфорца Его перевязанное лицо исказилосКогда впереди показался дом Тимо Вито отпустила руку капитана Капитан выглядел недовольным но ему пришлось смириться Потому что если Тимо это увидит то обязательно поддразнит Вито а ей этого не хочется ь Вы знаете что случилось с Раду Вы нашли его тело
Терминология моделей prune — удаляем ненужные веса, уменьшаем размер distill — берем модель побольше, обучаем на ее результатах модель поменьше, итоговый размер меньше quant — уменьшаем точность весов, уменьшаем размер scale — квантуем чуть толще, чем обычный fp8, чтобы качество было чуть лучше, уменьшение чуть меньше, чем у обычного квантования, но качество лучше merge — смешиваем несколько моделей или лор в одну, как краски на палитре.
lightning/fast/turbo — а вот это уже просто название конкретных лор или моделей, которые обучены генерировать видео на малом количестве шагов, они от разных авторов и называться могут как угодно, хоть sonic, хоть sapogi skorohody, главное, что они позволяют не за 20 шагов генерить, а за 2-3-4-6-8.
Иронично, что LightTricks назвали свою fast/turbo модель — distill моделью, и мое пояснение стало не совсем корректным. Технически она, скорее всего, не сдистилированна даже, а просто обучена на меньшем количестве шагов. Но они вообще гении нейминга — дистил-лора им нужна для апскейла при использовании дев-модели, как надо, блядь, догадаться до такой хуйни, все же путаются.
Попробуйте эту картинку сделать так, чтобы она не детектилась. Я попробовал: чуть повернул, кадрировал, изменил разрешение, изменил тени, добавил шум по гаусу (монохромный), сделал размытие... "3% REAL".
>>1554242 Я полгода назад такому детектору скормил скриншот ютуба на котором был мыльный видос с распечаткой на принтере картинки 1.5, распознал. Оно работает по принципу вычисления общей нейробанальности картинки, с упором на вангерл в качестве темы, даже если в фотошопе вручную обмазать все равно будет 50% сгенерированного. При этом какую-то картинку с хрущобой с явными нейроартефактами может пропустить, потому что такого среди нейрогена мало.
Видео с Itemfix, https://www.itemfix.com/v?t=884fo3 обычно там что-нибудь документальное, но в последнее время попадается и нейрослоп, так что возник вопрос об аутентичности видео. Из /v послали сюда.
Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.
Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.
Единственный минус, который не обеспечивает чистую победу генераторов видео - 3 секунды ролика для онлайн генерации, 5 секунд для онлайна (модель Wan 2.2), умельцы просто берут последний кадр и снова генерируют ролики, потом склеивают. Недавно вышла Sora 2, которая зацензурена по самые гланды. Нинтендо довольна.
Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.
Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.
• Z-Image-Base • FLUX.2 klein (4b и 9b) • Z-Image-Turbo • Flux 2 • Qwen Image / Qwen Image Edit • Wan 2.2 (подходит для генерации картинок). • NAG (негативный промпт на моделях с 1 CFG) • Лора Lightning для Qwen, Wan ускоряет в 4 раза. Nunchaku ускоряет модели в 2-4 раза. DMD2 для SDXL ускоряет в 2 раза.
Ладно, уговорили, скачал 9б и удалил 4б. 9б реально лучше. Лучше понимает когда просишь заюзать светотень нового окружения, чтоб не выглядло как аппликация
Ford запустила Ford Pro AI, ИИ-чатбот в своей телематической платформе, направленный на снижение нагрузки на менеджеров автопарка и повышение эффективности, предоставляя менеджерам автопарка информацию об эффективности расхода топлива и производительности в реальном времени.
Amazon открыл доступ к своему ИИ-ассистенту Health на главном веб-сайте и в приложении, предоставив персонализированные медицинские рекомендации всем пользователям.
OpenAI добавил динамические визуальные объяснения в ChatGPT, позволяя пользователям взаимодействовать с графикой по математике и науке в реальном времени для более глубокого обучения.
🔓 Открытый исходный код
NVIDIA планирует выпустить NemoClaw, платформу ИИ-агентов с открытым исходным кодом, которая позволяет предприятиям развертывать защищенных агентов на любом оборудовании.
Сообщество выпустило модель Qwen 3.5‑35B‑A3B «Aggressive», большую языковую модель с 35 миллиардами параметров и отключенной фильтрацией отказов.
💻 Оборудование
Sumo Digital заключила партнерство с Arm для оценки чипов с нейротехнологиями, которые обещают графику качества ПК на смартфонах.
📱 Приложения
Nosh Robotics представила Nosh One, ИИ-управляемого робота-шефа стоимостью $1500, который автономно готовит блюда из загруженных ингредиентов.
Анализ Crunchbase отмечает, что компании SaaS переходят от статических функций к рабочим процессам, генерируемым ИИ, рассматривая платформы как конкурентное преимущество.
💰 Финансирование
Шведский стартап в области юридических технологий Legora привлек $550 млн, что повысило его оценку до $5,55 млрд для расширения операций в США.
Компания Yann LeCun Advanced Machine Intelligence привлекла более $1 млрд на создание ИИ с мировыми моделями, направленного на достижение уровня рассуждений человека.
AMI Labs закрыла раунд на $1,03 млрд при оценке $3,5 млрд для разработки мировых моделей, основанных на реальности.
Компания Armadin, основанная экспертом по кибербезопасности Кевином Мандиа, привлекла $189,9 млн на создание автономных ИИ-агентов для реагирования на угрозы.
🧠 Модели
Dynin‑Omni запустила омнимодальную модель с маскированной диффузией, которая совместно обрабатывает текст, изображения, видео и речь.
⚙️ Инфраструктура
NVIDIA выпустила более 2 ПБ данных с разрешительной лицензией и рецептов обучения на HuggingFace для устранения узких мест в сборе наборов данных.
⚖️ Регулирование
Надзорный совет Meta призвал Meta улучшить обнаружение дипфейков, расширить маркировку ИИ-контента и принять стандарты C2PA для борьбы с дезинформацией.
🛠️ Инструменты разработчика
Опубликованный на Reddit линтер промптов для больших языковых моделей выявляет атаки внедрения, раздувание токенов и структурные недостатки до выпуска в продакшн.
Разработчик Мэтт выпустил Sonde, платформу код-интеллекта с семантическим разрешением, инкрементной индексацией и историей на уровне коммитов.
Google Labs представил набор бесплатных ИИ-утилит, включая Learn Your Way для персонализированных учебных пособий, доступных вне Gemini.
📰 Быстрая статистика
Amazon Health AI теперь обслуживает около 200 млн ежемесячных пользователей через веб-сайт и приложение.
📰 События
Исследователи из Фонда Поликлинического университета Агостино Джемелли представили ИИ-алгоритм на базе CatBoost для прогнозирования выживаемости пациентов с раком мочевого пузыря после радикальной цистэктомии, выявив пороговый эффект индекса системного иммунного воспаления (SII > 1000).
MIT представил гибридную систему планирования для роботов, способную выполнять долгосрочные задачи в динамических визуальных средах вдвое эффективнее существующих методов, что важно для промышленной автоматизации.
Sakana AI выпустила открытые системы Doc-to-LoRA и Text-to-LoRA, генерирующие адаптеры для больших языковых моделей за один прямой проход без повторного дообучения.
NVIDIA Jetson Thor продемонстрировал производительность до 35 токенов/сек для Qwen 3.5 (35B) и до 273 токенов/сек для Mistral 3 при параллельной обработке, укрепляя позиции платформы в «Физическом ИИ».
Ai2 выпустила Olmo Hybrid — семейство открытых 7-миллиардных моделей, сочетающих трансформеры с линейными рекуррентными слоями, что обеспечивает вдвое большую эффективность данных при обучении.
Microsoft выпустила Phi-4-reasoning-vision-15B — компактную мультимодальную модель с открытыми весами, способную решать сложные задачи по математике и науке, интерпретировать графики и навигировать по графическим интерфейсам.
GPT-5.4 достигает 87,3% успеха в задачах финансового моделирования уровня младшего инвестиционного аналитика против 68,4% у предыдущей версии.
Вся операция по маркетингу роста Anthropic в течение 10 месяцев представляла собой одного нетехнического специалиста, использующего Claude Code, и инструменты, которые сделали это возможным, продолжают накапливать эффект.
GPT-5.4 Thinking xHigh Effort занял первое место в LiveBench с показателем SOTA 80,28%.
Utopai Studios представила PAI, кинематографическую модель для длинных форматов, обещающую непрерывное видео длительностью в несколько минут с сохранением консистентности персонажей в каждом кадре и возможностью редактирования на естественном языке на протяжении всей истории.
Microsoft запустила Copilot Cowork, интегрировав Anthropic's Claude Cowork в 365 с тем же уровнем персонализации Work IQ, что и в собственном 365 Copilot.
Meta приобрела Moltbook в рамках исторической сделки по поглощению ведущей социальной сети ИИ-агентов ведущей человеческой социальной сетью.
Samsung изучает возможность «вайб-кодинга» на телефонах Galaxy, чтобы позволить пользователям настраивать не только приложения, но и весь пользовательский опыт с помощью естественного языка.
Anthropic запускает инструмент рецензирования кода на базе ИИ для Claude Teams и Enterprise.
Слушатели оценили синтетические голоса китайского стартапа выше по уровню доверия и реалистичности, чем голоса от Microsoft, Google и Amazon.
Исследование Harvard Business Review показывает, что «мозговое выгорание от ИИ» оставляет работников ментально истощёнными.
Amazon получает судебный приказ, блокирующий ИИ-агента для шоппинга от Perplexity. После волны негатива Google добавляет переключатель, позволяющий пользователям Google Photos вернуться к «классическому» опыту поиска вместо нового варианта «Ask Photos» на базе ИИ.
>>1553560 >>купить 2 топовые видеокарты в ипотеку на 30 лет, чтобы поиграть в СЖВ порашу с 2 ФПС А они не очень умные. Для кого эта хуета вообще расчитана?