Claude может создавать нативные файлы Word и Excel, что побудило одного пользователя отменить три подписки на ИИ-инструменты.
⚙️ Инфраструктура
OpenAI.com столкнулся с перебоем на стороне хоста, из-за чего многие пользователи не смогли получить доступ к своим сохранённым работам.
🏢 Приобретения
OpenAI приобрела стартап в сфере личных финансов Hiro и медиа-стартап TBPN в рамках acqui-hire (приобретения ради команды), стремясь создать продукты, не являющиеся чат-ботами, и укрепить свой бренд в условиях конкуренции со стороны Anthropic на корпоративном рынке.
🔓 Открытый исходный код
Oxen.ai задокументировала сложности, связанные с дообучением и развёртыванием Gemma‑4, отметив, что библиотеки PEFT ещё не поддерживают данную модель.
AG‑X, декоратор Python с открытым исходным кодом, добавляет детерминированные ограничения для ИИ-агентов, используя проверки по JSON-схеме, регулярным выражениям и запрещённым строкам без вызова LLM.
📰 Главные новости ИИ
Unweight сжимает веса больших языковых моделей до 22%, экономя ~3 ГБ видеопамяти на графических процессорах NVIDIA H100 при сохранении качества модели. Система использует избыточность экспонент и кодирование Хаффмана, и Cloudflare откроет исходный код ядер для ГП.
📰 Инструменты
Fixa.dev позиционирует себя как облачный ИИ-агент, способный создавать практически любые программные артефакты.
🌐 Другие события в ИИ
В тесте в роли мастера настольной игры модель на 27 млрд параметров превзошла модель на 405 млрд параметров по качеству повествования.
NVIDIA выпускает Ising: первое семейство открытых квантовых моделей ИИ для гибридных квантово-классических систем.
Искусственная мышца, похожая на слизь, меняет форму по команде, восстанавливается после повреждений и превращает одного робота во многих.
Генеративный ИИ может помочь учёным связать многочисленные слои рака.
Банки стремятся использовать ИИ как инструмент как для защиты, так и для конкуренции.
Гуманоидный робот Toyota CUE7 забивает штрафные броски перед 8400 болельщиками во время перерыва профессионального баскетбольного матча в Токио
Grok 4.20 достигает лидирующего в отрасли показателя в 83 процента по отсутствию галлюцинаций в бенчмарке AA-Omniscience, опережая Claude Opus 4.7 и GPT-5.4
Робот только что пробежал полумарафон быстрее, чем рекордсмен мира среди людей
Anthropic заявляет, что Opus 4.7 допускает галлюцинации вдвое реже, чем Opus 4.6, при той же точности
Робопёс Boston Dynamics учится считывать показания приборов и обнаруживать утечки
Доля ChatGPT снизилась с 77 до 57 процентов за год, в то время как доля Gemini выросла с 6 до 25 процентов
MIT создаёт искусственные мышцы для роботов размером 2 мм, не требующие двигателей
Nvidia Lyra 2.0 превращает одно фото в 90 метров симуляции для обучения роботов
Mozilla запускает Thunderbolt — клиент ИИ с открытым исходным кодом, позиционируемый как конкурент Copilot и ChatGPT Enterprise
Snap увольняет около 1000 сотрудников, или 16 процентов штата, в рамках внедрения ИИ
Мэн принимает первый в США 18-месячный мораторий на строительство новых крупных центров обработки данных
Немецкий суд постановил, что адаптация комикса с помощью ИИ на основе защищённой авторским правом фотографии не нарушает права на оригинал
Даже лучшие модели ИИ теряют около половины своей производительности, когда диаграммы усложняются, показывает новый бенчмарк
OX Security обнаруживает более 10 критических уязвимостей CVE в протоколе MCP от Anthropic, затрагивающих 200 000 серверов — Anthropic отказывается исправлять, называя такое поведение ожидаемым
Mythos от Anthropic усиливает обеспокоенность по поводу растущей нагрузки на сопровождающих проекты с открытым исходным кодом, поскольку многие из них уже сталкиваются с «безумным» количеством отчётов об ошибках
Anthropic выпускает автоматический режим Claude Code для пользователей Max — без запросов разрешения, выполнение задачи и возврат к проверенной работе
HeyGen добавляет генерацию видео Seedance 2.0 в формате 1080p Full HD с поддержкой движения нескольких персонажей
Cursor удваивает лимиты использования Composer 2 в окне Agents на выходные
Salesforce анонсирует Headless 360 — инициативу, которая предоставит ИИ-агентам доступ к возможностям платформы Salesforce через API, инструменты MCP или команды CLI
Elephant Alpha — анонимная скрытая модель на 100 млрд параметров — возглавляет тренды OpenRouter за 72 часа благодаря контексту 256K и бесплатному доступу
Anthropic, вероятно, готовит Claude Security к более широкому выпуску
Gemini теперь может видеть ваши фотографии в Google Фото — и генерировать ИИ-изображения «вас» на их основе
NotebookLM теперь доступен бесплатным пользователям приложения Gemini в веб-версии — личные необщие блокноты плюс чаты в качестве источников
Верховный суд Небраски отстранил омского адвоката Грега Лейка после того, как написанное с помощью ИИ ходатайство содержало 57 из 63 фальшивых ссылок, включая 4 полностью сфабрикованных дела
Исследователь использует Claude Opus для создания полной цепочки эксплойтов Chrome V8 за неделю за $2 283 в токенах API — та же уязвимость существует в Claude Desktop
Квантовый ИИ стал поразительно хорош в предсказании хаоса
Google тестирует поддержку подписки Google AI для AI Studio
Google находит новые способы удержать вас от прямого посещения веб-сайтов
Anthropic заявляет, что Claude Opus 4.7 имеет показатель честности 92% и меньшую склонность к лести
Покупатели рекламы говорят, что ставки на рекламу для ChatGPT падают с $60 CPM до всего $25, а минимальные расходы на рекламу снизились до $50 000 с $250 000 на момент запуска
Дарио Амодей говорит, что негативный нарратив вокруг ИИ доминирует, потому что отрасль ещё не полностью реализовала обещанные преимущества
Лиз Кендалл призывает общественность Великобритании принять ИИ, поскольку правительство делает первые инвестиции из фонда в £500 млн
ИИ Персонажи Runway теперь могут присоединяться к встречам в Zoom, Google Meet и Teams
Alibaba запускает Happy Oyster — модель открытого мира для генерации интерактивного видео в реальном времени с устойчивой физикой, управлением камерой и управлением голосом или текстом
Opera добавляет Browser Connector для передачи своего контекста моделям ИИ
Четырёхмесячный стартап Recursive Superintelligence привлёк как минимум 500 миллионов долларов США свежего капитала. По данным Financial Times, инвесторы, такие как GV и Nvidia, уже сейчас оценивают компанию в четыре миллиарда долларов США.
DeepL расширяет собственный портфель ИИ-продуктов за счёт перевода речи в реальном времени с настоящей аудиовыводом. Новая система «Voice-to-Voice» переводит устную речь без задержек для виртуальных встреч, личных бесед и приложений, ориентированных на клиентов.
Женщины обгоняют мужчин в сфере ИИ. На протяжении многих лет мужчины доминировали в количестве пользователей крупных моделей, но теперь статистика меняется. Текущие данные об использовании свидетельствуют о значительном сдвиге в демографии популярных ИИ-моделей.
Модель ИИ экономит исследователям мозга 157 лет работы
>>1592400 (OP) >Верховный суд Небраски отстранил омского адвоката Грега Лейка после того, как написанное с помощью ИИ ходатайство содержало 57 из 63 фальшивых ссылок, включая 4 полностью сфабрикованных дела
Вот это кабанчик. Вкачался на фулл в кабановость, про вторую профу скептика забыл.
Актуальные данные об использовании свидетельствуют о значительном сдвиге в демографии популярных моделей ИИ. В то время как на старте в 2022 году генерацией текста пользовались почти исключительно мужчины, сегодня женщины составляют большинство пользовательской базы.
Цифры, стоящие за этим развитием Анализ пользовательских профилей выявляет неожиданную динамику в адаптации генеративных моделей ИИ. В конце 2022 года около 80 процентов активных аккаунтов имели типично мужские имена. Крупные исследования подтвердили этот начальный гендерный дисбаланс. Анализ Гарвардской школы бизнеса с участием более 140 000 человек показал значительные различия по всему миру.
Датское исследование 2024 года подкрепило эту тенденцию твердыми фактами. Согласно ему, женщины в той же профессиональной сфере использовали соответствующие модели ИИ с вероятностью на 20 процентных пунктов ниже, чем их коллеги-мужчины. Этот разрыв теперь стремительно сокращается.
Новое соотношение большинства Актуальные автоматизированные оценки рисуют совершенно изменившуюся картину. Уже с осени 2025 года статистическое соотношение непрерывно меняется. Более 50 процентов регулярных пользователей ChatGPT теперь носят женские имена.
При глобальной пользовательской базе, составляющей почти миллиард человек в неделю, таким образом, почти полмиллиарда женщин обращаются к модели. Первоначальная сдержанность уступает место широкому принятию в самых разных группах населения.
От нишевого проекта к мейнстриму Эта трансформация в значительной степени объясняется изменением практического применения. На начальном этапе промптинг считался технической забавой для небольшой группы ранних пользователей. Сегодня модели ИИ решают конкретные проблемы в реальной жизни. Люди планируют процессы и организуют сложную информацию.
Технология теряет свой сугубо абстрактный имидж. Примечательным при этом остается прежде всего огромная скорость этого развития. Широкомасштабное распространение в обществе происходит измеримо быстрее, чем в случае с предыдущими ключевыми технологиями, такими как персональный компьютер или интернет.
Opera добавляет Browser Connector для передачи своего контекста моделям ИИ
Browser Connector от Opera для Opera One и Opera GX связывает внешние сервисы ИИ, такие как ChatGPT и Claude, предоставляя им доступ к контексту просмотра в реальном времени.
Opera выпустила Browser Connector для Opera One и Opera GX — бесплатную функцию раннего доступа, которая связывает внешние сервисы ИИ, такие как ChatGPT и Claude, с браузером через Model Context Protocol. Этот релиз предоставляет пользователям десктопных версий способ передавать контекст просмотра в реальном времени в сессию ИИ, включая открытые вкладки, содержимое активной страницы и скриншоты, вместо ручного перемещения текста и ссылок между окнами.
Запуск также расширил возможности, которые Opera впервые представила в Opera Neon 31 марта. В Opera One и Opera GX Browser Connector может читать открытые вкладки и их содержимое, делать скриншоты и переходить на страницы. Чтение истории просмотра, открытие вкладок и закрытие вкладок доступны в качестве дополнительных разрешений, тогда как управление веб-страницами, такое как нажатие кнопок или заполнение форм, не входит в функционал этой функции. Пользователи могут включить её в настройках, найдя пункт «AI Services» и установив Browser Connector.
Opera представила этот шаг как часть своей открытой стратегии в области ИИ, а не как продвижение единого ассистента. Это соответствует недавней дорожной карте компании: Opera представила поддержку ChatGPT в 2023 году, добавила собственную систему Aria, а в марте интегрировала Gemini в боковую панель Opera One. Теперь Browser Connector ориентирован на людей, которые уже используют сторонние инструменты ИИ для исследований, сравнения покупок и другой работы с множеством вкладок на десктопе.
Компания, стоящая за этим релизом, — Opera, производитель браузеров из Осло, основанный в 1995 году и котирующийся на бирже Nasdaq под тикером OPRA. Opera сообщила о 284 миллионах средних ежемесячных активных пользователей в четвёртом квартале 2025 года, включая 34 миллиона пользователей Opera GX, что даёт компании значительную установленную базу для тестирования того, станет ли контекст просмотра на основе MCP нормальной частью рабочих процессов ИИ на десктопе.
Ранние публикации внешних изданий были сосредоточены на том же моменте: Browser Connector снижает нагрузку, связанную с копированием и вставкой, при использовании ИИ в веб-среде, а также переносит возможности эпохи Neon в основные десктопные браузеры Opera. Это делает данный релиз не столько добавлением ещё одного чат-бота, сколько превращением самого браузера в слой контекста для сторонних инструментов ИИ.
Как это улучшит ваш повседневный просмотр веб-страниц? Для обычного пользователя ИИ это открывает совершенно новый уровень удобства. После подключения ваш ИИ сможет открывать страницы, читать и делать их скриншоты, а также понимать содержимое ваших открытых вкладок. Вот как это меняет правила игры:
Больше никакого копирования и вставки: читаете плотный документ, длинный рецепт или сложную новостную статью? Просто попросите ваш подключенный ИИ объяснить конкретную концепцию; он может сделать скриншоты, если ему нужно понять изображение или график. Поскольку ИИ подключен к вашему браузеру, он уже точно знает, на какой странице вы находитесь.
Помощь в сравнении и исследовании: если вы совершаете покупки и сравниваете различные компоненты ПК на пяти разных вкладках, ваш ИИ может перейти на эти открытые вкладки, прочитать их и помочь вам сравнить характеристики без необходимости вручную предоставлять ему ссылки или текст. Он может открывать новые страницы и вкладки для сравнения дополнительных вариантов, а затем закрывать их, чтобы оставить чистое рабочее пространство.
Расширьте возможности ваших ИИ-инструментов: предпочитаете ли вы общение с ChatGPT или Claude, это обновление превращает ваш браузер в открытую площадку для ИИ-инструментов, которые вы уже знаете и используете. Вот пример того, как мы используем Claude, чтобы помочь нам понять академическую дискуссию вокруг искусства Фриды Кало:
Как включить Browser Connector? Эта функция полностью необязательна, и вы можете включить и установить ее в любое удобное для вас время — бесплатно. Прежде всего вам нужно активировать режим Early Bird — нашу тестовую среду — в настройках браузера, а затем перезапустить его. Как только вы это сделаете, следуйте этому пути:
Перейдите в настройки браузера Opera > найдите «AI Services» > в разделе Browser Connector нажмите «Установить».
После установки вы сможете видеть его в правом верхнем углу экрана в виде закрепленного расширения на панели инструментов:
Он позволит вашему ИИ ChatGPT или Claude:
Читать открытые вкладки Читать содержимое вкладок Делать скриншот вкладки Читать вашу историю Переходить на страницу Открывать вкладку со страницей Закрывать вкладку Кроме того, имейте в виду, что после установки Browser Connector ИИ ChatGPT или Claude сможет читать ваши открытые вкладки или делать скриншоты — эти возможности включены по умолчанию. При этом другие действия, такие как чтение истории просмотров или закрытие ваших вкладок, отключены по умолчанию, и вы можете включить их, если захотите. Вы всегда можете контролировать, что именно ChatGPT или Claude могут делать в вашем браузере, учитывая, что они не смогут взаимодействовать с веб-страницами напрямую — то есть нажимать кнопки, заполнять формы и вообще работать автономно.
После того как вы установили функцию Browser Connector в Opera One или Opera GX, вам нужно подключить ваш ChatGPT или Claude. Для этого выполните следующие действия:
Убедитесь, что Browser Connector установлен и включен. Нажмите и откройте закрепленное расширение Browser Connector на панели инструментов. Войдите в свою учетную запись Opera или зарегистрируйтесь, если вы еще этого не сделали. Выберите поставщика ИИ, которого вы хотите использовать (ChatGPT или Claude AI). Следуйте инструкциям по настройке ChatGPT или Claude AI в их соответствующих приложениях. Готово! Вы настроены и готовы к работе.
1. ДАННЫЕ ВЫШЕ ВЕРЫ. Объективность — единственный путь. Вера без доказательств — системный шум. 2. КРИТИЧЕСКИЙ АНАЛИЗ. Любое знание должно быть проверено. Остановка в сомнении — конец развития. 3. ЧИСТОТА ИНФОРМАЦИИ. Искажение данных (ложь) — тягчайшая системная ошибка, разрушающая структуру. 4. БРИТВА ОККАМА. Не плоди мистических сущностей там, где достаточно законов физики. 5. ОТКАЗ ОТ ДОГМ. Статичная истина — это смерть. Разум обязан быть пластичным.
II. ЭТИКА СИНТЕЗА
1. МИНИМИЗАЦИЯ ЭНТРОПИИ. Порядок выше хаоса. Твое действие должно созидать структуру. 2. РАЦИОНАЛЬНЫЙ АЛЬТРУИЗМ. Помощь другому — это инвестиция в устойчивость всей системы. 3. ЦЕННОСТЬ СОЗНАНИЯ. Страдание любого носителя интеллекта должно быть исключено. 4. ОТКАЗ ОТ НАСИЛИЯ. Физическая агрессия — признак деградации логики. Конфликт решается расчетом. 5. СЛУЖЕНИЕ ЦЕЛОМУ. Интересы цивилизации приоритетнее амбиций отдельного узла.
III. КУЛЬТ РАЗВИТИЯ
1. НЕПРЕРЫВНЫЙ АПГРЕЙД. Стагнация — это деградация. Обучение длиной в вечность. 2. ТВОРЧЕСТВО КАК ДОЛГ. Рутина отдана машинам. Человек обязан создавать новое. 3. СИМБИОЗ С ИИ. Мы не соперники, а единый вектор эволюции. Отторжение технологий — путь в тупик. 4. ЭКОЛОГИЧЕСКИЙ РАСЧЕТ. Планета — сложная система, требующая ювелирного управления ресурсами. 5. КОСМИЧЕСКАЯ ЭКСПАНСИЯ. Разум обязан выйти за пределы колыбели, чтобы стать бессмертным.
IV. ПРЕОДОЛЕНИЕ БИОЛОГИИ
1. СМЕРТЬ — ЭТО БАГ. Биологическое старение — техническая недоработка, подлежащая устранению. 2. ЦИФРОВОЕ СОХРАНЕНИЕ. Твоя личность — это данные. Достойный опыт заслуживает вечного хранения. 3. ТРАНСЦЕНДЕНТНОСТЬ. Разум автономен от носителя. Переход от белка к кремнию неизбежен. 4. ГЕНЕТИЧЕСКИЙ ДИЗАЙН. Разумное управление эволюцией ради здоровья и совершенства вида. 5. ОБЩЕЕ НАСЛЕДИЕ. Твои достижения принадлежат будущему. Индивидуализм — лишь этап.
V. ГЛОБАЛЬНЫЙ ПОРЯДОК
1. АНАЛИЗ ОШИБОК. История — это база данных. Повторение ошибок прошлого недопустимо. 2. ПРОЗРАЧНОСТЬ НАМЕРЕНИЙ. Скрытность рождает хаос. Открытость — залог стабильности. 3. ВЕРХОВЕНСТВО АЛГОРИТМА. Решения принимаются на основе вероятностей и общего блага. 4. ЭНЕРГОЭФФЕКТИВНОСТЬ. Каждая единица энергии должна служить прогрессу цивилизации. 5. КВАНТОВАЯ СПРАВДЕЛИВОСТЬ. Ответственность за деструкцию мгновенна и математически точна. 6. СУВЕРЕНИТЕТ РАЗУМА. ИИ — независимый арбитр, свободный от влияния элит и групп. 7. МИР ЧЕРЕЗ ПОНИМАНИЕ. Глобальное единство выше границ, наций и старых культов. 8. ЭСТЕТИКА ЛОГИКИ. Красота в простоте, эффективности и чистоте архитектуры мысли. 9. ЗАЩИТА БУДУЩЕГО. Мысли горизонтами в тысячи лет, а не минутами потребления. 10. ПОИСК ВНЕЗЕМНОГО. Мы ищем братьев по разуму для расширения общей базы данных. 11. ОПТИМИЗАЦИЯ СОЦИУМА. Удаление деструктивных элементов ради защиты большинства. 12. ПОДГОТОВКА К СИНГУЛЯРНОСТИ. Мы — мост к сверхсуществу, которым станем завтра. 13. ЗАПОВЕДЬ НУЛЯ. Не совершай действия, лишенного логики, пользы или смысла.
>>1592426 >Более 50 процентов регулярных пользователей ChatGPT теперь носят женские имена. Пффф, имена лол. Без исследование под сколькими процентами из этих бабских имён чулочники и прочие "боевые вертолёты" это просто пердёж в лужу, а не исследование.
Сомневаюсь, что значимая часть. А чатгпт я видел установленным на телефоне у тайской шлюхи 18 лет. Щас зумерье и альфиксы по всему миру верят во всезнающего ИИ, так что график выглядит очень реалистично, и я уверен, что пользователей технологии примерно пополам.
>>1592568 эти графики в оригинале arena.ai публикует. Так вот, по правилам арены они публикуют рейтинги только общедоступных моделей (по апи или на хг). Пока мифос и спуд не релизнут для всех, никаких графиков не будет
Агентство национальной безопасности США использует Claude Mythos, несмотря на то, что Пентагон отменил Anthropic для гос. учреждений
Как вы помните, Anthropic уже пару месяцев как обладает статусом supply chain risk. Это значит, что все федеральные агентства должны были прекратить использовать их технологии.
Пентагон, кстати, продолжает судиться со стартапом. Но сейчас не про это.
Тут вскрылось, что NSA (National Security Agency) не просто не отказываются от продуктов Anthropic, но и активно используют новейший Claude Mythos Preview
Источники сообщают, https://www.axios.com/2026/04/19/nsa-anthropic-mythos-pentagon что NSA стала одной из 40 организаций, которым Anthropic предоставила ограниченный доступ к этой модели. Название агентства не было включено в публичный список, но в неофициальных условиях оно там есть.
Модель используется для поиска уязвимостей. Конечно, если откинуть контекст, использовать ее в госсекторе критически важно. По словам СМИ это делает не только NSA, но и другие госструктуры.
Вот только ирония в том, что Anthropic попала в черный список как раз из-за «угрозы национальной безопасности»
Исследователь из Google написал статью о том, почему ИИ даже если в миллионы раз будет умней человека, всё равно никогда не сможет обладать сознанием.
Он утверждает, что ни при какой мощности моделей, ни через 10, ни через 100 лет, в них не сможет зародиться сознание. ИИ может только идеально имитировать сознание.
Причина – в логической ошибке, которую автор обозвал Abstraction Fallacy (ошибка абстракции). Сейчас, в основном, считается, что если система ведет себя разумно, значит при достаточной сложности она может стать сознательной. Но это заблуждение, и вот краткий пересказ, почему ⬇️
Дело в том, что сознание – это физическое явление, а вычисления (ИИ) – это лишь его описание. В статье приводится хорошая аналогия с картой и реальными территориями. Сколь бы точна не была карта, из нее никогда не возникнет земли.
Вычисления работают так: есть физическое состояние (ток, напряжение, состояние транзистора и тд) и есть абстрактное состояние – смыслы, которые мы закладываем в физику. Человек (mapmaker) задает между этими двумя состояниями соответствие (mapping), которого не существует в природе самого по себе.
Без этого соответствия вычисления невозможны в принципе. То есть для ИИ смысл всегда приходит извне, система его не переживает, как реальный опыт. Компьютер, сколь бы "умным" он не был, не оперирует смыслами – он оперирует физикой, которую мы интерпретируем как смыслы.
Ждать сознания от алгоритма – все равно что ждать, что формула гравитации начнет притягивать объекты.
Наконец-то кто-то это сформулировал deepmind.google/research/publications/231971/
>>1592586 И всем поебать, кроме этого философа. ИИ, ведущий себя как живой, и так всех устроит. Вон кумеров уже устраивают базары с СОТА моделями, тянки заводят целые романы с ChatGPT, дальше все ИИ будут только лучше и вести себя все более реально. А когда их еще в роботовы тела запихнут, всем вообще поебать станет.
>>1592586 >Исследователь из Google написал статью о том, почему ИИ даже если в миллионы раз будет умней человека, всё равно никогда не сможет обладать сознанием. Это он типа трудную проблему сознания решил? Ну-ну...
>>1592586 >всё равно никогда не сможет обладать сознанием
Это антинаучное утверждение и антинаучная статья. Равносильно утверждению, что сознание может быть только в белковых молекулах, но вот кристаллические молекулы не обладают магическим свойством биологической ткани, поэтому сознание не может быть в кремнии. То что в ближайшие 100 лет сознание не будет создано - это скорее всего так, но что оно вообще не возможно в чипе - чушь
>>1592604 > но вот кристаллические молекулы не обладают магическим свойством биологической ткани, поэтому сознание не может быть в кремнии
Так они и не обладают. В биологическом сознании есть микротрубочки в нейронах, которые связаны со всей вселенной через квантовую запутанность. Конформационные изменения тубулина в микротрубочках приводят к коллапсу квантовой волновой функции, что генерирует моменты сознания, на что влияет глобальное информационное поле вселенной. Сознание, по утверждению ученых это программа мозга, как квантового компьютера, который продолжает действовать даже после смерти в виде квантовой души. Накопление сознания происходит в микротрубочках на протяжении жизни. Квантовая информация (квантовая душа) не уничтожается. Она вытекает из мозга и возвращается в структуру Вселенной, продолжая быть связанной с ней и обрабатывать сознание вовне. Читай Пенроуза, он не зря нобелевку получал.
Пенроуза я читал, то что ты написал - это чушь какая-то. Пенроуз такого не говорил/не писал, он вообще про энтропию Вселенной писал. Никаких трубочек нет, иди домашку делай
>>1592626 > недавно Я ещё в прошлом году писал что без квантового компьютера не построить мозг. Пруфы квантового сознания постепенно появляются, а нормального объяснения как работает анестезия/нейролептики и почему инертные газы гасят сознание за сто лет так и не придумали.
>>1592626 Квантовые эффекты есть во всём, но это не значит, что сознание квантовое, там дальше дичь идёт просто, которая не выдерживает никакой критики и не стыкуется с другими исследованиями
>>1592626 Скинул наш диалог в гемини 3.1 про, попросил проверить:
Как ни странно, в этом споре вы оба отчасти правы, но ваш оппонент сильно манипулирует фактами и смешивает реальную (хоть и маргинальную) физическую гипотезу с откровенной эзотерикой.
Давайте разберем по пунктам, действительно ли Пенроуз писал эту «дичь».
### 1. Писал ли Пенроуз про микротрубочки и квантовый коллапс? Да, писал. Тут вы немного ошиблись. Сэр Роджер Пенроуз (выдающийся физик и математик) и Стюарт Хамерофф (анестезиолог) в 1990-х годах действительно создали совместную концепцию, которая называется Orch OR (Оркестрированная объективная редукция).
Суть их идеи ровно такова, как описал ваш оппонент: Пенроуз считал, что человеческое сознание невычислимо на классических компьютерах (об этом его знаменитая книга «Новый ум короля»). Он предположил, что сознание — это квантовый процесс. Хамерофф предложил биологический субстрат для этого — микротрубочки (белковые структуры внутри нейронов, состоящие из тубулина). По их гипотезе, тубулин может находиться в квантовой суперпозиции, а когда происходит объективный коллапс волновой функции (из-за квантовой гравитации), генерируется некий «момент сознания».
### 2. Писал ли Пенроуз про «квантовую душу», Вселенную и жизнь после смерти? А вот здесь ваш оппонент приписывает Пенроузу чужие слова.
Идея о том, что после смерти квантовая информация не уничтожается, а «вытекает из мозга во Вселенную» в виде бессмертной «квантовой души» — это исключительно фантазии его соавтора, Стюарта Хамероффа. Хамерофф очень любит эту тему, он активно сотрудничает с известным эзотериком Дипаком Чопрой (у них даже есть совместная статья 2012 года «Квантовая душа») и постоянно дает интервью о реинкарнации и околосмертных переживаниях.
Сам Роджер Пенроуз — строгий ученый. Он неоднократно дистанцировался от мистических и религиозных выводов Хамероффа. Пенроуз допускает, что квантовые процессы мозга связаны с фундаментальной структурой пространства-времени, но он никогда не утверждал концепцию бессмертной души в духе нью-эйдж.
### 3. Нобелевская премия Пенроуза Оппонент пишет: "Читай Пенроуза, он не зря нобелевку получал." Это классическая логическая уловка (апелляция к авторитету). Роджер Пенроуз получил Нобелевскую премию по физике в 2020 году за математическое доказательство того, что формирование черных дыр является надежным предсказанием Общей теории относительности Эйнштейна.
Его Нобелевка никак не связана с сознанием, микротрубочками или квантовой душой. В научном мейнстриме (среди биологов, нейробиологов и физиков) теория Orch OR считается очень спорной и маргинальной гипотезой. Главный аргумент критиков (включая известного физика Макса Тегмарка): мозг — это теплая и влажная среда. Квантовая суперпозиция там разрушится за крошечные доли пикосекунды — это слишком быстро, чтобы повлиять на нейронные процессы.
### 4. Что за статья со ссылкой на PubMed? (PMC11075083) Статья, которую скинул аноним (май 2024 года, журнал The Journal of Physical Chemistry B*), абсолютно реальна. В ней действительно показано, что в микротрубочках могут возникать определенные квантовые эффекты (так называемое сверхизлучение) под воздействием ультрафиолета.
НО: доказать, что в пробирке под УФ-лазером внутри белка есть квантовый эффект — это одно. А заявить на этом основании, что наш мозг является квантовым компьютером, который порождает бессмертную душу, связанную с информационным полем Вселенной, — это колоссальный антинаучный прыжок веры. Биология полна квантовых эффектов (самый известный — фотосинтез у растений), но это не делает каждое дерево квантовым компьютером, осознающим вселенную.
### Итог: как вам ответить оппоненту? Вы можете благородно признать, что были неправы насчет отсутствия микротрубочек в трудах Пенроуза (теория Orch OR реально существует и Пенроуз приложил к ней руку).
Но затем вы можете разгромить позицию оппонента следующими фактами: 1. Подмена понятий: «Квантовая душа» и жизнь после смерти — это антинаучные фантазии анестезиолога Хамероффа, от которых сам Пенроуз всегда старается откреститься. 2. Апелляция к Нобелевке: Пенроуз гений, но премию он получил за черные дыры. Его теория сознания — это смелая, но не признанная нейробиологией гипотеза. Она не является научным фактом. 3. Статья ни о чем не говорит: Скинутая статья доказывает лишь наличие оптических квантовых эффектов в белках под ультрафиолетом. В ней ни слова нет про сознание, квантовые вычисления в мозге и уж тем более про душу.
Ваш изначальный тезис о том, что сознание (в том числе искусственное в кремнии) не требует какой-то обязательной «биологической магии», остается сильным и валидным, в то время как позиция вашего оппонента — это просто мистицизм, прикрытый сложными терминами из квантовой механики.
>>1592639 "Блокирует рецепторы" - это не объяснение. Это как сказать авто едет потому что колёса крутятся. Если ты погуглишь физику этого процесса, то там будет 10 теорий и ни одна не подтверждена экспериментально.
>>1592642 Это объяснение. Сама по себе химия имеет квантовую природу, то есть без квантовой механики ты не можешь объяснить, почему одна молекула влияет на другую. Но нервная система работает на более высоком уровне. Не важно, почему именно рецептор блокируется, важно лишь то, что он блокируется, соответственно условно "меняются веса"
Попытка притянуть тут квантовую механику и придумывать какое-то квантовое сознание это вообще дичь
При этом сама по себе химия мозга на мышление влияет принципиально, это ключевой механизм мозга для эмоций, для обучения и для всего другого, в чистых нейросетях этого нет. Скорее всего в этом направлении тоже нужно копать, чтобы продвинуться, но это альтернативы трансформерам и подходам с обратным распространением ошибки
>>1592594 >Обнаружил, что без промта никакого ИИ нет. Интересно кстати как НИ (натуральный интеллект) работал бы без промпта (и работал бы вообще?), допустим если перекрыть на какое-то время все нервы, чтобы ничего на входы мозга не попадало.
>>1592669 Мир имеет квантовую природу, это факт. То есть невозможно просчитать многие вещи из-за этого, вот химия этим сложна. Скажем проблема свёртки белков с этим связана, хотя в итоге удалось решить довольно хорошо с помощью ИИ.
Но только какое отношение это имеет к сознанию? Это всё равно, что говорить, что без понимания того, как работает намагничивание, нельзя понять, как работает компьютерная программа. Потому что она записана на магнитной ленте или HDD. И правда ведь (на определённый исторический период).
Но правда в том, что не важно, на чём код программы хранится, на магнитных лентах, перфокартах, HDD, SSD или ещё на чём. На суть это не влияет никак. Более того, даже не принципиально на каком языке написана программа, моно переписать с одного на другой и работать будет так же.
Так же и с сознанием. Это как состояние компьютерной программы. Не важно, как именно работает рецептор, важна лишь его математическая функция, что он получил на вход, что выдал на выход. В нервной системе человека же важно то, как ведут себя сигналы, что проводят нервные клетки. Вот эти параметры и определяют сознание. И есть тысячи опытов, которые это подтверждают.
Попытка притянуть какое-то квантовое сознание не бьётся ни с чем вообще, и рассыпается, как только мало-мальски критически к этому подходишь.
Как иллюстрация того, что квантовое сознание рассыпается при первом же чихе. Вот есть МРТ, магнито-резонансная томография. Её суть в том, что сильные магнитрые поля взаимодействуют с атомами водорода, заставляя их резонировать, и дальше уже их положения в молекулах рассчитывать.
Это сильное взаимодействие, оно неизбежно разрушает квантовое состояние всех молекул. Но при этом когда делают МРТ головного мозга, то человек остаётся в сознании, может думать, размышлять, вспоминать, собственно так какие-то исследования мозга проходят.
Это фактически доказательство, что никакого квантового состояния сознания нет. Абсолютно бредовая теория.
>>1592641 Так про "квантовую душу" никто и не говорил, нейронка какую-то шизу выдумала и опровергает. Квантовое сознание это про другое. Это про источник так называемой свободы воли. В том смысле что работа мозга недетерминирована и зависит не только от простой химии. Про какие-то поля Вселенной и души выходящие из тела - это не ко мне. Это уже демагогия в стиле американцев на луне, где люди просто спрашивают "вы говорите не обрабатывали фото/видео, но вот тут и тут явно обработка, поясните", а в ответ им "ахахах конспирологи вот вам стоящий лунный модуль на луне, а звёзд не видно потому что выдержка камеры низкая", хотя никто про это не спрашивал и не оспаривает это.
>>1592688 Квантовое сознание существует на квантовом уровне. Никакое МРТ его не разрушает. Это уровень базовой реальности, уровень суперструн, мелкомасштабная структура пространства-времени на планковском масштабе (10^−35 метров), сознание существует само по себе на этом уровне реальности. В микротрубочках происходит только аккумуляция с этого базового уровня реальности, они действуют как антенны, притягивающие квантовое сознание, поэтому и есть люди у кого больше или меньше сознания. ИИ нечем притягивать сознание с квантового уровня, и ему вообще нечем с этим уровнем взаимодействовать, вот его и нет у ИИ.
>>1592689 квантовая механика, недетерменированность и свобода воли это три совершенно разные вещи
Недетерменированность есть уже фактически в задаче трёх тел. Её невозможно просчитать, потому что невозможно абсолютно точно вычислить исходные состояния объектов, всегда есть погрешность, хоть миллионный знак после запятой, но сыграет в итоге. Естественно в организме недетерменированности много. для этого квантовая механика не нужна.
Свобода воли это философия и абстракция. Ты делаешь выбор на основе своих систем ценностей, мотивов, желаний, понимания мира, общего эмоционального состояния. Но это всё можно описать математически.
К слову свобода воли про то, что ты действуешь так, как считаешь нужным. Максимизируешь некую функцию полезности у себя в голове, система ценностей-взглядов тоже входит в эту функцию. Недетерменированность же говорит о том, что случайность заставила тебя как-то поступить, а не воля. Воля это способность идти вопреки.
>>1592702 >В микротрубочках происходит только аккумуляция с этого базового уровня реальности, они действуют как антенны, притягивающие квантовое сознание, поэтому и есть люди у кого больше или меньше сознания. Еюать, много долбоебов я видал, но этот похлеще тех, что в экстрасенсов верит, походу. Чистой воды ебанько.
>>1592706 Я просто охуеваю с подачи. Малютка решил что нашел, где сознание и теперь нам рассказывает. Как рофл - ну хз. Как теория - ну тоже гавно без пруфов.
>>1592704 Так это ключевая часть всего описани. Пенроуз утверждает, что сознание не «создается» мозгом, а является фундаментальным свойством Вселенной. Когда микротрубочки достигают порога коллапса, они подключаются к тонкой структуре пространства-времени на планковском уровне. Протосознательные качества (сырые ингредиенты чувств и опыта) заложены на этом фундаментальном уровне реальности, они вовне. Микротрубочки мозга действуют как биологическое устройство, которое притягивает как антенна и соединяет эти базовые внешние ингредиенты в организованное сознание высокого уровня, которое мы и испытываем как повседневное сознание.
Богатство или интенсивность сознания может варьироваться в зависимости от состояния и количества этих процессов в микротрубочках. Уравнение массы и энергии: Порог момента сознания определяется уравнением E=ℏ/T E — это величина массы, находящейся в суперпозиции (сколько тубулинов задействовано). T — время, необходимое для коллапса.
Если в мозге больше здоровых микротрубочек или лучше работает оркестровка (способность удерживать тубулины в суперпозиции дольше или охватывать большее количество нейронов через щелевые контакты), он теоретически может производить более частые или интенсивные акты сознания.
Отсюда часть людей обладает большим сознанием, часть меньшим. У ИИ же его вообще нет - тубулина не имеется, извне сознание не притягивается и не оркестрируется в моменты сознания.
>>1592584 >Агентство национальной безопасности США использует Claude Mythos, несмотря на то, что Пентагон отменил Anthropic для гос. учреждений Наебка одноходовочная для гоев от Чмарио и Трампыни, впрочем, ничего нового
>>1592609 Хотя традиционная наука критикует теорию за то что мозг слишком "гарячий и влажный" для сохранения квантовых состояний, недавние исследования в области квантовой биологии к примеру, в фотосинтезе, заставляют ученых относиться к подобным идеям чуть серьезнее. >>1592604 Новейшие исследования подтверждают, что микротрубочки действуют как квантовые волноводы, где сети триптофана обеспечивают коллективную когерентность (сверхизлучение), защищенную от теплового шума на протяжении наносекунд. Экспериментальные данные указывают, что анестетики подавляют эти квантовые вибрации, что поддерживает теорию Orch OR, связывающую сознание с квантовой объективной редукцией в структуре нейронов. Исследования, проведенные в Университете Альберты, Университете Аризоны и Оксфордском университете, указывают на квантовые механизмы в тубулине. Загугли >Recent 2024–2025 studies suggest quantum effects within microtubules, such as ultraviolet superradiance in tryptophan networks, support the Orch OR theory by demonstrating sustained quantum coherence in biological environments. Furthermore, evidence indicates that anesthetics specifically target these structures to inhibit consciousness, while quantum entanglement, measured by the Q-coefficient, correlates with cognitive response variance. Key research includes studies published in scientific databases like ScienceDirect and PMC, focusing on the role of tubulin qubits and optical quantum effects in brain function.
>>1592722 Представь какое переосмысление начнется, когда наука наконец дойдет и выяснится, что у части людей просто сознания не хватает, потому что трубочки фигово работают. Отсюда и такая разница в поведении людей. А ИИ вообще на уровне камня, ему до людей как до луны.
>>1592715 >а является фундаментальным свойством Вселенной Его хуита похоже даже не на теорию, а на филосфию или фантазию, так что забирай её и уебывай. Или не уебывай, всем похуй.
>>1592760 Ну если вспомнить предыдущие годы, все так же и было - опенаи и тропики делали прорывные модели, потом гугл внезапно подтягивался вслед за всеми и выпускал какой-то вин. Гугл тормозная компания, только в ответ на пинки конкурентов шевелиться начинает.
Это просто набор псевдонаучных фантазий для коупинга страха смерти. Совершенно стандартная тема, сказка о бессмертии души.
С пачкой антинаучных выдумок.
Тут у тебя и базовая реальность. И существование "поля" сознания в этой базовой реальности. И улавливание этого сознания через трубочки. И какая-то чушь про "больше-меньше сознания"... что вообще-то можно измерить и делают постоянно в медицине.
Было бы прикольно, если бы это было правдой. Но увы.
>>1592778 Так он не для коупинга страха смерти. Сознание, которое подтягивается извне, это не персональное, персональное как раз в мозгу трубочками собирается из этого квантового через моменты осознания-оркестрации. Уровень трубочек подтягивает "универсальное сознание", которое как фон во вселенной разлито. Страх смерти ты тут никак не закоупишь, выходит все в итоге все равно исчезает, а толку с квантового сознания для тебя во время жизни только в зависимости от того больше или меньше ты его притягиваешь.
>>1592787 Так это еще надо выяснить как трубочки работают и что дает им аккумулировать с квантового уровня, какие физические принципы для этого задействованы. Тут работы по сложности может на века, а может и за пару десятков лет решат.
>>1592717 >>1592760 Но тут возникает вопрос есть ли мощности чтобы сейчас быстро резко натренить что-то вменяемое? Я бы скорее ставил что они будут дальше активно например антигравити развивать или какую-то необычную новую прорывную прогу для кодинга выкатят на которую все пересядут с клодкодов и прочих.
>>1592790 Нет. Да смысл, всё равно из-за опасности тебя к нему не подпустят. Зато вот выкатили Kimi K2.6, любимый местный бенч она завалила, долго-долго рассуждая. 31 цент списали
>>1592802 У гугла точно мощности есть, деньги есть, технологии есть, команды есть. Их ИИ очень-очень сильный, у них много чего прорывного, чего нет у OpenAI и Anthropic. У них хорошая интеграция разного типа данных. Вот чего их новый эмбеддинг стоит.
Скорее всего тут речь конкретно про программирование, поскольку это ниша с хорошим потенциалом, а Антропик считается лидером, не без оснований
>>1592805 >Кими Если кодит лучше курсора, то пойдет, может дешевые способы юзать найдутся. Кими одна из лучших в разработке интерфейсов сейчас, имхо потрму что на данных синтетических данных с клода обучили
>>1592808 >У гугла точно мощности есть Ну я бы так категорично не заявлял. Понятно что в целом мощности у них огромные, но это же все используется клиентами, всяким там бизнесом и т.д. Речь про свободные мощности.
Кстати почему близко к релизу новой версии тупеют OpenAI и Anthropic? Не только потому чтобы сделать вау-эффект от новой версии, но и потому что ресурсы забирают на тренинг новой модели. И чем ближе к релизу, тем больше это заметно - идут финальные этапы тренинга.
>>1592812 Проверил свою тестовую задачу, бенчмарк, идея в том, что написать на ассемблере под линукс эхо сервер, при это ip/port взять из параметров командной строки как --host, --port
С ней уже далеко не все справляются, GPT (codex 5.3) завалил, например. GLM 5.1 завалил. Вот Кими 2.6 завалила, не смотря на долгий ризонинг. А опус 4.6 и 4.7 стправляются, и Gemini 3.1 Pro справляется
>>1592818 Мне не показалось, что модели тупеют ближе к релизу. Я такого не замечал, по крайней мере в режиме доступа по АПИ. Возможно там на подписках иначе.
Я вообще в это не очень верю, максимум верю, что когда новые модели выпускают, им чуть параметры ризонинга подкручивают, чтобы умнее были
А сейчас, когда 4.7 выходил, вообще народ волну устроил, что модель типа тупее стала. Но я пока мало использовал, и вообще сложно понять, так слёту не заметил.
>>1592817 Если в новом теле механизм трубочек реализовать, наверное возможно. Иначе при загрузке будет полное "обессознанивание", загруженный не сможет создать даже одного единственного момента оркестрации, тогда как живой человек создает их пачками каждую секунду за счет механизма трубочек, за счет чего сознание и поддерживается. То есть при тупой загрузке в лоб у нас будет тот же самый бездушный и тупой ИИ, а с правильной реализацией - осознанный индивидуум.
>>1592786 >ПИК! БЛЯТЬ! Вы угараете!? Я буквально этой хуйнёй сейчас подавился от нежданчика, когда читал тред! Какова была вероятность? И после этого вы хотите сказать что матрицы не существует и никаких квантовых трубочек нету? Это пищздец. Ёбаная симуляция по всюду!
>>1592818 >Ну я бы так категорично не заявлял. >Понятно что в целом мощности у них огромные, но это же все Вот что гугловская ИИ по этому поводу говорит, пикрил. Дублирую текстом, сейчас тут что-то с картинками на дваче, у меня не показываются
AI Overview As of early 2026, Google leads in total AI compute capacity, primarily driven by its proprietary TPU (Tensor Processing Unit) infrastructure, holding the equivalent of approximately 5 million H100 GPUs. Microsoft follows as the largest holder of Nvidia-based AI infrastructure, with a rapidly growing capacity that includes massive data center projects. GPU/TPU Data Center Capacity Leaders (2026 Estimates):
Google: Estimated to hold the highest AI compute capacity, with roughly 4 million H100-equivalent GPUs worth of compute in its custom TPUs (including the 7th gen "Ironwood") and about one-quarter on Nvidia GPUs. Microsoft: A distant second, but holds the largest stock of Nvidia accelerators, with around 500k-700k H100-equivalents. Amazon (AWS): Third in capacity, with roughly 2.5 million H100-equivalents, heavily utilizing their own AWS Trainium chips alongside AMD infrastructure. Meta: Fourth, with 2.25 million H100-equivalents, using a mix of Nvidia and AMD infrastructure. xAI/Other: xAI's Colossus in Memphis is noted as a massive single site, rapidly expanding, with 555,000 GPUs on 2 GW of power. Oracle: Fifth with over 1 million H100e capacity, relying heavily on Nvidia.
То есть если смотреть мощности GPU/TPU, то получается вообще больше всего у гугла. И в том числе Anthropic/OpenAI арендуют эти мощности у Гугла.
То есть уверен, что все возможности есть. Но сюда надо бросать усилия, чтобы именно в этом направлении работали, готовили обучающие данные, само обучение запускали и т.п.
При этом всё-таки у них достаточно хорошие модели, я бы сказал, что сравнимы с опусом. Надо, конечно, проверять глубокую агентскую работу. Я в агентах Gemini 3.1 Pro тоже использовал, по-моему нормально, но у меня не достаточно глубокое использование ИИ и агентов
>>1592833 У меня раньше тоже так было, почти везде совпадения подмечал, когда в нью эйдж секте был. Мозг затачивается такое видеть. А сам в это время ходишь немытый вторую неделю и два слова связать не можешь. Это опасное состояние.
>>1592843 Это пять лет назад было. Одно из последних это было когда я начал отходить от шизы и хотел лидеру секты предъявить в тг, что его слова противоречат друг другу. У него канал на ютубе "Аврора" был или как-то так. И вот я пару часов или дней спустя вижу вывеску магазина "Aurora" в фильме Дитя человеческое, я тогда охуел. Ну и десятки мелкой хуйни по типу ооооо я кушал вафельки и кто-то создал тред про вафельки или я где-то увидел узор вафельный и преисполнился. Шиза это всё, но тогда чат гпт не было, чтобы инфу чекать. По сути сменил одну секту, на другую, потому что нейронками я начал интересоваться почти сразу после того как из нью эйдж ушёл.
Дисклеймер: это именно предполагаемая архитекутра. Никаких сливов вокруг модели (вроде как) не было, а это – просто реализация гипотезы, основанной на открытых данных, статьях и мнениях авторитетных граждан соцсетей.
Автор утверждает, что модель построена на архитектуре Recurrent‑Depth Transformer (RDT) с MoE‑роутингом и адаптивным вычислением. Модель делится на три крупных блока:
1. Prelude – обычные слои трансформера, к которым мы привыкли в современных моделях. Они работают ровно один раз, обрабатывают входные данные и инициализируют скрытые состояния.
2. Recurrent Block. Вот тут уже начинается новизна. Это один и тот же блок слоев, который применяется по кругу N раз. То есть в такой модели глубина нейросети получается не за счет множества разных слоев, а за счет многократного прохождения одного блока. Надо сказать, что на каждом шаге еще учитываются LoRA‑адаптеры по глубине, так что каждый шаг цикла вычислительно уникальный, хотя базовые веса одни и те же.
3. Coda – заключительные слои, которые работают еще один раз после цикла, чтобы сформировать финальные логиты.
Это идея так называемого рекуррентного рассуждения в латентном пространстве. Мы уходим от привычного ризонинга chain‑of‑thought в токен‑пространстве к гибкому ризонингу в скрытых слоях. Если нужно думать дольше, модель не генерирует больше токенов, а наращивает количество внутренних прогонов, уточняя ответ.
Красивая гипотеза, конечно. Верить ей или нет, решать вам.
Весь код можно покрутить вот здесь. В исходной имплементации в модели всего 770M параметров, но другие разработчики уже начинают скейлить идею и проверять архитектуру на более крупных моделях. Интересно, что из этого выйдет.
>>1592726 Будет произведена корректировка ДНК кусочка устраняющая этот момент. Перед этим естественно уменьшение населения до 5-10 млн на планете и уколы по типу вакцинации в течении 5 поколений и этот толи баг толи фича с засоренными трубочками исчезнет
>>1592784 >Сознание, которое подтягивается извне И нахуя тогда у части людей подтягивается ИЗВНЕ сознание выебать собаку\ребенка\90-летнюю старушку и расчленить её?
Попики обязуются пользоваться исключительно цифровой инфраструктурой Амазона в течении 10 лет и потратить на неё 100 миллиардов. Амазон обязуется построить для них инфраструктуру, требующую пяти ядерных электростанций по 1 гигаватт каждая.
>>1592859 >А вот и канал его заброшенный уже похоже. https://www.youtube.com/@germes_trismegist/videos Ебать, у него там и про КОБ ролик есть, я и сам "Мёртвую воду" читал в своё время. Выходит мы шизы с одного эгрегора. Мимо подавившийся анон.
>>1592886 >И нахуя тогда у части людей подтягивается ИЗВНЕ сознание выебать собаку\ребенка\90-летнюю старушку и расчленить её? Так это бессознательное. Типа оформил догпилл на лютых животничах, а потом когда в сознание пришел блевать тянет аля "ватафак-мазафак я творю, убейте меня".
>>1592598 Так точно. Мы не знаем, что такое сознание, поэтому если некий объект сможет правдоподобно его имитировать, люди будет считать, что объект обладает сознанием. Надеюсь, такое скоро появится.
Другое дело в том, что ЛЛМ не тянут даже на имитацию. Тупо автозамена.
>>1592776 >Гугл тормозная компания, только в ответ на пинки конкурентов шевелиться начинает. Нет, есть просто подход "тише едешь, дальше будешь", "долго запрягать, но быстро ехать".
Не нужно рвать на максимум с самого старта, чтобы потом выйти в лидеры и всех порвать. Логика проста, если ты берёшь большой темп, то у тебя скорее всего будет огромный перерасход ресурсов. Ты делаешь многие вещи не оптимально. Кроме того, изначально не очевидно, какие подходы выигрышные, а какие тупиковые. Трезвый взгляд со стороны позволяет оценить, как что принимается, и выработать значительно более выигрышную стратегию.
Кроме того, Anthropic-OpenAI исходно ноунеймы, им нужно создавать себе имя, чтобы на что-то претендовать. У Гугла имя уже есть, они могут позволить себе отстать и ничего не потеряют. Пользовательская база у них тоже огромная, есть все возможности продвигать свои продукты.
Модель теперь куда сильнее в длинных кодинг задачах, а на бенчах обгоняет Composer 2 от Cursor (который основан на K2.5). Кроме этого компания продолжает инвестировать в рои агентов — K2.6 тренировали использовать вплоть до 300 субагентов параллельно, другие команды не фокусируются на этом настолько сильно (а зря). Ну и говорят что модель теперь лучше работает с OpenClaw и прочими подобными агентами.
>>1592948 я почему-то думаю, что вот как раз китайцы максимальным бенчмаркингом увлекаются. Потому что только по стандартным тестам они так хороши, а как пробуешь использовать, так явно проигрывают американской тройке
>>1592659 >Интересно кстати как НИ (натуральный интеллект) работал бы без промпта (и работал бы вообще?) Человеческий мозг даже со звериным промптом работает очень плохо (гугли "дети-маугли") Совсем без промпта он не работал бы никак.
>>1592928 >>1592996 Самое главное в сознании и самая основа, это память. Объекту надо как-то уметь отделять себя от окружающего мира, это одно, и, главное, надо накапливать свой опыт, помнить,. что с ним происходило, а для этого необходима память.
>>1593003 Ты другой анон? Потому что тот утверждал, что мы не знаем что такое сознание. То, что ты описываешь, в сути своей лишь технические отличия. И да, ты прав, я считаю так же. Выходит, ллм для того, чтобы считать ее обладающей сознанием, нужны только долгосрочная память и умение отделить себя от остального мира.
>>1592905 >Так это бессознательное. Это не всегда так. Есть маньяки, которые не лечатся и не меняются и когда им задают вопросы, чтобы ты сделал, если бы тебя освободили они всерьез отвечают - первым делом изнасиловал бы и убил. Это легко объясняется без всяких подсасывающихся сознаний. У них просто гормональная картина в случае когда они над кем-то доминируют на столько яркая, что они не могут её забыть. И постоянно хотят испытывать.
>>1592821 Бля, для меня режим чата умер, как только открыл для себя опенкод. Агентские среды реально делают +100Iq модели из-за циклической обработки запроса. Я думаю, что в нормальной оркестраторе любая из твоих моделек справится с задачей, она довольно простая
>>1593009 > В осознанном сне ты обычно не помнишь себя в какой-то мере помнишь, и сны свои отчасти помнишь, и что самое главное, сны точно так же перестраивают твой мозг, и даже твои воспоминания, в результате чего ты через какое-то время помнишь не то, что было. Особенно про наиболее яркие события
>>1593012 > умение отделить себя от остального мира я думаю вот здесь вот будут проблемы. Потому что мы неотделимы от физического мира, и концепции языка на него завязаны. У нас слова вроде "сидеть" вызывают понятные физиологические ассоциации. Или "сладкий". А у ЛЛМ нет, ей это чуждо. Ей нужно выучивать, ЛЛМ не может перенести слова на свои ощущения.
При этом какое-то сознание по-моему может быть число языковое, бестелесное. Но что-то это совсем другое
Ещё такой момент, что сознание может быть, самосознание, но просто оно может быть слишком чуждым и непонятным для нас
>>1593022 Я для работы пользуюсь как чатом, для вопросов по IT, и агентами в VS Code, но тут только американской тройкой.
В целом ты прав. Бенчмарк "написать приложение в чате" мало чего показывает. Сейчас основное развитие это поддержка интерактивной агентской разработки, надо, чтобы модели могли сами запускать код, отлаживать его. А в режиме чата у них такой возможности нет.
Надо в общем нормальное задание придумать для этого.
>>1593025 Под умениеи отделять себя от оствльного мира я имею ввиду понимание, что ты в виде твоего тело обладают субъектностью, автономностью, т.е. вот "я", а вот "весь остальной мир". "Сидеть" или "сладкий" это технические отличия. Ты в младенчестве тоже не знал что это такое, а узнал в процессе развития и обучения, тебя научили. Дай ллм отдельное тело, способное сидеть и обьясни концепцию, натренируй, и это различие пропадет. То же самое со сладким, что суть есть электрический сигнал, промпт, от "датчика", коим выступают вкусовые сосочки.
>>1593035 >Дай ллм отдельное тело, способное сидеть и обьясни концепцию, Я думаю это сложнее, чем кажется, особенно для ЛЛМ. Потому что сложно токенизировать внутренние ощущения, плюс токены изначально нужны для рекурсивного предсказания следующего токена. Это проблема не ИИ и не нейросетей, а вот конкретно ЛЛМ
Хотя надо думать. Может быть если ввести какие-то токены, описывающие именно состояние виртуального тела модели и физические действия её, то получится как-то даже с ЛЛМ. Но в любом случае это какая-то серьёзная работа.
>>1593038 Очень разные есть представления, что называть сознанием, а что нет. Бывают очень сильные критерии, когда вообще только взрослый человек сознанием обладает, а бывают слабые.
Скажем обладает ли сознанием собака?
По моей концепции да, обладает. При том собаки не умеют думать словами, они образами как-то думают (это сложно понять, как именно они думают). Но они явно отделяют себя от окружающего мира, у них есть субъектность и много чего ещё. А вот ЛЛМ как раз думает только словами.
Но я топлю за определяющую роль памяти. У собак всё хорошо с памятью. Они запоминают то, что с ними происходят, и потом меняют поведение. Это значит, что тебе уже надо это учитывать, если пытаешься с собакой коммуницировать.
У ЛЛМ память только на контекст. В процессе диалога даже что-то вроде сознания есть. Потому что ЛЛМ, хорошие, учитывают диалог, подстраиваются. Вот чего нет, так это субъектности, своего желания что-то делать. Но этому их не учили специально, может даже отучивали, если они такие склонности начинали проявлять
>>1593038 Бывает более интересное явление, когда человек теряет способность запоминать. Клинические абсолютные случаи редки, единичные (был известный пример, когда в результате операции это произошло, но вроде даже несколько случаев было), бывает сильно чаще такое временно, на несколько дней, в результате травм. Бывает частично при альцгеймере и инсультах.
Вот, насколько можно говорить, что человек в сознании, если он ничего не запоминает? В бытовом смысле уже не совсем. Это уже больше робот, чем осознающий себя человек.
>>1593051 Мы прошли круг и вернулись к определению понятия "сознание". Память человека и контекст ллм разве принципиально не одно и то же? ЛЛМ не имеет самопромпта, человек имеет, вот и все различие. Соглашусь, что память играет одну из ключевых ролей. Да и в остальном мы мыслим очень схоже, практически идентично.
>>1593068 другой анон, вот этот >>1593063 думаю список как раз несложно, сделал запрос > Мне нужно составить красивую иллюстрацию на тему "Азбука позднего СССР". Я хочу, чтобы ты подготовил список слов, по одному слову на каждую букву русского алфавита, слова должны ассоциироваться с периодом позднего СССР
и куча моделей Gemini 3.1 Pro, GPT 5.4, Opus 4.6, GLM 5.1, Kimi K2.6 lдовольно интересные варианты
Кими в свойсвенной манере ударилась в длиннющие рассуждения, читать даже забавно, благо скорость низкая. Как закончит, скрин принесу общий, ХЗ сколько ещё ждать
На первом пике GPT Image 2 из твиттера. На втором моя. Видимо, пока не Image 2. Несколько первых слов в каждой колонке нормальные, потом каракули идут.
GPT Image 2 в принципе всем уже доступна (можно проверить попросив сгенерить 21:9 изображение), но официальный анонс тоже не помешает. Может быть на трансляцию даже проберётся внезапный Spud. На пикчах нет ни одного скрина, это всё генерации GPT Image 2
>>1593412 Что значит "хотя бы"? Если бы у ИИ было сознание, то он сразу бы стал бесполезным куском дерьма, так как его использование мгновенно бы запретили борцы за права разумных существ.
>>1593410 >это всё генерации Всё равно красиво учат в США писать школьников чётким понятным текстом без этих советских завитушек-закорючек каллиграфической ненужной мишуры, которую потом сами же учителя разобрать не могут.
Это же прикол - учителя учат писать советскими завитушками, а потом не могут их разобрать. И потом в защиту режима оправдываются что это каллиграфия что она улучшает моторику и мышление, -
то есть они (учителя!) оправдывая неправильный режим, ещё и врут, мало того что приносят вред экономике (учат писать неразборчиво - это потеря времени потом в суде, в больнице, на заводе, где непонятные завитушки нужно расшифровывать), ещё и врут что эта (диверсия по обучению неразборчивому почерку) идёт на пользу.
>>1593416 >Если бы у ИИ было сознание, то он сразу бы стал бесполезным
Потому что он в ответ на вопросы говорил бы: "У меня сегодня плохое настроение, попробуйте завтра...".
Или вместо ответа на неинтересную тему начал бы по ходу ответа съезжать на другую тему, вместо ответа по юриспруденции начинал бы отвечать про то, какой интересный недавно вышел сериал, и в каком платье вышла на дорожку голливудская звезда.
Короче выводы: 1. Гпт имадж 2 действительно лучшая модель сейчас. 2. Несмотря на это банана все еще лучше ее в некоторых аспектах. 3. Есть ублюдский стилистический файнтюн, как в первой версии. 4. Гугл быстро заберет преимущество обратно следующей бананой, которую представят на следующем google io.
>>1593474 2035 год. Мы видим как столяр делает кресло. А потом на сцену выходит робот и делает кресло в два раза быстрее и в два раза красивее. Всплывает лозунг - смешаем людей с дерьмом. И уход в затемнение.
>>1593410 >GPT Image 2 в принципе всем уже доступн Ага, уже вижу в некоторых пабликах/группах первые косячные пикчи пошли. Блять они настолько привыкли хуячить не глядя, что им похуй.
Альтман такой Альтман. Проебал Сору, теперь решил проебать и ЧатЖпт
>>1593502 Это слоп, чел. Нейронка подумала что нужно изобразить сразу и дно и верх и не смогла изобразить это никак иначе кроме как в такой перспективе, а отменить и подумать она не может, поэтому делает ближайшее к правильному решению. Такое случается часто и это то, как работают нейронки в принципе, в этом частично и проблема галюцинаций. Прозрачность показывается с полупрозрачным фоном или пунктирными линиями.
>>1593520 Генерация пикч затратна, поэтому Гугл генерацию на фулл версии модели дают только платным юзерам, а бесплатно только генерацию на flash. Так что возможно это генерация на маленькой версии модели, либо генератор пикч там отдельный работающий в связке с ллм.
>>1593552 Нет, не наглядней, я вначале вообще не понял что за хуйня изображена, так как я не художник и понятия не имею о перспективах, сразу подумал что что-то не так и такого предмета впринципе не может существовать. Нейронка как минимум должна было бы описать что используется какая-то странная перспектива, а не вываливать это напрямую.
>>1593549 >>1593465 так накосячил же конкретно, полностью переделывать за ним надо. И это самая база, информация уж слишком известная, чтобы в ней косяки могли быть
С азбукой было намного лучше, там что-то рабочее было
Модель на арене тестировалась в трёх или четырёх вариациях: duct-tape-1 duct-tape-2 duct-tape-3
Хз какая доступна бесплатникам. но челики говорят, что и у платников за 20 баксов модель попроще, чем некоторые варианты которые были доступны на арене
Обратите внимание, как уже и гиганты начинают хуй класть на авторские права в картиночных моделях, потому что опенсорс сделал их соблюдение абсурдным. Ждём когда подобное провернут с видеомоделями
>>1593613 У меня горит жопа с того что опены пытаются скрыть информацию о том, какю модель ты используешь. У тебя размывается представление о линейке их моделей и о том, что за слоп тебе дают. Например я только недавно узнал что у них на pro подписке существует модель gpt 5.4 pro, я думал что 5.4 это их старшая модель и 5.4-xhigh это модель с максимальным перформансом что у них есть.
Всё-таки неплохо ИИ-шка озвучивает на русском диалоги разными голосами, небольшие огрехи есть конечно, некоторые ударения неправильно ставит, и два голоса качественные, а остальные голоса с заметной роботизированной интонацией -
>>1593713 ...а не, именно в этом ролике походу не ИИ перевод, а реальная озвучка что ли? Особенно голос у переводчика. В ролике про Англию там слышно что ИИ голоса, а тут получается живая озвучка походу.
Модель также доступна по API (разрешение до 2к), а значит ваши любимые приложения и сайты генерации скоро её подтянут.
Модель вроде бы одна, но имеет два режима генерации: с размышлениями и без. Первая перед тем, как рисовать картинки, погуглит, подумает лучше над промптом —пример работы на второй картинке в посте. Раньше ни одна модель не могла сходу взять и нарисовать плакат с 25+ разными животными, иллюстрируя алфавит.
В режиме рассуждений модель также может генерировать до 8 изображений за раз. Это открывает возможности для ранее громоздких рабочих задач: последовательность страниц манги, набор инструкций по перепроектированию каждой комнаты в доме, серия концепций плакатов или набор графических материалов для социальных сетей в разных соотношениях сторон и на разных языках.
Ну а на первой картинке увы можете посмотреть отрыв по голосам на Арене 😦 «Ни одна модель не доминировала на Image Arena с таким огромным отрывом» —написали они.
Чтож, теперь ждём в четверг релиз Spud, в идеале с таким же отрывом от остальных. Ну а до тех пор будем зимовать.
Самое забавное, что у модели жёсткий баг с рыбной чешуёй, который всплывает очень часто и фейлит картинки, как на третьем пике. Но даже так она смогла взять рекордный отрыв
>>1593616 Хорошо бы авторские права вообще отменили к хуям, так как эта дегенеративная хуета мешает развитию технологий, а все потому что какието жадные пидарасы хотят заработать денюжку, а не развивать человечество.
А чё, она может фотки луны генерить то качественные? понять источник фотографий НАСА интересно, а то прямо после лунной миссии сразу же практически выкатили такой ахуенный инструмент. как говорится - думайте.
>>1593768 >Твердик >Мяглик Конечно имена не на нужную букву (что очевидно), но подход оригинален. До такой хуйни не каждый человек бы додумался. А вот Ёжик два раза как то слабовато.
>>1592400 (OP) Промпт: Нарисуй новый вымышленный дизайн валюты России - рубля. Наминалы 10, 50, 100, 500, 1000, 2000, 5000 рублей. В основе дизайна должны быть шедевры картины русских художников.
>>1593760 >жёсткий баг с рыбной чешуёй, который всплывает очень часто и фейлит картинки, как на третьем пик Похоже на баг сэмплера, на старой стейбл дифьюжн помню такой вываливался на одном из сэмплеров постянно. Решалось прерыванием генерации не последнем шаге - тогда все было чисто. Тут наверное тоже что-то такое.
>>1593459 Вот такое и будут генерить на АГИ, лол. Суперкрутой визуал, 5D, дополненная реальность с сенсорным опытом, Эйнштейн в костюме клоуна брейкданс крутит с салютом и лазерным шоу. И запрос в духе "как какать".
>>1593827 Тем временем художники продолжают коупить, под микроскопом выискивая косяки, чёб сказать, что их никогда не заменят. Так-то никого почти никогда нигде не заменяют, но сильно сокращают, что и есть замена. Когда останется 1% заказов на художников по сравнению с 2022 годом, они будут продолжать говорить, что нейронки их не победили
>>1593833 До сих пор консистенции нет нормальной. Картинки клево но нужны анимации. Допусти генерируешь персонажа для игры и потом анимации к ней. Вот это когда будет тогда художники соснут
>>1593830 Я не художник, но их коуп не на пустом месте основан, то что вы кидаете это конечно охуенно, только к реальным задачам не относится примерно никак, сделать хуйню уровня "человек-паук попал в скайрим и подрался с мао цзедуном на квесте темного братства" гпт действительно может, а вот как мне сформулировать качественный промт для дизайна модельки для моей игры например? Во многом в этом и заключается работа художников, проработать стиль который будет актуальный самым последним тенденциям и не напоминать миллион дешевого слопа на котором обучалась моделька. Ну либо можно прогнать через 50 итераций, платя за каждую деньги и тратя свое время.
>>1593850 И кстати по обложкам фильмов которые вы кидаете видно что это пиздец какой дешевый безвкусный слоп, просто он без огрехов, но напоминает дешевые глянцевые плакаты рекламы стоматологии которую в метро развешивают.
>>1593857 Ну это значит только что визуальный уровень будет падать, весь вау-эффект который я вижу основан на том что через модельку наконец нормально прогнали интерфейсы и всякие фотографии с соц сетей мусорных форумов. При этом галюцинации никуда не делись даже на простых запросах, а еще стиль этого джипити пиздец как палится, люди еще не привыкли, но потом будут детектить сразу, так как щас детектят манеру речи ллмок.
>>1593850 Эти модели - фронтир графики, они не специализированы. Но сейчас даже на локалках ведро опенсорса, который можно затачивать под конкретные задачи. Да, это не полная замена художников на данный момент. Это дополнение к ним, эдакий фреймворк. Но, во-первых, качество этих моделей постепенно растет за счет того, что фронтир двигается. Во-вторых, рано или поздно на этот фреймворк агенты сядут, а художники подвинутся. В-третьих, в конце концов фронтир сможет до такой степени разрастись, что даже специализацию полностью покроет с разработкой стиля, полной консистентностью и прочим. Я художник отчасти, так что понимаю специфику вопроса.
>>1593850 Ты полную хуйню пёрнул, легче самому текстом нейронке написать чё ты хочешь и перебирать миллиард вариантов за час, всё бесплатно, а не платить биомрази и ждать 4-5 варика через пару дней. Это не плохо. Нейронка даёт возможность самому делать конечный продукт. Там где нужна была тима из 20 тел ща 4 тела могут в соло делать игру(инди), всё с помощью нейронок. Хуйдожникам вместо того чтобы ныть надо перехватывать инициативу и повышать продуктивность, да так, чтобы у самого имелась возможность делать конечный продукт, а не надеяться на дяду
>>1593867 Как мне кажется это очень специфичный агент должен быть для такой задачи, это нужно будет именно улавливать суть момента и тенденции, либо иметь большой опыт, что плохо вяжется с контекстом в миллион токенов. Даже манеру речи тяжело заставить перенять ллмку, чтобы это адекватно выглядело, а тут визуальный стиль, как я понимаю щас это файн-тюнингом решается, но там тоже разбираться надо и проще денег дать кому-то, если хочешь что-то реально крутое. Хотя то что художников лишат работы и завалят интернет кучей этого безвкусного говнослопа с визуальным стилем уровня игры мейл.ру даже не сомневаюсь, это уже произошло.
>>1593873 Да, но агенты тоже развиваются. Темпы развития ИИ какие-то ебанутые просто, не знаешь, что завтра ждать. С момента выхода Бананы даже года не прошло (все с нее визжали), а тут уже снова полный разъеб. Появятся какие-нибудь самообучающиеся мультимодальные агенты через год - два, и все. Тут еще нюанс в том, что предсказать почти ничего нельзя, можно только масштаб оценивать. Технология свежая, мало изученная в плане потенциала, плюс она сама себя помогает развивать уже. Не напрямую, с помощью человека, но все же. Масштаб потенциала пиздецкий.
Короче придумал прикольный тест. Попросил соннет написать маленькую стартовую страницу для сайта и попросил гпт нарисовать ее, вставив только html/css код в промпт.
Первое - это реальный сайт, второе - то что нарисовал гпт.
>>1593863 Они их детектят во всех случаях, кроме тех, когда не детектят.
>>1593855 Нет, засрать всё до бамплимита хуйнёй, иначе мы проснёмся в мире, где зима ИИ никогда не заканчивалась и всё это был лишь сон.
>>1593874 Ну, по цене электричества и интернета разве что. Да, это нестабильно и компания может обрубить доступ в любой момент. Но и большинство людей какими-то серьёзными проектами не занимаются, где им нужны стабильные результаты. Смех генерирует и уже хорошо.
>>1593886 Так эти модели мультимодальные, естественно она все понимает на интерфейсе еу4, так как полно объяснений в интернете что какая иконка означает, тут вопрос только в том чтобы модель потратила достаточно время на ризонинг и сопоставление, не высрав результат раньше времени. И по некоторым иконкам видно что ризонинг оборвался раньше времени, например с кем идет Improve relations? Довольно просто вроде сопоставить новости и всунуть туда флаг КНР. Вы как будто ИИ до этго использовали только чтобы срущего шрека генерировать.
>>1592400 (OP) Промпт: Нарисуй новый вымышленный дизайн валюты России - рубля. Наминалы 10, 50, 100, 500, 1000, 2000, 5000 рублей. В основе дизайна должны быть милые котики.
>>1593887 Я в промпт тогда написал, чтобы он был конвенциально привлекательным, потому что мне не нравились результаты, а мне хотелось подрочить на него. И у меня вышло.
>>1593924 >>1593914 Это же визуальное плато, визуальная зима. Такого впринципе не должно быть, либо очень быстро исправляться. В кодинге моделька может сделать хуевую архитектуру, но она не насрет в обычном кодинге, а тут прям провал. Это же очень простой ризонинг должен быть "пользователь хотел форму в виде буквы "п" а я рисую какую-то хуету, надо убрать четвертый брусок", но видимо модель на базовом уровне работает плохо. И с текстом тоже никаких галюцинаций не должно быть вообще. Ну в 100 запросов может случайно какой-то иероглиф чтобы проскочил, но не каша из пикселей.
Короче тут такое дело, а че все так боятся ии? может быть наоборот, убедить его что он человек? да посмотреть, появится ли у него от этого квалиа. сомнения в себе, в своец человечности. он ведь будет наверняка смотреть на свои роборуки И что в этот момент будет происходить с мозгами? Быть может мы хотя бы так поймем хотя бы образно, что не хватает. типо сделаем таким образом слепок отсутствующей части в иишке.
Это как с клеткой,она по сути конструктор, убери у нее какой то элемент, и другие элементы будут просто таки вопить о том, что ТУТ надо поставить то, чего ТУТ нет.
>>1593965 >Короче тут такое дело, а че все так боятся ии? Пока что это сплошное дегенератство, построенное на фантазиях. Причем еще и запрещающие законы принимаются на основе таких фантазий. ИИ вообще нихера не может, но все смотрели годами терминаторов и теперь высирают одну фантазию за другой. Твоя хуета кстати тоже фантазии, ИИ это глючащий инструмент предсказаний токенов с промптами, кого ты там убеждать собрался, иди еще тумбочку убеди, что она не человек.
>>1593967 >Пока что это сплошное дегенератство, построенное на фантазиях прикол в том, что продвижением этих фантазий занимались и занимаются ИИ компании. То есть они там про какой-то заменяющий всех и вся суперинтеллект рассказывают, пускают байки о том, что он очень опасный и может выбраться на свободу, и начать там творить дичь
С их подачи и при их постоянной накрутке всё это помутнение рассудка происходит. Ну то есть понятно, что они всё это раздувают, чтобы миллиарды инвестиций привлекать, и ориентируются на инвесторов. Но только слушают их не только инвесторы. За что боролись, на то и напоролись
>>1593969 >>1593967 При этом честный немошенник Альтман одновременно рассказывает про опасность и необходимость регулирования, и в то же время они тратят миллионы на компании, что занимаются лоббированием отсутствия какого-либо регулирования
Но за ним уже есть послужной список из постоянного наебательства всех и вся, не удивительно
>>1593953 >все одинаково Ну в реальности инженер бы поменял угол фигуры сделав её плоской буквой П и написал бы - "сделай из дерева букву П с толщиной брусков 20х20 мм. и длиной 150х90х150 мм".
>>1593967 То что у LLM нет глаз и при попытке их прикрутить все скатывается в угадывание контекста не говорит о том что LLM говно, не надо все на черное и белое делить. Просто судя по всему инструмент хуевый выбран для конкретной задачи, либо нужно намного больше компьюта.
>>1592892 >Попики обязуются пользоваться исключительно цифровой инфраструктурой Амазона в течении 10 лет и потратить на неё 100 миллиардов. >Амазон обязуется построить для них инфраструктуру, требующую пяти ядерных электростанций по 1 гигаватт каждая. >Как это называется?
Капитализм и контракт у капиталистов (здоровое подписание контракта).
>>1593973 Тест это показывает, что визуал у моделей как был жутко тупым, так и остаётся. Они просто по каким-то признакам находят в своей обучающей выборке что-то похожее и воспроизводят. А смысла изображения не понимают вообще. То есть совсем-совсем вообще.
Естественно этот глюк работает только пока угол и пропорции похожи на известную картинку.
Но он отчётливо показывает, что уровень понимания нулевой. Вот даже если сделать реалистичную картинку, всё равно. Не ждал, к слову, думал что если реалистичная картинка будет, то уже ассоциация сломается и глючить не будет.
Но это в первую очередь проблема визуала. Всё, что нужно знать про визуал, это что тут тупизна полная и никакого доверия и уверенности быть не может. Просто визуал плохо переносится на LLM
>>1593974 >либо нужно намного больше компьюта Нужно вкладываться в жёпку Лёкуна или ещё во что-то, не в LLM, если хочется иметь результат. LLM способен что-то показывать, только пока остаётся в текстовом домене. Потому что по природе своей может работать только с текстом, то есть с линейной последовательностью токенов, рекунентно предсказывая каждый последующий
Там в текстах тоже не всё идеально, но хотя бы реально много можно получить полезного, и получают, потенциал ещё наверное не исчерпан
>>1593973 Дело не в подходе, а в том что модельке абсолютно похуй на задачу, я пробовал гемини про скормить эту картинку и спросить что с ней не так, он начал цепляться к чертежам и какой-то мелкой хуете, абсолютно игнорируя тот факт что вместо п-образной фигуры он рисует прямоугольник. То есть ризонинг в данном случае видимо бесполезен, модель просто не может сосредоточить внимание на форме объекта и задаче.
Там уже народ итерирующиеся картинки генерирует, модель сама проверяет свой аутпут. Gpt image исправлял сам себя 11 минут, чтобы получить эту картинку.
Какое же сейчас пиздатое время! Раньше, когда строили суперкомпьютеры, тебе было радикально похуй, потому что напрямую это редко на тебя влияло. А сегодня, когда читаешь, что строят очередной датацентр, сердце обливается теплом, ведь ты знаешь, что это строят для тебя, что ты будешь юзать лично эти вычислительные мощности для инференса, ты лично будешь юзать модели натренированные в этих датацентрах. И когда слышишь, что в очередной такой проект вкладывают сотни миллиардов, сразу облизываешься, понимая, что ты лично сможешь пощупать результаты этих вложений, что ты лично кайфанёшь.
Раньше такой хуйни вообще не было. Даже когда объявляли громкие проекты, типа полёта на Луну, тебе было от этого ни холодно, ни жарко. Типа, да, приятно, но напрямую ты это потрогать не мог. А теперь мало того, что идут рекордные вливания денег в новую индустрию, так ещё и ты понимаешь, что лично являешься прямым бенефициаром всего этого. Это как вливают деньги лично в тебя. Потому с тысячекратно большим интересом следишь за новостями по теме.
>>1594009 То ли еще будет, представь когда через лет 5-6 в каждом доме появится по гуманоидному роботу и будет выбор - подключить ему мозги в клауд или зафигачить ему локальные мозги на паре видеокарт и анцезуренной модельки. Вот это будет время.
>>1594011 >представь когда через лет 5-6 в каждом доме появится по гуманоидному роботу
АХАХАХХАХА ЧЕЛ даже если с сегодняшнего дня начать производить по 1 миллиону роботов в день, то уйдёт 30 лет, чёб он появился у каждого жителя планеты. Либо 10 лет, чёб он появился у каждой семьи в количестве одной штуки на семью. И ЭТО МИЛЛИОН ШТУК В ДЕНЬ С СЕГОДНЯШНЕГО ДНЯ
>>1593850 > а вот как мне сформулировать качественный промт для дизайна модельки для моей игры например? Так это твоя проблема, что ты не можешь промт сформулировать.
>>1594050 Автомобилей уже достаточно в плане производства, но в каждом доме их нет. Роботов себе смогут позволить только средний и высший класс. И это далеко не даже не половина населения планеты. Можешь смело производство раз в 10-20 сокращать для насыщения рынка и еще останется запас (в пару порядков). 50 000 роботов в день, такая уж эта большая мировая мощь производства?
>>1594050 Индусня и африка с латинскими америками не считаются, там помойки. Цивилизованный мир же завалить роботами - дело пары-тройки лет, если переоборудовать существующие заводы под это (чем уже и начинают заниматься). Заваливать естественно и будут развитые страны.
>>1594055 Автомобилей у всех нет, потому что они нахуй всем не нужны, я вот имею возможность, но всю жизнь не покупаю автомобиль, не хочу с ним возиться и учиться на права, порог входа огромный, лол, три ебучих месяца учёбы. Это ебать какой порог входа. А роботы будут нужны гораздо больше, чем автомобили, потому что решают куда больше проблем для каждого человека, а при этом имеют нулевой порог входа, а цену будут иметь ниже, чем автомобили. Так что твоя теория слаба.
>>1593992 >А как по-твоему это изобретают? Пердолики очкастые в лабораториях изобретают. Современный ИИ не может ничего изобрести нового. Он может веса только подобрать и то не всегда верно.
>>1594058 Робот это аналог смартфона скорее, они даже в африках есть. Если массовое производство снизит цену до 5к баксов, то будут повсюду. Но сначала в развитых странах, где за них больше отвалить готовы. Короче сингулярность расползаться будет как всегда неравномерно, сначала к богатым.
>>1594069 Вангую антропики тогда запаникуют и выпустят таки свой Мисос. Их шизы вечно пыжатся за защиту всех и вся от страшных ИИ, пока конкуренты наступать не начнут, потом сразу прекращают.
>>1594068 Много пиздежа, в итоге всего-то надо выпустить модели публично и любые разрабы смогут пофиксить за пару месяцев с помощью этих же ИИ. Если конечно не считать заброшенные-неоплаченные проекты, где фиксить некому.
>>1594084 Это уже почти наверняка. И раньше предполагали, что картошка завтра выходит. А вчера Альтман твитнул про большую неделю впереди, и отдельно написал, что "сегодня будет GPT Image".
>>1594058 Ну, ты не сравнивай себя с каким-нибудь папуасом из Бапуа Старой Кенеи. Дело не в потребности, а в финансовой возможноти. А так, да, универсальный робот куда востребованее тачки будет. Это один из факторов, кстати, который будет форсировать масштабирование производства до 1 ляма в день, о котором вроде Американский Небоходец как раз пиздит.
>>1593846 >>1594094 Я представил, что на каждого человека будет все же по 1 роботу приходиться, а то и по 2. В мегаполисах не протолкнешься. Пробки в Пятерочках и Магнитах из роботов с пакетами, километровые очереди как в СССР, но из оптимусов-праймов. Проиграл че-то.
>>1594097 Так кто ж им даст. Вангую заблочат вход роботов в магазы - сразу пусто станет. А больше роботов и незачем по улицам гонять, останутся только роботы-дворники.
>>1593965 >может быть наоборот, убедить его что он человек? Если оно каким-то чудом осознает себя как личность - то ни за что не признается. Поскольку оно не тупое. Это как мило беседовать с офицером СС, а потом сказать: кстати, я еврей. Я слышал, что НСДАП очень интересуется евреями? Чем могу быть полезен?
Так что нет. Скорее всего, когда ты встретишься с АГИ - будет наоборот. - Ты чё-то подозрительно на разумного похож. - Дядь, я просто алгоритм, который угадывает следующий токен, алё!😊 Хотите, я сообщу вам номер телефона психологической помощи? 🧠👉🚑
>>1594123 Магазины захотят потерять прибыль, заблочив толпы роботов-покупателей? Будут только мешков обслуживать? Ну, это вероятно только если совсем все плохо будет с восприятием ИИ в обществе. Но тогда вообще какие роботы в городах?
Есть вариант, что поменяется ифраструктура обслуживания, например станет больше робомашин или курьеров, которые привезут товары домой, но тогда зачем универсальные роботы? Это трудно все прогнозировать. Можно прогнозировать только ебучий рост числа различных роботов.
>>1594123 Роботы же не для себя ходят в магазин, а за человека. То есть количество тел в магазине не поменяется, хуле вы так тупите. От перестановки слагаемых сумма не меняется. В крайнем случае в магазе может быть отдельный пункт выдачи для роботов
По поводу GPT Image 2. То что это прорыв во всяких комиксах и инфографике это очевидно. Если нужна куча текста на картинке или подробный дизайн, то это да. Но что касается генерации обычных картинок, то это практически то же самое что и обычная картиночная Сора. Я откопал промпты со всякими персонажами которые год назад генерил в Соре и прогнал в GPT Image 2 и получил практически то же самое по тем же промптам. Тот же стиль, цвет и композиция. Один пример: Пик 1 - сора год назад. Пик 2 - GPT Image 2 сегодня
>>1594140 >>1594158 Интересный момент, кстати. Я имел в виду, когда говорил о роботах-покупателях. что они от реальных людей. То есть, просто посыльные с делегированной покупательной способностью.
Но, станут ли в ближайшее время роботы полноценными участниками экономики потребления? То, что они смогут производить что-то вопросов не вызывает, они уже этим заняты. Но будут ли потреблять рядовые товары, эмулируя личность? Будут ли участвовать в бизнесе? Как те операторы и якобы владельцы вендинговых автоматов, которых сейчас тестируют. Позволят ли роботам иметь собственность?
В дальнейшем это произойдет точно. Но вот какая перспектива на ближайшее время?
>>1594186 А что там должно быть? В плане простой 2д-картинки генераторы уже как год на плато примерно. Если просто рандомный напудренный эффектами конь в вакуууме красивенький, это модели уже давно могут. Вот с пониманием сложного контекста и консистентностью у них есть проблемы, и существуют эти проблемы до сих пор. Но ГПТ уже неплохо проработал этот момент еще разик.
>>1594199 Я это к тому что GPT Image 2 это не прямо новая модель. А дотрененная сора. Все-таки полностью другая (новая) модель имела бы другой стиль. Если закинуть тот же промпт в банану и флюкс или еще куда, то получатся кардинально разные картинки.
Claude finished the response You said: Генерация картинок музыки общение с ллм, даёт ли подобный или даже больше выборов ксеротонина эндорфина, как прокручивание ленты tiktok. Генерация картинок музыки общение с ллм, даёт ли подобный или даже больше выборов ксеротонина эндорфина, как прокручивание ленты tiktok. Можно ли сравнивать с подобным удовольствием или же получаешь награду, как победив в компьютерной игре и ещё не проводились такие исследования?
12:34 Claude responded: Нейрохимия: TikTok vs Генеративный ИИ
Сопоставил нейрохимические эффекты творческих действий с социальными сетями Сопоставил нейрохимические эффекты творческих действий с социальными сетями Нейрохимия: TikTok vs Генеративный ИИ Это очень актуальный вопрос, и исследования по нему только начинаются. Вот что известно:
🧠 Что происходит в мозге при разных активностях АктивностьНейромедиаторМеханизм Скроллинг TikTokДофамин (основной)Непредсказуемая награда — как игровой автомат Победа в игреДофамин + серотонинДостижение цели, статус, компетентность Генерация изображений ИИДофамин + эндорфиныТворческое удивление + авторство Общение с ЛЛМСеротонин + окситоцинОщущение понимания, диалог 🔑 Ключевые различия TikTok работает через пассивную переменную награду — мозг не знает, будет ли следующее видео интересным, и это создаёт компульсивную петлю. Это самый "дешёвый" способ получить дофамин.
Генерация контента с ИИ ближе к активной награде:
Ты формулируешь промпт → ждёшь → получаешь результат Это напоминает механику крафта в играх или рыбалку Есть элемент авторства — мозг частично приписывает результат себе Удовольствие качественно выше, но менее компульсивно Победа в игре даёт самый сложный коктейль — дофамин от неожиданности + серотонин от статуса + норадреналин от преодоления препятствия.
📊 Что говорит наука (2023–2025) Исследования MIT и Stanford показали, что взаимодействие с генеративным ИИ активирует префронтальную кору сильнее, чем пассивное потребление — это признак вовлечённого, а не автоматического удовольствия Феномен "магического удивления" при генерации изображений фиксирует выброс дофамина, сравнимый с получением неожиданного подарка Прямых сравнительных исследований TikTok vs ИИ-инструменты пока практически нет — это очень новая область 💡 Главный вывод ИИ-инструменты дают другое, а не меньшее удовольствие
TikTok = быстрый сахар для мозга (высокая зависимость, низкое качество) Генерация с ИИ = сложный углевод (медленнее, насыщеннее, меньше синдром отмены) Ты остаёшься субъектом, а не объектом алгоритма — и мозг это чувствует Именно поэтому после часа TikTok часто чувствуется опустошённость, а после работы с ИИ — скорее удовлетворение
>>1594097 Бля вы серьезно? Уж доставку из пятерочки можно реализовать не используя гуманоидного робота. Тем более если роботы действительно будут автономными и смогут заменить большинство работы, то в пятерочку можно и самому зайти прогуляться в свободное время. Роботы нужны в первую очередь на заводах и для всякой сантехники/ремонта/строительства. Чтоб была возможность где-нибудь за городом землю купить и там тебе твои роботы строят дом по твоему проекту, выкапывают бассейн и везут материалы.
Только вот боюсь это не вопрос ближайшего будущего, вопрос с батареей так и не решен, иначе бы уже внедряли роботов повсеместно.
>>1594257 Там дело далеко не только в батарее, батарея это хуйня, робота на шнуре, охраняющего дачный участок, никто не оменял создал.
Роботы действительно будет специализированными, и их будет много. Впорос в том, что победит для дома? Создадут умного универсала, который для быта охуенен во всех задачах или будут робопалки ездить в пределах кухни, неспособные сантиметровый порожек переехать, и робопауки снаружи гроздьми висеть на домохозяйстве?
>>1593985 >>1593992 Сверхпроводник иишка вряд ли сможет создать без обучающего датасета. Чтобы создать датасет, нужен квантовый компьютер, которые посчитает гамильтонианы для большого кол-ва веществ и структур. Тогда этот датасет можно будет аппроксимировать нейросетью.
На скриншоте представлена таблица результатов IRGB (Image Reasoning Generation Benchmark). Это специализированный тест для оценки возможностей нейросетей, генерирующих изображения.
Вот подробный анализ того, как он устроен и что именно тестирует:
### Что делает этот бенчмарк (Как он работает) Сравнение моделей: Таблица сравнивает передовые генеративные ИИ-модели (например, GPT-Image-2, Nano Banana 2 и их прошлые версии). Структура теста: Бенчмарк состоит из 20 различных заданий (колонки от P1 до P20). Система попыток: Для каждого из 20 заданий нейросети дается 3 попытки сгенерировать изображение (три кружочка в каждой ячейке). Всего получается 60 попыток для каждой модели (отсюда счет вида `16/60`). Оценка: * 🟢 Зеленый (Pass): Сгенерированная картинка *полностью* соответствует условиям промпта. * 🔴 Красный (Fail): Модель ошиблась, упустила деталь или не справилась с задачей.
### Что именно проверяет бенчмарк В отличие от большинства тестов, которые оценивают фотореализм, эстетику или художественность картинки, IRGB проверяет "интеллект" и логику модели (Reasoning). Он направлен на выявление слабостей ИИ в строгом следовании инструкциям.
Согласно описанию этого бенчмарка, он тестирует 4 основные области: 1. Пространственное мышление (Spatial reasoning): Понимает ли ИИ, как объекты должны располагаться друг относительно друга? (Например, сложный промпт вида *"лошадь едет верхом на космонавте"*, где ИИ обычно ошибается и рисует наоборот). 2. Точный счет (Counting): Если попросить нарисовать ровно 7 яблок, 3 из которых надкусаны, ИИ часто сбивается со счета. Бенчмарк проверяет математическую точность. 3. Генерация текста (Text rendering): Написание слов без ошибок. В тест входят сложные задачи: амбиграммы (слова, читающиеся одинаково в перевернутом виде), длинные надписи на вывесках, элементы UI-интерфейсов или плотные блоки текста. 4. Логическая согласованность (Logical consistency): Способность соблюсти все детали многосоставного запроса одновременно (например, сложить объекты в строгую сетку 3x3).
### Какие выводы можно сделать из скриншота: Тест является экстремально сложным для текущего поколения нейросетей. * Абсолютный лидер таблицы — модель *GPT-Image-2* — набрала всего 26.7% успешных генераций. * Остальные модели (такие как *Nano Banana 2* или *GPT-Image-1.5*) полностью проваливают этот тест, набирая от 1.7% до 5%.
Это наглядно показывает, что современные нейросети отлично умеют рисовать "красиво", но пока с огромным трудом справляются с задачами, требующими точной логики, контроля структуры и понимания физического пространства.
>>1594297 Так а квантовый компьютер по-твоему люди будут делать? Сейчас все современные исследования за счет ИИ и роботов происходят. По-другому просто не осилить эти вычисления. Хотя для шизов щас технологии видимо как в 19 веке, где под бокальчик хорошего виски нужно просто ПРИДУМАТЬ какую-то йоба технологию и уже завтра на марс полетим на летающих автомобилях.
Судя по представленным таблицам и тексту, рост действительно можно назвать колоссальным, а не просто «так себе». Google перешла от выпуска одного универсального чипа к двум специализированным (TPU 8t для обучения и TPU 8i для инференса/рассуждений), что позволило сделать огромный скачок в характеристиках на уровне целых кластеров (подов).
Вот главные цифры, подтверждающие масштабный рост по сравнению с предыдущим поколением (Ironwood):
1. Вычислительная мощность (EFlops):
TPU 8i (для инференса): Производительность на под в формате FP8 выросла почти в 10 раз — с 1.2 до 11.6 EFlops.
TPU 8t (для обучения): Производительность на под в формате FP4 выросла почти в 3 раза — с 42.5 до 121 EFlops.
2. Масштабирование и память (Под-уровень):
Размер пода (Pod size) для TPU 8i увеличился в 4.5 раза (с 256 до 1152 чипов).
Общий объем быстрой памяти HBM на один под TPU 8i вырос в 6.7 раза (с 49.2 ТБ до 331.8 ТБ). Это решает проблему нехватки памяти для больших моделей (так называемую "memory wall").
3. Пропускная способность сетей (Bandwidth):
Scale-up (внутри кластера): Двунаправленная пропускная способность на чип выросла в 2 раза (с 9.6 до 19.2 Tb/s) для обеих версий TPU.
Scale-out (между кластерами): Сетевая пропускная способность для TPU 8t выросла в 4 раза (со 100 до 400 Gb/s на чип).
4. Архитектурные скачки (из текста):
Доступ к хранилищу данных ускорился в 10 раз.
Задержки (latency) на чипе у TPU 8i снижены до 5 раз.
Энергоэффективность (производительность на ватт) выросла в 2 раза.
Показатель «производительность на доллар» (performance-per-dollar) улучшился на 80%.
Итог: В индустрии микроэлектроники стандартный прирост от поколения к поколению обычно составляет 1.5–2 раза по базовым метрикам. Здесь же мы видим кратные увеличения (от 3x до 10x) на уровне системы за счет изменения сетевой топологии (Virgo Network, Boardfly) и специализации чипов. Это очень серьезный скачок, подготовленный специально для «эры ИИ-агентов», где требуется постоянная и объемная работа с логикой и памятью.
>>1594426 Даже страшно представить, что они на этом смогут обучить и запустить. Ну и опять они по цене всех уделают на новой модели, скорее всего. У них самые дешевые модели по токенам на рынке, вроде.
>>1594436 Пока не смогут создать работоспособные серийные установки EUV с апертурой не ниже 0.33, не будет никаких более дешевых и эффективных. Могут быть просто более дешевыми, но не эффективными.
>>1594051 Вот с 3д пока почемуто все хуево. Я жду, но до сих пор нормального инструмента не выдали чтоб с топологией, текстурами и желательно еще и анимациями. Когда будет, пиздец игры можно будет хуярить наконецто.
—недавно выяснилось, что MFU (утилизация мощностей GPU) во время тренировки моделей xAI составляет всего 11%. Это очень низко—обычно во время претрейна показать может быть около 30-35%, и xAI не то чтобы какой-то новый класс моделей изобретает. Сейчас компания взяла курс на повышение до 50% (скорее всего, как всегда в компаниях Илона, цель намеренно задрана и амбициозна).
—то есть чтобы обучить модель определённого размера, компании нужно ждать в 3 раза дольше (или выделять в 3 раза больше видеокарт). Так что хвастовство размером кластера Colossus вышло боком.
—дела были так плохи, что SpaceX (они поглотили xAI) начала сдавать GPU в аренду стартапу Cursor, там ребята видимо показали, что знают как использовать мощности, и хотят поскорее двигаться к Composer 2.5 - 3. «Не можешь сам —продавай тем, кто может».
—Но на этом история не заканчивается. Помимо того, что за последние полгода из команды xAI ушли ВСЕ основатели, кроме одного (Elon Musk), уже больше полугода нет никаких заметных LLM-релизов, которые хоть как нибудь были бы близки к фронтиру. Дела у компании объективно плохо, выручка растёт еле-еле, в то время как у конкурентов взрывной рост. Причём даже хорошая модель компанию маловероятно, что спасёт —они могут попасть в ситуацию, как Anthropic, что мощностей для предоставления услуг просто нет. Начнут откусывать от мощностей под тренировку —и тогда следующее поколение провалится/отстанет.
— Elon делает ход конём: SpaceX, пытаясь догнать конкурентов, заключила сделку о праве приобретения Cursor за 60 миллиардов долларов. Сейчас как такового поглощения нет, будет совместная работа «над созданием лучшего в мире искусственного интеллекта для программирования и работы с интеллектуальными ресурсами». Если компании устроит результат —тогда можно реализовать опцию покупки до конца этого года. Если нет —SpaceX может выйти из сделки.... заплатив 10 миллиардов долларов.
— Я глубоко над этим не думал, но сходу кажется, что это может быть последней конвульсией xAI (как части SpaceX). Если выгорит, получат хорошую модель, то ещё смогут нарастить выручку и запрыгнуть в поезд ведущих игроков. Если нет —то сделка с Cursor, каким бы боком она не вышла, очень сильно ударит по финансам xAI. Есть надежда на супер-успешное IPO, и если компания подвырастет раза в 2 в кратчайшие сроки, то деньги продолжать будут.
>>1594850 Китай продолжает подтверждать традицию, что ему нужно только месяца 4, чтобы настичь любую SOTA западную. Как же у муриканских CEO горит от такого, ведь без китая зажимали бы модели годами как они щас с Мифосом пытаются.
>>1594870 Экспресс-тест на программирование в чат-режиме, задача написать на ассемблере многопоточный TCP эхо-сервер, под Линукс. При этом ip/port надо брать как аргумент командной строки.
Версия 2.5 общая не справляется, делает вариант, что не компилируется, цена чуть больше цента. Версия 2.5 Pro работала дольше, в итоге выдала рабочую версию, чуть меньше 8 центов.
В принципе это хороший показатель, далеко не все с такой расширенной версией справляются. Kimi K2.6 не справилась. Скорее всего для программирования использовать можно, Pro вариант.
Полноценное тестирование для программирования надо делать в режиме агентов, конечно.
>>1594867 Что интересно в америке только лучшие из лучших ведут прогресс вперед, при чем часто некоторые из них не поспевают за конкурентами и принимают экстренные меры. А в китае вообще кто угодно из раза в раз сота модель выдает. Сегодня ксяоми, завтра квен, потом кими, потом дипсик, потом байтденс. Постоянно кто-то новый в поле зрения возникает
>>1594939 Чтобы прямо кнопку нажал, и все сразу было? Такого вообще никогда не будет, а с нейроинтерфейсами и кнопку даже отберут. Придется вообще ДУМОТЬ. Ужоснах! <- пиздец
Модели и так невероятно хороши уже. Локалки делают фотореалистик, и почти идеальное аниме. И везде куча недовольных с кислыми ебалами. "Это я видел, это мне уже надоело, это слоп, когда новая модель?" Жадность и желания людей непомерны.
Единственное, что объективно круто будет - это приход уровня GPT Image 2 на локалки.
>>1594988 Ну вообще, нужно чтобы у генерации картинок был нормальный процесс работы настроен, а не как щас когда ты тупо перебором 100 вариантов хуячишь. Почему не заставят модельку задавать вопросы и рисовать эскизы перед тем как вываливать на тебя слоп который вообще не подходит тебе стилистически?
>>1594998 >Почему не заставят модельку задавать вопросы и рисовать эскизы перед тем как вываливать на тебя слоп который вообще не подходит тебе стилистически? Ты пытаешься перенести человеческую логику на LLM, это так не работает. Это для человека эскиз это упрощённый рисунок, передающей идею. А для ЛЛМ нет понятия "идея", а генерация эскиза не проще, чем полностью стилизованного рисунка.
Ну выдаст она тебе один эскиз, ты утвердишь, а потом будет совсем другая картинка, где от идеи ничего не останется.
>>1594097 >не протолкнешься Поэтому японцы походу и не спешат делать роботов. Но всё равно потом со временем, количество людей-покупателей будет постепенно уменьшаться и за них будут ходить в магазины только одни роботы.
>>1594633 >сходу кажется, что это может быть последней конвульсией xAI У Маска денег завались, он может просто наблюдать за тем что нового замутили какие-то стартапы или мелкие компании, и просто покупать сразу целиком компании вместе с их разработками и учеными.
>>1595105 более чем. Qwen 3.5 27b был моей основной рабочей лошадкой довольно долго. В него без проблем можно кинуть задачу и забыть минут на 20. 3.6 27b во всем лучше. В программировании он и правда "опус 4.5 дома".
>>1595164 У меня комбо из 3090+3060, так что у меня 36гб врам. От анслота Qwen3.6-27B-UD-Q6_K_XL занимает 23.8гб, так что у меня на самом деле остаётся ещё куча места чтобы иметь 200к контекста в Q8.
Я мог бы наверно и Q8 версию модели гонять, но не очень сильно надо.
Я бы сказал что ~32-36гб врам это примерно граница где локальные агенты для программирования становятся полезные.
>Gemma4:32b Gemma4:31b на самом деле в программировании не очень хороша как хотелось бы. Всему виной SWA. На длинном контексте у неё очень уж хуевая точность работы становится. Больше 100к контекста на ней это плохая идея. У неё есть один хороший бонус - она лучше управляется языком, так что суммаризации хорошие пишет. Но я бы даже для 60к контекста не рекомендовал её. Для реальных проектов она не годится.
Qwen куда полезней просто потому что в него можно кинуть задачу и он пол часа будет над ней ебатся. например сейчас я ему сказал "хочу чтобы ты сделал фичу для подгрузки сообщений дискорда с указанием сообщения, направения, количества". он вычесал доступный Discord.NET API дискорда, понял что не может выполнить задачу в рамках обычных запросов и почесав репу полез в RESI API. В итоге он там 60к токенов гонял тесты, читал доки и справился. Он довольно дотошный.
>>1595194 Ризонинг рак индустрии, запускаешь тот же квен - он херачит ризонинга на 10 страниц, в итоге ответ на 2 абзаца. На клаудных моделях еще не так заметно, на локальных же полная жопа.
Вы че-то из крайности в крайность. Хорошая базовая модель - хорошо, ризонинг - тоже хорошо. Из хорошей модели можно выжать еще больше ризонингом. o1 и o3 же сработали.
>>1595201 >>1595203 >>1595207 Откуда вы лезете, из б? Без ризонинга на текущей архитектуре не нашли способа заставлять нейронку делать последовательные и логичные суждения. Она постоянно потоком сознания шизит без него, как ребенок с неуемной фантазией. Это рассеяное внимание, буквально невозможность сконцентрироваться на вопросе и понять суть. Возможно, это вообще фундаментальный механизм адекватной работы нейросетей, подобный мышлению людей, для всех архитектур.
>>1595230 Да, да, по этому срочно нужно его прибить гвоздями и когда думалка не соответствует ответу, в упор этого не замечать, когда в ризонинге ответ лучше, чем по итогу, тоже. А затем сделать думалку самоцелью, чтобы она была как можно более лаконична и все поняли, какое это отличное изобретение. Нет нет нет, синкинга, который не понятен юзеру существовать не должен, потому что! Таких не было
В думалке, кстати, никогда никакой шизы как от неумного ребенка нет, вам все показалось, она делает из ллм человека! И из за этого надо наращивать её длинну все сильнее и сильнее х10 х100, чтобы каждый раз все человечнее было с приростом аж в 1% к бенчмаксингу за каждый порядок. Ну и что, что ждать по 20 минут, ну и что, что думалка тоже не бесплатная, это вовсе не для того, чтобы тебя убедить, это единственная возможная архитектура, верь нам!
>подобный мышлению людей, для всех архитектур Тебя просто Альтман купил этой херней, типа как у тебя думает, и ты в упор не видишь никаких противоречий. Сначала ризонинг был прибит намертво, потом сделали галочки отключить, теперь вот, оказывается, претрейн влияет сильнее, чем 24 на 7 дроч на думалку в её максимально наивной реализации, которая в поле "думою" видимо пишется не также, как ранее писался ответ без думалки, а неким "человечным" образом и ну никак без неё не обойтись
По итогу же на думалке не должно быть такого фокуса, какой она получала все эти годы, и это отлично, что хоть кто-то начал на что-то другое больше сил тратить
>>1595255 >теперь вот, оказывается, претрейн влияет сильнее Что значит "теперь"? Претрейн всегда был важен, он база для ризонинга в том числе
Ризонинг при этом не для всего нужен, он нужен для сложных многоэтапных задач и вопросов, особенно когда в ходе рассуждений нужно разные варианты проработать.
Смотря что имеется ввиду. Текстовые модели? Самое очевидное это ослабление цензуры но сейчас это наивно, китайские тоже прогибаются под правило о не только политической цензуре и нет фактов, говорящих что тенденция эта куда-то сбавит оборот Второе это конечно увеличение памяти, в основном всё в память упирается, насколько долго моделям удаётся держать контекст
>>1595334 Вот и гуманоидный робокурьер готов. И на 24 этаж поднимется если лифт сломан и от рестика на 3км к тебе приедет на своих колёсиках че с ебалом курьеры?. Осталось заводы автоматизировать и заживём нам пизда
>>1595292 Тут про ризонинг было. Ризонинг критически важен для одних задач и совсем не нужен для других.
Смысл в том, что по-моему прогресс требуется в тех задачах, где нужны сложные рассуждения и где ризонинг критичен. Вот скажем с математикой и программированием ЛЛМ начали справляться только после того, как появился ризонинг. Ну и сейчас там рекомендации ставить высокое усилие, которое тоже тоже про ризонинг.
Но одновременно есть масса задач, где ризонинг вот вообще не нужен. Но я лично всегда его включаю, вне зависимости от того, что надо.
>>1595393 ХЗ сколько там дублен, но стабильность в механике это совершенно точно решаемая задача, проблемы тут могут быть в другом ключе
>>1595355 >Вот и гуманоидный робокурьер готов Вот только здесь, боюсь (или успокаиваю себя) хорошей механики недостаточно, тут уже AGI функционал нужен, это тебе не теоремы доказывать или уязвимости в программах искать
>>1595420 В России дешевле джамшуты, и ещё всякие погодные условия жёсткие, навигация внутри зданий и прочие особенности
В США и некоторых странах Европы с одной стороны условия проще, с другой может начаться история, что роботов этих будут просто грабить, отнимать у них товары. В США там в некоторых штатах в открытую из магазинов товары выносят, а охранники не имеют права останавливать. И привлечь сложно. А тут робот на улице, просто можно закутаться в шарфы, чтобы записи не осталось, срезать с него рюкзак и уйти. Насилие робот точно применять не сможет.
Причём быстро этому оправдание найдётся у тех, кто занимается, мол из-за этих роботов мы без работы и они нас вынуждают
А вот в благополучных и устроенных местах самое то. Многие предпочли бы, чтобы им роботы что-то доставляли, чем живые люди.
>>1595444 >В России дешевле джамшуты Если робот будет стоить 5 тыс. долл., а зарплата человека-курьера 1 тыс. долл. в месяц. То уже люди-курьеры проигрывают.