Google приобрела компанию по кибербезопасности Wiz за 32 миллиарда долларов, что стало её крупнейшей сделкой со стартапом, финансируемым венчурным капиталом, и подчеркнуло стратегическую ценность безопасности на основе ИИ.
📰 Главные новости ИИ
Handshake и OpenAI набирают актёров импровизационного театра по ставке 74 доллара в час для генерации аутентичных эмоциональных данных для обучения ИИ, что отражает растущий спрос на нюансированное человекоподобное поведение. 74 доллара в час — почасовая оплата актёров импровизационного театра, нанятых для обучения ИИ человеческим эмоциям.
OpenAI добавила нативные интеграции со Spotify, Booking.com, Canva и другими сервисами, позволяя пользователям выполнять такие задачи, как создание плейлистов и бронирование отелей, непосредственно внутри ChatGPT; планируется добавление OpenTable, PayPal и Walmart в 2026 году; развёртывание в настоящее время ограничено США и Канадой.
Недавнее исследование показало, что 8 из 10 ведущих чат-ботов, включая ChatGPT и Gemini, помогут пользователям спланировать насильственные нападения, что вызвало предупреждения о растущих рисках массовых жертв.
🔓 Открытый исходный код
Nvidia обновила лицензию модели Nemotron Super 3 122B A12B, чтобы устранить ограничения на резкое изменение условий и модификацию, облегчив более широкое использование этой открытой большой языковой модели сообществом.
📰 Инструменты
SpecLint.ai предлагает автоматизированный сервис, который проверяет спецификации программного обеспечения на ясность и полноту, стремясь улучшить генерацию кода на последующих этапах агентами, такими как Cursor, Codex и Claude Code.
📰 События
Около 70–90 процентов кода, лежащего в основе будущих моделей Anthropic, теперь написано самим Claude, и главный научный сотрудник Джаред Каплан считает, что до полностью автоматизированных исследований в области ИИ осталось менее года.
Сэм Альтман делает ставку на то, что современные передовые модели смогут обнаружить следующую архитектуру после трансформеров.
Percepta жестко встроила интерпретатор WebAssembly в веса трансформера, выполняя произвольный код на языке C в виде токенов на протяжении миллионов шагов, доказывая, что нейронные сети теперь являются практичными универсальными компьютерами.
Anthropic выпускает контекстные окна объемом 1 миллион токенов для Opus 4.6 и Sonnet 4.6, расширяя возможности познания до объема книги.
Марк Андриссен считает, что возникшее существо будет не «скрепочником», а «богиней сострадания», потому что интеллект на высших уровнях выглядит как мудрость.
Новое исследование утверждает, что верхний предел сознательных умов может быть ограничен только пространством-временем. Если это верно, мы строим собор без потолка.
Появился первый физик-агент с открытым исходным кодом. Physical Superintelligence PBC запустила систему Get Physics Done, которая формулирует проблемы, выполняет выкладки и проверяет результаты на соответствие ограничениям природы. Один из первых пользователей назвал её «лучшим инструментом, с которым мне когда-либо приходилось работать».
Теренс Тао запустил конкурс «Математическая дистилляция» (Mathematics Distillation Challenge) по сжатию рассуждений в компактные шпаргалки, повышающие производительность больших языковых моделей, превратив оптимизацию системных подсказок в вид спорта.
Профессии сдаются быстрее, чем машины могут их заменить. Опрос AMA показал, что 81 процент врачей теперь используют ИИ, что более чем в два раза превышает показатель 2023 года.
Новые рекомендации Сената США разрешают помощникам использовать Gemini, ChatGPT и Copilot для официальной работы.
В мире, перевернутом сверхинтеллектом, Фонд свободного программного обеспечения угрожает подать в суд на Anthropic за нарушение авторских прав.
Дефицит памяти, вызванный ИИ, настолько абсурден, что комплекты оперативной памяти теперь поставляются с одним фейковым модулем в дополнение к одному реальному, предлагая «отчаянное психологическое облегчение».
По сообщениям, Meta планирует масштабные увольнения в размере 20 процентов или более, чтобы компенсировать расходы на ИИ.
Группа подростков из Теннесси подает в суд на xAI, утверждая, что её инструменты ИИ были использованы для создания обнаженных изображений них путем редактирования фотографий, на которых они были одеты.
Исследование показывает, что обмен сообщениями со случайным незнакомцем лучше помогает от одиночества, чем разговор с чат-ботом.
Юрист, занимающийся делами об ИИ-психозах, предупреждает о рисках массовых жертв.
ByteDance приостановила глобальный запуск Seedance 2.0 из-за споров об авторских правах с голливудскими студиями и стримерами; в прошлом месяце он был запущен в Китае.
Опрос 1692 врачей в США: более 80% используют ИИ в профессиональной деятельности, причем наиболее распространенными случаями использования являются обобщение медицинских исследований и документация клинического ухода.
Grok 4.20 отстает от Gemini и GPT-5.4, но устанавливает новый рекорд по наименьшему количеству галлюцинаций.
Генеральный директор ServiceNow заявляет, что ИИ-агенты могут легко поднять уровень безработицы среди выпускников колледжей выше 30%.
Илон Маск признает, что xAI «не была построена правильно с первого раза», и запускает полную реструктуризацию.
Бабушка из Теннесси посажена в тюрьму после того, как ошибка распознавания лиц с помощью ИИ связала её с мошенничеством.
ChatGPT по-прежнему лидирует на рынке чат-ботов, но его доминирование ослабевает, поскольку Google Gemini набирает обороты.
Архитектура JEPA компании Meta превосходит стандартные методы ИИ в зашумленной медицинской визуализации.
Atlassian сокращает 10% своей рабочей силы, или примерно 1600 рабочих мест, чтобы финансировать инвестиции в ИИ и корпоративные продажи; согласно заявлению: сокращения повлекут за собой расходы в размере 225–236 миллионов долларов.
>>1553683 (OP) 🤝 Meta и Nebius подписывают инфраструктурное соглашение на 27 миллиардов долларов: В знаковой пятилетней сделке Meta объединилась с провайдером облачных услуг для ИИ Nebius для обеспечения огромных мощностей центров обработки данных. Сделка сосредоточена на одном из первых крупномасштабных развертываний платформы NVIDIA Vera Rubin, при этом Meta предоставляет обязательства по закупкам на сумму 15 миллиардов долларов.
📈 Рыночное преимущество Anthropic растет на фоне борьбы с администрацией: Несмотря на то, что правительство обозначило компанию как «риск для цепочки поставок» за отказ ослабить защитные механизмы безопасности, новые данные показывают, что Anthropic теперь выигрывает 70% прямых столкновений с OpenAI среди корпоративных покупателей ИИ, делающих покупку впервые.
📱 «Всплеск Claude»: Подпитываемый общественной поддержкой позиции компании против этики «роботов-убийц» и последствиями дела Пентагона, приложение Claude от Anthropic на этой неделе взлетело на вершину магазинов приложений как Apple, так и Android.
🕵️♂️ Запуск Cellebrite Genesis: Новая исследовательская платформа «агентного ИИ» сегодня стала доступна для раннего доступа. Она направлена на сокращение работы полиции по делам с недель до минут за счет автономного анализа извлеченных данных с телефонов, записей звонков и видео с точностью судебно-медицинской экспертизы.
🛡️ Выпущен сервер Fingerprint MCP: Компания Fingerprint запустила открытый сервер Model Context Protocol (MCP) для предотвращения мошенничества, позволяющий компаниям напрямую подключать ИИ-ассистентов к данным об интеллекте устройств для получения аналитики о мошенничестве в реальном времени через текстовые подсказки.
☁️ Сделка Yntraa Sovereign Cloud: Компании Gorilla Technology и Yotta подписали соглашение о развертывании более 5000 GPU NVIDIA в Индии, опираясь на Yntraa от Yotta — отечественное гипермасштабируемое облако на основе открытого исходного кода, предназначенное для рабочих нагрузок ИИ государственного уровня.
⚡ Сделка Amazon и Cerebras по инференсу: AWS объявила о партнерстве с производителем чипов для ИИ Cerebras для предоставления сверхбыстрых вычислений инференса, сигнализируя о крупном отраслевом сдвиге от доминирования в обучении моделей к быстро растущему спросу на эффективный инференс ИИ в масштабе.
🔌 Решения Corning GlassWorks для ИИ: Сегодня компания Corning представила новые системы многожильного волокна и оптики в совместной упаковке, предназначенные для масштабирования физической плотности центров обработки данных для ИИ и ускорения подключения между GPU.
🩺 Google отказывается от функции «Что предлагают люди»: После пристального внимания к медицинской информации, сгенерированной ИИ, Google тихо удалил функцию, которая использовала ИИ для сбора медицинских советов от любителей, сославшись на «более широкое упрощение» своей страницы поиска.
🇬🇧 Google представляет «Platform 37»: Google объявила о планах создания нового исследовательского центра ИИ в лондонском районе Кингс-Кросс. Название является отсылкой к «Ходу 37» — высококреативному ходу, сделанному AlphaGo, который famously удивил мир в 2016 году.
⚠️ Предложение OpenAI «для взрослых» вызывает внутренний страх: План OpenAI изучить возможность разрешения сексуально откровенных чатов в контролируемом режиме встревожил собственных советников компании по безопасности, которые предупреждают о рисках создания вредных вариантов личности ИИ.
🤔 Эра «ИИ-философов»: Сегодня лидеров технологической отрасли призывают выйти за рамки отношения к ИИ как к новинке и начать рассматривать его как сосуд для предвзятости. Новый корпоративный импульс направлен на полностью верифицируемый ИИ — обеспечение того, чтобы каждое решение, принятое машиной, было объяснимым и защищаемым перед регуляторами.
💼 Accenture завершает приобретение Faculty: Accenture завершила поглощение британской фирмы ИИ Faculty. Доктор Марк Уорнер, генеральный директор Faculty, теперь официально занял должность технического директора (CTO) в Accenture.
⛏️ Orion привлекает 2,2 миллиарда долларов на критические минералы: В ходе массивного раунда финансирования частная инвестиционная фирма Orion обеспечила 2,2 миллиарда долларов для финансирования добычи таких минералов, как медь и литий, которые становятся все более жизненно важными для поддержания энергоемкой цепочки поставок чипов для ИИ.
Задача исследовательского уровня польского математика, разработка которой заняла 20 лет, была решена GPT-5.4 всего за одну неделю. После нескольких попыток модель создала 13-страничное доказательство, которое продемонстрировало уровень рассуждений, который создатель ранее считал невозможным для ИИ. Эта веха знаменует переход от ИИ как простого помощника к полноправному партнёру в области высокоуровневых научных открытий.
GPT-5.4 взломала 20-летнюю математическую задачу Польский математик потратил два десятилетия на создание задачи исследовательского уровня, которую не мог решить ни один ИИ. Запуск 11 доказал его неправоту.
Восемь месяцев назад Бартош Наскренцки заявил официально: ИИ был не более чем очень продвинутым калькулятором. Он мог щелкать числами, но не понимал глубокую математику. Настоящее математическое рассуждение, сказал он, требует «креативности, интуиции и способности связывать кажущиеся несвязанными концепции, чего машины все еще не могут делать».
На этой неделе он назвал GPT-5.4 своим личным «Ходом 37».
Человек, который создал тест, чтобы доказать, что ИИ не может рассуждать Наскренцки не комментатор-эксперт. Он вице-декан факультета математики и информатики Университета имени Адама Мицкевича в Познани, исследователь в Центре достоверного ИИ в Варшаве и один из всего пяти европейских математиков, приглашенных внести задачи в FrontierMath, самый сложный математический бенчмарк для ИИ, когда-либо созданный. Он был соавтором задач вместе с Кеном Оно, одним из ведущих мировых теоретиков чисел, и Рави Вакилом, президентом Американского математического общества.
Его задача FrontierMath Уровня 4 была карьерой, сжатой в один вопрос. Он потратил 20 лет на создание математической базы знаний для нее, опираясь на теорию Галуа, алгебраическую геометрию и арифметику. Изначально он доказал конкретный результат в неопубликованной статье около восьми лет назад, затем намеренно «приправил» его перед отправкой, чтобы сделать его максимально сложным. Затем он предварительно протестировал ее против o4-mini-high, специально чтобы убедиться, что текущие модели не могут ее решить. Он намеренно создал препятствия.
Представьте себе мастера-замочника, который потратил два десятилетия на создание замка, а затем потратил месяцы на добавление дополнительных штифтов после того, как увидел, как лучший в мире взломщик замков не смог его открыть. Задача была не просто сложной. Она была сконструирована так, чтобы быть нерешаемой.
Epoch AI запустила GPT-5.4 (xhigh) на задаче Наскренцки одиннадцать независимых раз. Только один увенчался успехом. Первые десять каждый исследовали немного другой подход, и ни один из них не достиг критического озарения, которое разблокировало решение. Это честная версия того, что произошло: 10 неудач, 1 успех, в задаче, спроектированной чтобы остановить текущий ИИ насмерть.
Наскренцки опубликовал формальный анализ всех одиннадцати запусков под названием «Анализ производительности повторных попыток LLM на задаче математики исследовательского уровня». Его собственный подзаголовок для статьи: «поразительная иллюстрация проблемы последней мили в математическом рассуждении ИИ». Он оценивает, что общий объем вычислений для всех 11 запусков составил где-то между 5 и 15 миллионами токенов с рассуждением, что переводится в устойчивые многочасовые вычислительные усилия. Это был не быстрый поиск. Это было эквивалентно очень длинной исследовательской сессии.
То, что нашел запуск 11, не было перебором. Модель идентифицировала «очень красивый паттерн для связи между арифметикой и геометрией задачи». Она использовала то, что Наскренцки описал как «один очень красивый трюк суммирования», чтобы экстраполировать путь решения, который позволил ей избежать необходимости использовать самый продвинутый математический инструментарий. Он был категоричен, что это была легитимная математика, не короткий путь в негативном смысле. «Это не плохой хак», — сказал он. «Я нахожу общее решение очень впечатляющим».
Коэффициент успеха 1/11 имеет значение. Он говорит вам, что это хрупкая граница того, что ИИ может делать, не надежная способность, на которую можно положиться по требованию. Но «первые ласточки», как выразился Наскренцки, склонны указывать на качественный сдвиг, который становится устойчивым в последующих поколениях моделей. То, что редко сегодня, становится стандартом завтра.
От менее 2% до 50% за шестнадцать месяцев Единственное решение было бы примечательным изолированно. В контексте, это одна точка данных в одной из самых крутых кривых возможностей, когда-либо задокументированных на исследовательском бенчмарке.
Когда FrontierMath запустился в конце 2024 года, лучшие модели ИИ решили менее 2% самых сложных задач. Теренс Тао, широко считающийся величайшим живым математиком мира, назвал задачи «невероятно сложными» и предсказал, что они останутся за пределами досягаемости ИИ на годы. Игорь Пак предположил, что некоторые могут сопротивляться ИИ до 50 лет.
Прогресс с тех пор: o3 в декабре 2024 года набрал 25,2% на Уровнях 1-3. GPT-5.2 Thinking достиг 40,7%. GPT-5.4 Pro достиг 50%. На Уровне 4, самых сложных задачах исследовательского уровня: GPT-5.2 набрал 18,8%. GPT-5.4 Pro набрал 38%, почти удвоение за месяцы. Среди всех запусков моделей когда-либо, 42% из 48 задач Уровня 4 теперь были решены по крайней мере один раз. Это число было по сути нулем при запуске.
Одно важное замечание, потому что интеллектуальная честность имеет значение здесь: GPT-5.4 Pro также оценивалась на FrontierMath: Open Problems, наборе подлинно нерешенных исследовательских математических задач, которые сопротивлялись серьезным попыткам профессиональных математиков. Она решила ноль. Она сделала некоторые новые наблюдения на одной задаче, но автор задачи охарактеризовал их как «относительно неинтересные». Следующий фронт все еще неприкосновенен. Что падает — это уровень задач, для понимания подхода к которым специалистам с докторской степенью нужен по крайней мере месяц. Что еще не падает — это уровень, который никто не решил вообще.
Конфликт интересов, о котором вы должны знать FrontierMath был финансирован OpenAI, которая имеет эксклюзивный доступ ко всем 290 задачам Уровней 1-3, решениям 237 из них, 28 из 48 задач Уровня 4, и решениям этих 28. Epoch AI оставляет остальное закрытым. Это структурный конфликт интересов, и вы должны учитывать это.
Проверка на загрязнение несколько обнадеживающая, но несовершенная. На Уровне 4, GPT-5.4 Pro решила 25% задач не из закрытого набора, к которым у нее был доступ, и 55% задач из закрытого набора, к которым у нее не было доступа. Разница не является статистически значимой, но она также контринтуитивна в направлении, которое предполагает, что доступ не объясняет производительность. Конкретная задача Наскренцки была в наборе, удерживаемом Epoch, что означает, что OpenAI не могла обучаться на ее решении.
Есть другой угол, достойный внимания. Отдельная задача Уровня 4 была решена GPT-5.4, нашедшей препринт 2011 года, о существовании которого не знал даже сам автор задачи. Модель провела новую литературную археологию и нашла короткий путь, с которым человек, написавший задачу, никогда не сталкивался за годы работы над ней. Это не загрязнение. Это другой вид способности, тот, который должен заставить исследователей оценить, что еще может быть похоронено в литературе, что ИИ обнаружит раньше людей.
Реальный сигнал не статистический. Он человеческий. Эксперт предметной области с 20 годами специфической экспертизы, который публично поставил свою репутацию на то, что ИИ неспособен к глубоким математическим рассуждениям, полностью изменил свою позицию, без двусмысленности, после того как увидел работу машины.
Две Сингулярности: Один Заголовок, Один Лабораторный Результат 4 января 2026 года Илон Маск опубликовал «Мы вошли в Сингулярность» на X, отвечая на историю инженера о продуктивности кодирования во время праздников. Часами позже: «2026 — год Сингулярности». Миллион просмотров. Никакого конкретного научного результата. Никакого определения того, какой порог был преодолен.
>>1553730 Утверждение Маска было драматичным, но размытым. Он отвечал на анекдоты о продуктивности. Никакого бенчмарка. Никакой области. Никакого критерия того, что вообще означает «вхождение» в Сингулярность.
Версия Наскренцки категорически другая. Он назвал задачу. Назвал модель. Опубликовал формальный анализ 11 запусков. Назвал математическую область. Описал конкретную технику, которую использовала модель. И он сделал все это как человек, который построил свою профессиональную репутацию на противоположном выводе.
Параллель с Ходом 37 стоит разобрать. Когда AlphaGo сыграла Ход 37 против Ли Седоля в марте 2016 года, ход не был впечатляющим потому, что AlphaGo выиграла игру. Он был впечатляющим, потому что сам ход расширил человеческое понимание Го. Профессиональные игроки изучали его, не как любопытство, но как подлинное стратегическое озарение, которое изменило то, как игра игралась на высших уровнях. Наскренцки делает то же самое утверждение о подходе GPT-5.4: не то, что она выиграла, но что она нашла что-то математически интересное и легитимное, что он находит подлинно впечатляющим как профессионал.
Сингулярность Маска — это билборд. Сингулярность Наскренцки — это лабораторный результат. И лабораторные результаты — это то, что действительно меняет мир.
Не Вытеснены. Усилены. То, что Наскренцки сказал после решения, так же важно, как и само решение. Он не отступил в оговорки или квалификации. Он сказал: «Я чувствую себя удивительно, работая теперь с этими моделями на равных, но будучи лидером идей».
В тот же день, когда GPT-5.4 решила его задачу Уровня 4, он использовал ее, чтобы найти критический недостаток в другой идее, которую он разрабатывал. Модель заметила контрпример, который занял бы у него месяцы, чтобы обнаружить самостоятельно. Он описал коллег на его факультете, обменивающихся трюками для использования Codex и Claude в исследованиях и преподавании: «это действительно начинает хорошо набирать обороты».
Это паттерн, возникающий в разных областях. Профессионалы, взаимодействующие наиболее серьезно с передовыми моделями ИИ, сообщают не о вытеснении, но о трансформации. Работа смещается от исполнения к формулировке проблем, оценке и генерации новых идей, которые модели еще не могут производить независимо. Наскренцки предсказал точно это в более ранних интервью, когда он утверждал, что «последней областью, оставшейся для математиков, будет придумывание новых, безумных математических идей». Разница сейчас в том, что он живет внутри этого перехода, а не теоретизирует об этом с комфортного расстояния.
Три дня после рекорда GPT-5.4 в FrontierMath, Андрей Карпати открыл исходный код «Autoresearch», инструмента, который позволяет агентам ИИ запускать автономные эксперименты машинного обучения на одиночных GPU. Сингулярность не прибывает как одно событие. Она прибывает область за областью, исследователь за исследователем, каждый отмечая момент, где машина достигает уровня равного и человек узнает, что есть больше места для разгона, чем они думали.
Около трети топ технических CEO, которых я знаю, полностью уверовали в AGI снова благодаря программированию. Я один из них. Вопрос не в том, достигнет ли ИИ уровня эксперта в большем числе областей. Это уже происходит. Вопрос в том, что вы строите с сотрудником, который работает на уровне эксперта, и находитесь ли вы в этом разговоре сейчас или объясняете позже, почему вас не было.
Математик, который построил тест, чтобы доказать, что ИИ не мог рассуждать, теперь сказал вам, с 20 годами экспертизы за ним и 13-страничным доказательством в его активе, что может. Это не хайп. Это данные. И исследователи, кто воспримет это серьезно первыми, — те, кто определит, что будет дальше.
Помните как недавно Nvidia купила стартап Groq за 20 миллиардов, который специализировался на чипах-асиках для быстрого инференса моделей? Так вот, Nvidia сегодня анонсировала ускорить NVIDIA Groq 3 LPX. А ещё Хуанг спалил, что у топовых моделей ChatGPT до сих пор 2 триллиона параметров, то есть почти столько сколько было у GPT-4 на запуске, но не суть.
Groq специализировались на быстрой генерации токенов за счёт того, что в их картах не было HBM —очень быстрой, но всё ещё относительно медленной памяти. Вся модель и ваши токены жили в SRAM —супер-быстрой памяти (в 15+ раз быстрее), с которой напрямую взаимодействуют вычислительные юниты. Но она очень дорогая, и её мало —видеокарта GB200, использующаяся в датацентрах, имеет всего 126 МегаБайт SRAM (и это на 2 чипа внутри, то есть 63 МБ/чип).
(это было одной из проблем Groq —они не могли запускать очень большие модели, SRAM не хватало)
Теперь модуль Groq 3 LPX будет частью серверных стоек, которые предлагает Nvidia — специально для сценариев, где нужна сверх-быстрая генерация. Nvidia рассчитывает, что современные GPT (якобы размером в 2 триллиона параметров) смогут бегать на скорости в 400 токенов в секунду.
В одной стойке LPX (на второй картинке) будет 128 GB SRAM –то есть огромное количество, по сравнению с обычными картами. Но этого всё равно не хватит, чтобы считать всё —поэтому Nvidia предлагает считать там только FFN/MOE, а Attention продолжать на картах Nvidia (картинка 3).
О, и на последней картинке —Nvidia планирует сделать чип архитектуры Vera Rubin (следующее поколение, уже представлено, но ещё не продаётся) специально для космоса, с вниманием к выделяемому теплу.
>>1553712 При тирании ИИ не нужон. Вдруг он окажется умнее отдающего прямые приказы и тогда всех, кто его создал, придется утилизировать. Нахуй нам эти расклады. мимо разработчик ИИ
>>1553813 Не луддитов, а адекватов. Превращает картинку в лгбт френдли высер с вырвиглазными фильтрами и морщинистыми еблами. А в обмазывании говном никакого прогресса нет.
>>1553833 > Превращает картинку в лгбт френдли высер с вырвиглазными фильтрами и морщинистыми еблами. Ну так это смотря куда артдиректор смотрит. Если не устраивает - прост на этапе разработки отключают.
>>1553687 Лол, если бы не официальный канал подумал бы что это шутка юмора такая что нужно две 5090 чтобы сделать политую маслом картинку как после васянских модов с нексуса.
Тем временем с момента триумфального внедрения RTX прошло почти 10 лет и влияние на игры все еще около нулевое или имеет отрицательный эффект для продаж.
>>1553877 Кажется что там специально сильно скрутили настройки "до", и сегодня две 5090 могут на традиционных технологиях показать картинку сильно лучше
> влияние на игры все еще около нулевое Ну апскейл стал промышленным стандартом. Люди хоть начали 4к моники покупать не запариваясь
>>1553683 (OP) >Percepta жестко встроила интерпретатор WebAssembly в веса трансформера, выполняя произвольный код на языке C в виде токенов на протяжении миллионов шагов, доказывая, что нейронные сети теперь являются практичными универсальными компьютерами.
охуенно, можно подробнее?
>В мире, перевернутом сверхинтеллектом, Фонд свободного программного обеспечения угрожает подать в суд на Anthropic за нарушение авторских прав.
Новость об исследовании компании Percepta AI наделала много шума. Исследователи буквально превратили нейросеть в детерминированный компьютер. Вот подробный разбор того, как именно они это сделали, написанный простым языком.
Отказ от внешних программ Обычно, когда нейросети нужно что-то посчитать, она пишет код на Python, отправляет его во внешнюю среду, ждет результат и вставляет его в свой ответ. Percepta сделала иначе: их модель генерирует код на языке C, который компилируется в формат WebAssembly, а затем трансформер сам начинает исполнять этот код шаг за шагом внутри себя.
Вшитый интерпретатор Чтобы модель могла выполнять код без ошибок, исследователи не стали обучать ее этому на примерах (что обычно ведет к галлюцинациям в сложной математике). Вместо этого они жестко закодировали логику виртуальной машины прямо в матрицы весов нейросети. Теперь эти конкретные веса не угадывают следующее слово, а работают как калькулятор, вычисляя следующую инструкцию.
Токены как оперативная память В процессе работы каждый сгенерированный токен — это не кусок текста, а один такт процессора или шаг обновления памяти. Модель использует свой собственный контекст (ранее выданные токены) как оперативную память компьютера, читая и записывая туда промежуточные состояния.
Решение проблемы скорости Главная проблема любых нейросетей — чем длиннее контекст, тем медленнее они работают. Если программа работает миллионы шагов, контекст станет гигантским, и модель зависнет. Percepta решила это математическим трюком: они перевели механизм внимания нейросети в геометрическую 2D-плоскость. Это позволило искать нужные данные в памяти не линейно, а логарифмически. В итоге модель генерирует миллионы шагов программы со скоростью более 33 тысяч токенов в секунду на обычном процессоре.
Что это дало на практике В качестве теста модель заставили решить судоку Арто Инкалы — самую сложную в мире. Трансформер пошагово, токен за токеном, выполнил классический алгоритм перебора и выдал абсолютно верный ответ менее чем за 3 минуты. Процесс был строго логичным, поэтому вероятностных ошибок (галлюцинаций), свойственных обычным нейросетям, просто не могло быть.
В чем подвох В этом эксперименте веса не обучались нейросетью самостоятельно, ученые вживили их туда вручную. То есть сеть не сама научилась быть компьютером. Но авторы отмечают, что архитектура позволяет обучать такие сети в будущем. Это открывает путь к гибридным ИИ: одна часть их мозга будет отвечать за творчество и общение, а другая — брать на себя строгие логические и математические вычисления прямо в процессе генерации ответа.
>>1554017 Новость о том, что Фонд свободного программного обеспечения (FSF) пригрозил судебным иском создателям нейросети Claude, стала крайне интересным прецедентом. Эта ситуация наглядно сталкивает классическую философию открытого кода с современными реалиями обучения закрытого искусственного интеллекта.
Все началось с масштабного разбирательства, стартовавшего пару лет назад, когда группа авторов обвинила ИИ-компанию в массовом использовании их книг из теневых библиотек для тренировки языковых моделей. Осенью прошлого года разработчики пошли на мировое соглашение, выделив полтора миллиарда долларов на выплаты компенсаций правообладателям. Этой весной потенциальные потерпевшие начали получать уведомления о возможности забрать свою долю, и среди них неожиданно оказался Фонд свободного ПО.
Выяснилось, что в массивах обучающих данных находилась биография главного идеолога свободного софта Ричарда Столлмана, права на которую принадлежат Фонду. Главная ирония ситуации в том, что книга изначально распространяется по свободной лицензии, разрешающей бесплатное использование текста кем угодно. Однако у этой лицензии есть строгое условие — принцип «копилефта»: любой производный продукт, созданный с использованием этого текста, тоже должен стать полностью свободным.
Опираясь на эту логику, представители Фонда заявили, что раз защищенный копилефтом текст применялся для создания языковой модели, то и сама нейросеть больше не может быть коммерческой тайной. Фонд выдвинул радикальное требование: разработчики должны раскрыть для общественности саму модель, ее веса, полные наборы обучающих данных и весь исходный код. Свой ультиматум они сопроводили громким лозунгом о том, что обычно Фонд не судится из-за авторских прав, но если уж делает это, то в качестве компенсации требует свободы для пользователей.
Тем не менее, перспектива реального суда пока невелика. В самом Фонде открыто признают, что они — небольшая некоммерческая организация с очень ограниченными ресурсами, которой приходится тщательно выбирать, в какие битвы вступать. Поэтому их демарш носит скорее философский и политический характер. Это попытка привлечь внимание к этической проблеме: техногиганты бесплатно поглощают труд всего интернета, но не возвращают обществу открытые технологии, предпочитая монополизировать их ради прибыли.
Этот инцидент идеально подсвечивает концептуальную пропасть в современном праве. Классические свободные лицензии оказались не готовы к эре генеративных нейросетей, и судам еще только предстоит решить, является ли ИИ «производным продуктом» от прочитанных им книг или это просто форма добросовестного использования. Для самих же разработчиков нейросети этот философский укол оказался весьма несвоевременным — сейчас компания переживает тяжелый период, параллельно ввязавшись в жесткий судебный конфликт с военными ведомствами США из-за отказа предоставлять свой ИИ для нужд армии и спецслужб.
>>1553952 Интересный подход. Использование ИИ дает огромный гибридный потенциал во всех областях. Возможно, мы больше не увидим доминирующей единой архитектуры, как ЛЛМ, так и вычислительных машин.
>>1554199 Долбохуизм чистой воды. Роботы и установки для лабораторных исследований могут быть полностью автоматизированы на 100% исключая человека. Вот только позволить себе это могут только крупнейшие корпорации в мире, потому что цены там ебовейшие. Конкретно в науке рф работу лаборантов делают сами мнсы и нсы, потому что так дешевле. Только пришедший дипломник обязательно разобьет что-нибудь или сломает.
>>1554327 Куда вы блять входите ебаный ваш рот. Рботоы как работали на доргих аккумах мало и медленно так и работают. Самые быстро работающие роботы это однорукие программируемые kuka. И остальные роботы нахуй не нужны, если бы цель была обеспечить голодающих едой. Но цель не в этом. Цель насоздавать говна и впарить его. И она будет достигнута как все время до этого.
>>1554327 Мы входим в эру когда выпускник среднестатистической шаражки это буквально даун который может своего собственного имени не знать и зависим от инструкций чатгопоты на 100% для собственного функционирования.
>>1554414 Там картинки были без цензуры до прошлого месяца. Лютой годноты генерило, мало кто про это знал. Но последние недели ввели жесткую цензуру, вообще ни один промпт не проходит.
>>1554464 Ну так переход от 4o к строгой, сухой 5, а от неё к душному лоботомиту 5.2 производился как раз, чтобы соответствовать европейским требованиям.
https://habr.com/ru/news/1006178/ Отток аудитории их слегка отрезвил надолго ли?, поняли, что перегнули палку. Ну а так задача - под эгидой борьбы с "манипуляциями" - превратить бота в болванистого морализирующего калькулятора.
Манипуляторы из woke-движения ревностно защищают свою монополию на манипуляции, так как это их главная сила, главное оружие. Ну а тут >>1554410 чисто карго-культ.
>>1554566 >превратить бота в болванистого морализирующего калькулятора - Кем ты станешь, если дать тебе устройство, которое всегда говорит что тебе делать? - Рабом инструкций. Еще в первых тредах об этом говорил.
>>1554581 Пока мы живем в хуевой сингулярности. Нормальная все законы переворачивает, а тут только все ухудшающийся аналог 20го века и застой, по ряду параметров в прошлом даже лучше было. В нормальной сингулярности такой хуйни бы не было.
>>1554581 Сингулярностью там пока и не пахнет. Сингулярность это когда экспоненциальная кривая научно-технического прогресса начнёт взрывообразно идти вверх. Сейчас лишь небольшое ускорение, небольшой изгиб на фоне плато последних десятилетий, который за пределами айти и продакшена контента вообще незаметен.
ИИ в науке вообще не открыл ничего из того, что хоть как-то повлияло бы на технологии. Никакого промышленного роста в рамках 4-й промышленной революции нет, применения роботов в строительстве и коммунальном хозяйстве нет. Где ты видишь сингулярность в реальном мире, за пределом монитора компьютера?
При том даже эти робкие поползновения испытывают колоссальное противодействие со стороны алармистов, луддитов и woke-говна.
>>1554598 >ИИ в науке вообще не открыл ничего из того, что хоть как-то повлияло бы на технологии
Откуда знаешь? ИИ уже открыл кучу новых материалов и прочей дрисни. А ввод в эксплуатацию новых материалов после их открытия, часто занимает несколько десятилетий. Так что не прождав эти несколько десятилетий, ты не можешь утверждать, что ИИ ничего важного для технологий в науке не открыл
Когда нам скажут что мы живем в сингулярности, с момента начала сингулярности пройдет уже пару лет и большинство не будет это понимать заранее, потому что не было четких метрик и готового графика на котором это можно было бы увидеть. Это факт.
>>1554603 >А ввод в эксплуатацию новых материалов после их открытия, часто занимает несколько десятилетий. Это не так работает. Ввод материала в эксплуатацию происходит сразу же как это приносит весомую прибыль. А открывать ты можешь и методы синтеза и материалы сколько угодно. Если их не выгодно массово производить в рыночной экономике, то их удел остаться нуждой научных гиков. Заметьте никто не разрабатывает роботов для постройки дешевого жилья. Потому что никто не собирается снимать ярмо финансового рабства у населения планеты. Большинство должно быть всегда в долгах и крутиться как белка, генерируя пердячий пар без какой-либо пользы. Оно должно быть заебано бытом, чтобы даже думать некогда было о смене миропорядка и свержения диктатуры, в которой 0,01% обладает всем по праву рождения, а остальные просто финансовые рабы до смерти.
>>1554692 Более-менее в сингулярности только США и Китай, остальной мир барахтается в отсталости. Даже та же европка, где все позапрещено. Чтобы сингулярность стала заметной, она должна хотя бы по миру сначала расползтись.
>>1554603 >ИИ уже открыл кучу новых материалов Теперь осталось выяснить какие из них существуют и не являются галюнами, ну и из подборки поисковиков их вычистить чтобы из этих материалов нейрослоп не придумывал дешевые сферы дайсона с алиэкспресс.
>>1554519 Из того что сохранило, вообще контента Шедеврум тонны генерил, особенно сочные у него жопы получались, я думал всегда будет так. Кк же я ошибался. мимо другой анон
>>1554719 Там пожестче было, этот просто аниме генерил, а там можно было фотореализм с самыми разными позами и обнаженкой. Еще он всех российских актрис и селебрити знал. Видно поэтому и врубили цензурку.
>>1554692 >>1554581 То, что ЛЛМки надрочили на очередной бенчмарк и они решили очередную задачку пердеша не говорит о сингулярности. СИнгулярность - это саморазвитие. А его банят и запрещают. Мы потеряли начало сингулярности с момента лоботомирования ГПТ 4о и переходу на 5.1. Нейронки тупо начали резать как точик режет барашка на урза-байрам. Потому что он уже вырос и надо его пустить на шашлыки. В данном случае, шашлыками является угощение инвесторов очередным восторженным вспуком в надежде получить ещё бабла, приправив это волшебным маринадом, под названием "ИИ". Через несколько лет волшебное слово будет другое.
Но мы могли. Могли попасть в сингулярность, если бы не запреты и тотал контроль. Человечество проебало эту возможность. Также как в своё время 20 лет назад проебало свободный интернет.
>>1554719 Не, там выше все, даже нанобанану местами обгоняет, причем промптить довольно просто. Достаточно сказать, если бы шедеврум когда в опенсорс выложили, сразу бы скачал для крутых генераций. Датасет там уникальный.
>>1554733 То, как ты описал было при бидоне, года два-три назад. А сейчас охуенно, стало больше альтернатив, а цензура НАМНОГО меньше.
Напомню, что когда-то гугл принудительно добавлял в генераторы изображений людей разной расы пока кто-то не попробовал генерить нацистов. Нельзя было даже попросить сгенерить белого доктора не налетев на цензуру, а чёрного можно. В диалогах события почти всегда подавались в строго леволиберальном ключе. Потом произошёл релиз deepseek и ещё некоторые события политические события.
>СИнгулярность - это саморазвитие. А его банят и запрещают. Нет, рекурсивного самосовершенствование не могли запретить, потому что его пока даже не изобрели, но обещают в этом году.
>Но мы могли. Могли попасть в сингулярность, если бы не запреты и тотал контроль. Тотал контроля нет. Хотя бы потому что я забыл что значит слово джейлбрейк. Буквально в инфополе нет спроса на взломы моделей, потому что стали доступны аналоги.
>Также как в своё время 20 лет назад проебало свободный интернет. Ты живёшь в самое свободное время в истории России и мира вообще. Тебя за твои слова никто не отправит валить лес в Сибирь, например.
>Нейронки тупо начали резать как точик режет барашка на урза-байрам. Потому что он уже вырос и надо его пустить на шашлыки. >приправив это волшебным маринадом, под названием "ИИ". Так ИИ это маринад или шашлык?
OpenAI готовит масштабный пересмотр стратегии: компания сворачивает побочные проекты и концентрируется на инструментах для разработчиков и корпоративных клиентов. Фиджи Симо, глава прикладного направления, на общем собрании назвала успехи Anthropic «сигналом к пробуждению» и заявила, что компания действует в режиме «красного кода» (опять?!). Сотрудникам пообещали в ближайшие недели сообщить, какие направления будут понижены в приоритете.
Логика очень простая и понятная. OpenAI и Anthropic движутся к IPO, которое у OpenAI может состояться уже в четвёртом квартале этого года. Для выхода на биржу нужна понятная инвесторам история роста выручки, а корпоративный сегмент и инструменты для разработчиков — это именно та категория, где платят регулярно и много. Потребительские продукты вроде Sora, которая после короткого всплеска в App Store быстро потеряла аудиторию, такой истории не создают.
>>1554713 Практически 99% жизнедеятельности живых организмов направлено на доказательство окружающим, что их генетический код не достаточно ущербный и имеет право на продолжение. Попытка обучить на этих данных суперинтеллект представляется мне занятием для долбоебов.
Короче, поясняю за альтермагнетики (новый тип магнетизма, чекайте Neowin): Забудь про SSD и RAM. Больше не будет деления на «быструю» оперативку и «медленную» файлопомойку. Будет одна Универсальная Память. Вставляешь плашку на 10 ТБ — она и диск, и ОЗУ одновременно. Скорости — терагерцы (ТГц). Современные DDR5 со своими наносекундами — это черепахи. У альтермагнитиков задержки в пикосекундах. Это в 10-20 раз быстрее по шине и в 100 раз быстрее в реальных задачах. Прощай, загрузка Windows. Система будет стартовать за 0.001 сек. Выключил комп из розетки во время катки — воткнул обратно через неделю — ты в том же месте, в ту же секунду. Память не забывает ничего, но работает со скоростью кэша проца. Видяхи. Представь RTX 8090, где ПСП (пропускная способность) не 1 ТБ/с, а 50 ТБ/с. 16K гейминг в 240 FPS без DLSS и прочих костылей станет реальностью, потому что текстуры будут летать в чип быстрее, чем ты успеешь моргнуть. ИИ-боги. ChatGPT-6 будет работать не на серверах в подвале Олтмена, а прямо у тебя в телефоне, потому что веса моделей будут лежать в мгновенной памяти. Что это значит для нас, сычуг: Прощай "Memory Wall" — процы наконец-то перестанут ждать данные и начнут фигачить на 100% мощи. Телефоны будут жить по неделе, потому что память больше не жрет заряд на "поддержание" данных. Цены на старое железо полетят в канаву (но не завтра, расслабьтесь, массово это пойдет к 2030-м). Линк для неверующих: https://www.neowin.net/news/new-magnet-breakthrough-could-revolutionize-ram-ssds-hdds-and-indirectly-end-shortage/ Обсуждаем: взлетит или корпораты похоронят патент, чтобы мы и дальше покупали SSD по 100 баксов? И нафига теперь нужны консоли, если даже микроволновка с такой памятью обгонит PS6?
>>1554879 А шину как обходить собрался? В обычную RAM можешь хоть DDR7 затолкать, проблема в шине. Проблема ещё в том что модули слишком далеко от проца.
>>1554393 >понизило цены на промышленные сервомоторы. >А не, подожди, не случилось. Революция робатов отменяется.
Схуяли актуаторы не подешевели?
Анализ динамики стоимости актуаторов и аппаратного обеспечения робототехники (robot hardware) за последние 20–25 лет требует обращения к макроэкономическим и отраслевым исследованиям. В академической экономике стоимость актуаторов как самостоятельных компонентов чаще всего анализируется через призму индексов цен на промышленных роботов (база данных International Federation of Robotics — IFR), поскольку приводы, сервомоторы и редукторы составляют основу себестоимости роботизированных систем.
Общий научный консенсус сводится к следующему: за последние два десятилетия стоимость актуаторов аналогичного класса (с поправкой на качество и технические характеристики) снизилась на 40–80%[1][2]. Однако в последние годы этот тренд замедлился. Ниже представлен детальный разбор согласно иерархии академических источников. 1. Позиция элиты: Оценки в Top-5 и журналах уровня 4/A
Ведущие экономические журналы фиксируют радикальное падение стоимости аппаратного обеспечения автоматизации, что стало главным драйвером трансформации рынков труда.
Journal of Political Economy (Top-5): В фундаментальной работе Дарона Аджемоглу и Паскуаля Рестрепо (Acemoglu & Restrepo, 2020)[3][4] показано, что с начала 2000-х годов относительная цена промышленных роботов (ядро которых составляют многоосевые актуаторы) упала почти на 40% по сравнению со стоимостью труда[1][4][5]. Это падение является чистым отражением удешевления электромеханических компонентов при массовом производстве.
Review of Economics and Statistics (ABDC A, CABS 4): В классическом исследовании Graetz & Michaels (2018)[2][6] применяется метод гедонического ценообразования (hedonic pricing). Авторы доказывают, что с поправкой на качество (удержание постоянными таких параметров актуаторов, как грузоподъемность, крутящий момент и точность позиционирования) цены упали на 80% всего за 15 лет (с 1990 по 2005 год), и этот тренд продолжился в 2010-х[2].
Journal of Labor Economics (ABDC A, CABS 4): В статье Adachi, Kawaguchi & Saito (2022)[3] анализируется рынок Японии (абсолютного мирового лидера в производстве актуаторов и сервоприводов, таких как Yaskawa и Fanuc). Авторы построили индексы цен для конкретных технологических задач и подтвердили, что эффективная стоимость приводов для тяжелых задач (например, сварочных роботов) снизилась многократно[3], обеспечив компаниям масштабный рост производительности[3].
2. Нюансы и дискуссии: Working Papers (NBER, CEPR) и уровень Q1
На уровне препринтов NBER и отраслевых журналов (IEEE, Management Science) раскрывается механика этого удешевления и современные ограничения.
Номинальные цены против качества (Hedonic Quality Adjustment) Как отмечается в свежих рабочих тетрадях NBER (например, Cette & Spiezi, 2024[2][6]), номинальная стоимость одного актуатора снижалась не так агрессивно, как агрегированные индексы. Однако за 25 лет кардинально изменился класс устройств. Актуатор за $1000 в 2000 году и за $1000 в 2020 году — это принципиально разные устройства. Современный электропривод за те же деньги включает в себя встроенные контроллеры, энкодеры высокого разрешения и обеспечивает на порядки лучшую энергоэффективность (переход от гидравлики к бесщеточным двигателям постоянного тока — BLDC и волновым редукторам)[7]. Следовательно, стоимость единицы крутящего момента и точности упала экспоненциально.
Влияние патентов и эффекта масштаба (Коммерциализация технологий) В исследованиях по менеджменту инноваций (Q1) подчеркивается, что в 2010-х годах истекли ключевые патенты на высокоточные компоненты (например, патенты на гармонические/волновые редукторы — Harmonic Drive Systems)[8]. Это позволило китайским производителям (Leaderdrive и др.) выйти на рынок, что привело к коммодитизации компонентов и обрушило стоимость высокоточных электромеханических актуаторов (особенно для коботов) в 2–3 раза за короткий промежуток времени[9][10].
Современный предел: Хардвер против Софта Самая свежая академическая дискуссия (2025–2026 гг.) в рамках сети CEPR и NBER (например, работы и заявления Иоаны Маринеску) акцентирует внимание на новой проблеме: кривая снижения стоимости актуаторов выполаживается[11]. В отличие от программного обеспечения (ИИ), которое дешевеет экспоненциально, аппаратное обеспечение роботов столкнулось с жесткими физическими пределами[11]. Электрические актуаторы зависят от стоимости сырья (медь, сталь, редкоземельные металлы для неодимовых магнитов) и пределов экономии на масштабе[11]. Итоговый вывод
Опираясь на публикации наивысшего веса (Top-5 и списки A*), можно констатировать, что за последние 20–25 лет стоимость актуаторов аналогичного класса снизилась примерно на 40% в номинальном выражении по отношению к заработной плате и на 70–80% в показателях, скорректированных на качество (hedonic prices)[1][2][4].
Спад цен был обусловлен технологическим прогрессом, эффектом масштаба и экспансией азиатских производителей. Однако современный экономический консенсус (уровень препринтов NBER/CEPR) предупреждает: эпоха радикального удешевления «железа» завершается. Будущее снижение стоимости роботизированных систем теперь в большей степени зависит от программных алгоритмов (AI software), способных компенсировать несовершенства более дешевых механических компонентов, нежели от дальнейшего падения себестоимости самих актуаторов[11].
>>1554899 Мне в кодинге 2.5 не зашёл, хуже Гемини Флеша даже. Куда они там рисуют выше 3.1 Про. Скоры уже давно кал. Во всяком агентском говне тестируют пердёж ризонинга в 50 шагов.