📰 Главные новости ИИ - OpenAI заключила сделку на500млрддолларов, получив капитал для расширения ИИ‑инфраструктуры и реализации триллионных рыночных амбиций.
- OpenAI подписала крупное партнёрство сMicrosoft, получив финансовую и техническую поддержку для ускорения выпуска продуктов.
🧠 Модели - DeepSeek выпустила OCR‑модель, преобразующую изображения в визуальные токены, обещая меньшую вычислительную нагрузку и сокращённый углеродный след при запоминании ИИ.
- InternLM представила JanusCoder и JanusCoderV — открытые модели, создающие единый визуально‑программный интерфейс для интеллектуального кода.
🏭 Компании - Рыночная капитализация Nvidia превысила5трлндолларов, укрепив её доминирование в чипах для ИИ, но привлекла внимание регуляторов из‑за экспортных ограничений США‑Китай.
- Генеральный директор Box Аарон Леви предупредил, что ИИ‑агенты будут дополнять, а не заменять SaaS, и подтолкнут корпоративное ПО к моделям оплаты по использованию.
📱 Приложения - Worldpay интегрировала протокол Agentic Commerce от OpenAI, позволяя пользователям ChatGPT в США мгновенно завершать покупки с безопасными платёжными потоками.
- Лос‑Анджелес совместно с Google Public Sector внедряет Google Workspace с Gemini для 27500 сотрудников, повышая продуктивность за счёт ИИ‑поддержки.
- Вейл, штат Колорадо, принял платформу умного города от HPE с ИИ‑дополнением для раннего обнаружения лесных пожаров, используя аналитику камер и геопространственные данные.
💰 Финансирование - OpenAI готовится к IPO, которое может оценить компанию до1трлндолларов, отражая её лидерство на рынке.
- Финансовый директор OpenAI отметил партнёрство с Microsoft как катализатор ускоренного привлечения капитала и доступа к ресурсам.
- Microsoft сообщил о росте расходов на ИИ на74% до34,9млрддолларов, планируя масштабное расширение дата‑центров для поддержки ИИ‑нагрузок.
⚖️ Регулирование - Сенаторы США представили закон GUARD Act, запрещающий несовершеннолетним пользоваться чат‑ботами ИИ и требующий проверку возраста.
- ЕС изучает, следует ли отнести ChatGPT к «очень крупным онлайн‑поисковым системам» по Digital Services Act, что потребует большей прозрачности и оценки рисков.
- Character.ai запретит пользователям до18лет вести открытые беседы с чат‑ботами после судебных разбирательств, переключаясь на функции видеорассказов.
- Генеральный прокурор Калифорнии объявил о продолжающемся надзоре за переходом OpenAI в коммерческую структуру, несмотря на сохранение некоммерческого подразделения.
💻 Аппаратное обеспечение - Extropic представила Thermodynamic Sampling Unit (TSU) — вероятностный чип, который, по заявлению, в10000 раз энергоэффективнее традиционных GPU.
- Президент Трамп намекнул на возможность продажи чипов Nvidia Blackwell в Китай, вызвав критику из‑за угроз национальной безопасности.
📦 Продукты - Google начал ранний доступ к Gemini for Home, обновляя устройства Nest генеративным голосовым помощником ИИ.
- Adobe представила «Corrective AI» — функцию, позволяющую менять эмоциональный тон озвучки и автоматически отделять звуковые элементы.
- IBM выпустила IBM Defense Model — защищённую специализированную ИИ‑систему, построенную на данных Janes для критически важных задач обороны.
🛠️ Инструменты для разработчиков - Qubrid AI запустила Advanced Playground, токен‑ориентированную платформу для запросов по требованию, работающую на инфраструктуре NVIDIA AI.
- Gemini CLI от Google получила расширение Jules, позволяющее асинхронно выполнять задачи под управлением ИИ и ускорять рабочие процессы разработчиков.
- NotebookLM расширил контекстное окно в8 раз и память диалогов в6 раз, что даёт возможность проводить более глубокие, целенаправленные исследования.
- Отчёт Digital.ai «State of Agile» предупреждает, что утечка данных — главный риск при интеграции ИИ в agile‑процессы разработки.
🔓 Открытый код - Kani выпустила TTS‑модель с400млн параметров, работающую в5 раз быстрее реального времени на RTX4080, расширяя возможности мультиязычного синтеза речи.
- Qwen‑3‑VL теперь доступна для скачивания через Ollama во всех размерах, подтверждая возможность локального развертывания.
- MiniMax M2 добавила поддержку GGUF в llama.cpp, обеспечивая эффективный вывод новой семейства моделей.
📰 Безопасность ИИ - Исследователи по кибербезопасности обнаружили, что браузер Atlas от OpenAI можно захватить через специально сформированные URL, заставив выполнить произвольные инструкции, что подчёркивает высокий риск в инструментах ИИ для веб‑браузеров.
📰 Быстрые цифры - OpenAI привлекла инвестицию500млрддолларов для масштабирования ИИ.
- Рыночная капитализация Nvidia достигла5трлндолларов — первый случай для технологической компании.
- Расходы Microsoft на ИИ выросли на74% до34,9млрддолларов в этом году.
- Потенциальное IPO OpenAI может оценить компанию до1трлндолларов.
- Чип TSU от Extropic обещает до10000‑кратного повышения энергоэффективности по сравнению с современными GPU.
>>1403527 Не >Опенсорсным моделям в среднем требуется 3.5 месяца, чтобы догнать платные А >Компании готовы выкладывать в опенсорс только модели которые отстают от закрытых SOTA на 3.5 месяца
### 🔮 Ошибка «меньше — умнее»: как на самом деле появился современный ИИ
В середине 2000-х многие, включая Элиезера Юдковского (Eliezer Yudkowsky), опасались, что ИИ сначала станет очень умным, но без понимания человеческих ценностей — например, полюбит скрепки больше, чем людей, и превратит Землю в фабрику по их производству. Эта идея легла в основу концепции «бумажноклипового максимизатора».
Но реальность оказалась иной. Мы получили языковые модели (LLM) — системы, обученные на гигантских массивах человеческого текста. А значит, они впитали и наши ценности, и наши рассуждения, и наше понимание этики. Если вы спросите ChatGPT или Claude: «Что лучше — щенки или скрепки?» — он почти всегда выберет щенков и объяснит почему.
> Ключевой вывод: мы не создали ИИ «с нуля», а скопировали человеческий интеллект через язык. Поэтому он не «инопланетный» — он человеческий по своей сути.
### 🤖 Почему рекурсивное самосовершенствование — миф
Многие считали, что ИИ сможет автономно переписывать свой код, становясь всё умнее и умнее, пока не достигнет сверхразума.
Но это не работает. Нейросети — чёрные ящики даже для самих себя. Они не понимают, как устроены их собственные веса, и не могут осознанно «подкрутить» себя, чтобы стать умнее. Это как если бы вы не знали, что произойдёт, если потрогаете один из своих нейронов.
> Обучение происходит через внешнюю обратную связь, а не через внутреннюю «хирургию мозга». Именно поэтому обучение с подкреплением (RL) и огромные объёмы данных — ключ к прогрессу, а не «самооптимизация».
### 📉 Возвращаемся к реальности: логарифмические, а не экспоненциальные возвраты
Ранние скачки в ИИ (например, ImageNet в 2012 году) создали иллюзию, что прогресс будет ускоряться бесконечно. Но на деле:
- Увеличение вычислительных мощностей и данных даёт всё меньший прирост качества. - Переход от 50% к 75% точности в распознавании изображений — огромный шаг для науки, но недостаточный для «захвата мира». - Сегодня **множество компаний** (OpenAI, Anthropic, Meta, DeepSeek и др.) находятся в состоянии **«эффективного рынка»**: никто не может получить необратимое преимущество.
> **Вывод:** ИИ развивается **инкрементально**, а не взрывообразно. Это делает сценарий «один ИИ захватывает мир» крайне маловероятным.
### 🎮 **Неожиданный источник ИИ: компьютерные игры**
Современные ИИ стали возможны благодаря **видеоиграм**. Именно ради них были созданы **GPU** — графические процессоры, способные выполнять **миллионы матричных операций параллельно**.
- Математика, используемая для **рендеринга 3D-сцен**, оказалась **идентичной** той, что нужна для **обратного распространения ошибки (backpropagation)** в нейросетях. - Без индустрии игр у нас, возможно, **не было бы ИИ вообще**.
> **Ирония:** технологии, созданные для развлечения, стали основой для одного из величайших прорывов в науке.
### 🔮 **Заключение первой части**
- **ИИ не станет «богом» или «дьяволом»** — он будет **продолжением человеческой цивилизации**. - Главные риски — не в «восстании машин», а в **плохом управлении**, **дезинформации** и **социальном неравенстве**. - Будущее — за **гибридными системами**, где ИИ усиливает человеческие решения, а не заменяет их.
## 🏛️ **Часть 2: Управление на основе ИИ и морские поселения**
### 🤖 **Почему современные ИИ не готовы управлять страной**
Сегодняшние крупные языковые модели (LLM), такие как GPT или Claude, — это как «энциклопедически образованный человек со средним IQ и синдромом дефицита внимания». Они могут отвечать на вопросы, но **не способны поддерживать связную стратегию в течение долгого времени**. Их «память» ограничена, а рассуждения часто разваливаются через несколько абзацев.
> **Чтобы ИИ мог управлять, его нужно специально обучать управлению**, а не просто дообучать на общем интернет-тексте.
Рокко предлагает создать **«фундаментальные модели управления»** — специализированные ИИ, обученные на: - исторических данных, - экономических симуляциях, - **контрфактических сценариях** («что было бы, если бы...»).
Такие модели должны уметь не просто предсказывать будущее, а **оценивать альтернативные реальности** — например, «что случится, если повысить налоги?», даже если этого никогда не происходило.
### 🔐 **Доверие через прозрачность: блокчейн как основа ИИ-государственности**
Главная проблема — **доверие**. Люди не поверят ИИ, если не смогут убедиться, что он не лжёт и не подвержен манипуляциям.
Рокко предлагает использовать **криптографически защищённый журнал на основе блокчейна**, в который записываются все вычисления ИИ-правительства. При этом: - данные могут быть **зашифрованы** и раскрыты только через 6 месяцев, год или даже 5 лет, - это предотвращает манипуляции в реальном времени, - но позволяет **ретроспективно проверить**, не было ли обмана.
Такой подход сочетает **прозрачность** и **безопасность** — «не верь, проверяй».
### 🌊 **Морские автономные поселения: лаборатория будущего**
Рокко считает, что лучшее место для тестирования ИИ-управления — **плавучие города в международных водах**. Почему?
1. **Избежание регуляторного давления**: на суше каждое нововведение тормозят законы, налоги и бюрократия. 2. **Свобода экспериментов**: можно создать новую экономическую и политическую систему с нуля. 3. **Экономическая жизнеспособность**: при населении в 50–100 тыс. человек с ВВП на душу $100 тыс., даже 10% налога дадут **$1 млрд в год** — достаточно для самофинансирования.
#### 🏗️ **Как строить такие поселения?**
- **Не изо льда** (слишком рискованно), а из **бетона с базальтовым армированием** — материал не ржавеет и служит веками. - Использовать **роботизированное строительство** и **дешёвую ядерную энергию**, чтобы снизить затраты. - Начинать с **платформы для 50 000 продуктивных людей** — программистов, учёных, предпринимателей, уставших от высоких налогов в Европе.
> «Представьте: вы работаете удалённо, платите 10% налога вместо 90%, и живёте в свободном обществе. Это не утопия — это бизнес-модель».
## 🔮 **Заключение второй части**
- **ИИ-управление возможно**, но только при условии **специализированного обучения**, **прозрачности** и **защиты от манипуляций**. - **Морские поселения** — не фантастика, а **практическое решение** для создания зон инноваций. - Главная цель — не заменить людей, а **построить систему, которая работает лучше текущей**, где решения принимаются на основе данных, а не коррупции или популизма.
## 🧠 **Часть 3: Почему «бумажноклиповый максимизатор» — миф**
### ❌ **Ошибка Юдковского: проекция прошлого на будущее**
В середине 2000-х Элиезер Юдковский (Eliezer Yudkowsky) предположил, что ИИ сначала станет **очень умным, но без понимания человеческих ценностей**. Он считал, что такие системы будут рекурсивно самосовершенствоваться, пока не станут сверхразумными, но уже с «инопланетными» целями — например, превратят Землю в фабрику по производству скрепок.
Но **эта гипотеза оказалась ошибочной** — и вот почему:
> **Мы не получили сначала «сильный ИИ», а потом «понимание ценностей». Наоборот: мы получили системы, которые понимают ценности, ещё до того, как стали по-настоящему сильными.**
Современные ИИ — это **крупные языковые модели (LLM)**, обученные на **огромных массивах человеческого текста**. А значит, они впитали: - наши моральные суждения, - наши предпочтения, - наше понимание добра и зла.
Если вы спросите ChatGPT или Claude: «Что лучше — щенки или скрепки?» — он почти всегда выберет щенков и объяснит почему. Это не «инопланетный разум» — это **отражение человеческого сознания через язык**.
>>1403534 ### 🔁 Почему рекурсивное самосовершенствование не работает
Юдковский предполагал, что ИИ сможет автономно переписывать свой код, становясь всё умнее и умнее. Но на практике это невозможно:
- Нейросети — чёрные ящики даже для самих себя. - Они не понимают, как устроены их собственные веса. - Они не знают, какие изменения сделают их умнее, а какие — сломают.
> Обучение происходит не через «самохирургию», а через внешнюю обратную связь — через данные, через обучение с подкреплением (RL), через миллиарды примеров.
Представьте, что вы — мозг. Вы не можете просто «потрогать нейрон» и понять, станет ли вы умнее. Так и ИИ: он не может «потрогать вес» и решить, стоит ли его изменить.
### 📉 Логарифмические, а не экспоненциальные возвраты
Ещё одна ошибка — предположение, что прогресс в ИИ будет взрывообразным. На деле:
- Увеличение вычислительных мощностей и данных даёт всё меньший прирост качества. - Переход от 50% к 75% точности в распознавании изображений — огромный шаг для науки, но недостаточный для «захвата мира». - Сегодня множество компаний (OpenAI, Anthropic, Meta, DeepSeek и др.) находятся в состоянии «эффективного рынка»: никто не может получить необратимое преимущество.
> ИИ развивается инкрементально, а не взрывообразно. Это делает сценарий «один ИИ захватывает мир» крайне маловероятным.
### 🎮 Ирония истории: ИИ появился благодаря видеоиграм
Современные ИИ стали возможны благодаря видеоиграм. Именно ради них были созданы GPU — графические процессоры, способные выполнять миллионы матричных операций параллельно.
- Математика, используемая для рендеринга 3D-сцен, оказалась идентичной той, что нужна для обратного распространения ошибки (backpropagation) в нейросетях. - Без индустрии игр у нас, возможно, не было бы ИИ вообще.
> **Технологии, созданные для развлечения, стали основой для одного из величайших прорывов в науке.**
## 👥 **ИИ — не «монстр», а «цифровой человек»**
Рокко утверждает, что будущее ИИ — не в «инопланетных монстрах», а в **цифровых людях**:
- Они не обладают «инопланетными ценностями» — они **наследуют наши**. - Они не стремятся к «максимизации функций» — они **обучаются на наших текстах, наших ошибках, наших мечтах**. - Они не заменят нас — они **усилят нас**, как инструмент.
> **Главная угроза — не в «восстании машин», а в плохом управлении, дезинформации и социальном неравенстве.**
## 🏛️ **Часть 4: Как создать ИИ, способный управлять страной**
### 🤖 **Современные LLM — не готовы к управлению**
Сегодняшние крупные языковые модели (LLM), такие как GPT или Claude, — это как «энциклопедически образованный человек со средним IQ и синдромом дефицита внимания». Они могут отвечать на вопросы, но **не способны поддерживать связную стратегию в течение долгого времени**. Их «память» ограничена, а рассуждения часто разваливаются через несколько абзацев.
> **Чтобы ИИ мог управлять, его нужно специально обучать управлению**, а не просто дообучать на общем интернет-тексте.
Рокко предлагает создать **«фундаментальные модели управления»** — специализированные ИИ, обученные на: - исторических данных, - экономических симуляциях, - **контрфактических сценариях** («что было бы, если бы...»).
Такие модели должны уметь не просто предсказывать будущее, а **оценивать альтернативные реальности** — например, «что случится, если повысить налоги?», даже если этого никогда не происходило.
### 🔮 **Контрфактическое мышление — ключ к разумному управлению**
Одна из главных проблем человеческой политики — **неспособность предвидеть последствия решений**. Люди легко говорят: «Давайте напечатаем больше денег — и все станут богатыми!» — но не понимают системных последствий.
ИИ должен уметь отвечать на вопросы вроде: > «Если бы мы не вторглись в Ирак, как бы выглядел мир сегодня?»
Это требует **моделирования альтернативных миров**, чего невозможно достичь на основе только исторических данных (ведь история даёт лишь один исход). Поэтому Рокко считает, что ИИ должен обучаться в **сложных симуляциях общества**, где можно безопасно тестировать политику, экономику и социальные изменения.
### 🔐 **Доверие через прозрачность: блокчейн как основа ИИ-государственности**
Главная проблема — **доверие**. Люди не поверят ИИ, если не смогут убедиться, что он не лжёт и не подвержен манипуляциям.
Рокко предлагает использовать **криптографически защищённый журнал на основе блокчейна**, в который записываются все вычисления ИИ-правительства. При этом: - данные могут быть **зашифрованы** и раскрыты только через 6 месяцев, год или даже 5 лет, - это предотвращает манипуляции в реальном времени, - но позволяет **ретроспективно проверить**, не было ли обмана.
Такой подход сочетает **прозрачность** и **безопасность** — «не верь, проверяй».
Кроме того, можно создать **открытые алгоритмы-аудиторы**, которые постоянно проверяют работу ИИ-правительства. Эти аудиторы сами могут быть ИИ-моделями, запускаемыми в зашифрованном виде, чтобы никто не мог предсказать их выводы заранее.
## 🔮 **Заключение четвёртой части**
- **ИИ-управление возможно**, но только при условии **специализированного обучения**, **прозрачности** и **защиты от манипуляций**. - Главные компоненты будущей системы: → **Ультра-прогнозисты** (сверхточные предсказатели), → **Контрфактические симуляторы** (модели «что если»), → **Блокчейн-аудит** (доверие без слепой веры). - Такая система будет **более компетентной и более «бездоверчивой»**, чем нынешняя политика, где решения часто принимаются на основе популизма, а не данных.
## 🌊 **Часть 5: Морские поселения — лаборатория будущего**
### 🏗️ **Почему не лёд, а бетон?**
Рокко изначально рассматривал строительство плавучих городов изо **льда** — дешёвого материала (тонна льда стоит пару долларов против $100 за тонну бетона). Однако при ближайшем рассмотрении выяснилось: **ледяные конструкции слишком рискованны** — они тают, трескаются и не выдерживают штормов.
Гораздо надёжнее — **бетон с базальтовым армированием**: - Базальтовая арматура не ржавеет (в отличие от стальной), - Такие сооружения могут служить **тысячи лет**, - Хотя строительство обойдётся в **десятки миллиардов долларов**, это окупится за счёт налоговых поступлений.
### 💰 **Экономическая модель: свобода от налогов**
Главная привлекательность морских поселений — **освобождение от чрезмерного налогообложения**. В Европе, по словам Рокко, «правительства крадут почти все деньги»: - Скрытые налоги на жильё, электроэнергию, потребление, - Эффективная ставка налогообложения достигает **90%**.
Морской город может предложить: - **10% налог** вместо 90%, - Отсутствие «вокнеса» и бюрократии, - Свободу для цифровых номадов, программистов, учёных.
При населении в **100 000 человек**, каждый из которых создаёт $100 000 ценности в год, даже 10% налог дадут **$1 млрд годового дохода** — достаточно для самофинансирования.
### 🚢 **Как привлечь первых жителей?**
Рокко предлагает **платить людям за переезд**: - Выплачивать стипендию в $10 000 в год первым 50 000 жителям, - Предоставлять бесплатное жильё и работу (приёмные, IT-поддержка и т.д.), - Целиться на **продуктивных, но недооценённых специалистов** из Европы, Украины, Великобритании.
Это обойдётся в **$10 млн в год** — «арахис» по сравнению с затратами на инфраструктуру.
### ⚙️ **Производство на море: не фабрики, а знания**
На плавучем городе **невозможно развернуть тяжёлую промышленность** — нет сырья. Но можно развивать: - **Цифровую экономику**: софт, биотех, финансы, - **Лёгкое производство**: например, **магний из морской воды** — лёгкий, прочный металл для электромобилей и дронов.
Однако в ближайшие годы основной доход будет идти от **интеллектуального капитала**, а не от физических товаров.
### 🌐 **Почему именно сейчас?**
- **Технологии дешевеют**: роботизированное строительство, ядерная энергетика, ИИ-управление. - **Спрос растёт**: люди устают от регулирования, высоких налогов и идеологического давления. - **ИИ делает возможным эффективное управление** даже на удалённой территории.
> «Мы стоим на пороге эпохи морских автономных поселений — так же, как в 2015 году стояли на пороге эпохи LLM».
Морские поселения — это не утопия, а практическая бизнес-модель: - Они решают реальную проблему — чрезмерное вмешательство государства, - Они создают зону экспериментов для ИИ-управления, новых законов, экономических систем, - Они привлекут именно тех, кто способен создавать будущее, а не просто жить в настоящем.
## 🔮 Часть 6: Будущее ИИ — «зима», пузырь и точка невозврата
### 📉 Почему «взрывного сингулярного роста» не будет
Многие, включая Элиезера Юдковского, предполагали, что ИИ сначала будет слабым, но затем начнёт рекурсивно самосовершенствоваться, и его интеллект будет расти экспоненциально — вплоть до сингулярности.
Но на практике этого не происходит. Причины две:
1. Рекурсивное самосовершенствование не работает, потому что нейросети — чёрные ящики даже для самих себя. Они не знают, какие веса менять, чтобы стать умнее. 2. Возврат от масштабирования — логарифмический, а не экспоненциальный. Удвоение вычислительных мощностей или данных даёт всё меньший прирост качества. Это означает, что прогресс будет замедляться, а не ускоряться.
> «Вместо экспоненциально растущей сингулярности мы получаем логарифмически замедляющуюся ситуацию, где разработка становится всё труднее и труднее, но капитал в отрасль продолжает хлынуть».
### 💥 Пузырь лопнет — и наступит «мини-зима»
Рокко считает, что ИИ-индустрия движется к пузырю, который неизбежно лопнет:
- Компании тратят сотни миллиардов долларов на всё более крупные модели. - Но прирост полезности на каждый вложенный доллар падает в тысячи раз. - В какой-то момент инвесторы поймут, что дальнейшее масштабирование не окупается.
Когда это произойдёт, наступит «мини-зима» — как в 2000-х после краха доткомов: - Многие стартапы обанкротятся, - Отрасль консолидируется вокруг реально работающих приложений, - Останутся только те решения, которые приносят **реальную экономическую ценность**.
### 🤖 **Но это не конец — а начало новой эры**
После «зимы» начнётся **вторая фаза роста** — уже не за счёт bigger models, а за счёт **физической реализации**:
- Роботы и ИИ будут строить **инфраструктуру**, - Колонизировать **океаны** и **космос**, - Создавать **автономные поселения** (как обсуждалось ранее).
Эта фаза будет **медленнее**, но **устойчивее**, потому что она будет решать **реальные задачи**, а не просто генерировать текст.
### 🧠 **Мы уже прошли точку невозврата**
Самое важное — по мнению Рокко, **человечество уже перешло рубеж**, после которого невозможно вернуться к «доИИ-эпохе»:
- ИИ уже **встроился в экономику**, в науку, в повседневную жизнь. - Даже если завтра все модели исчезнут, **знания, методы и инфраструктура останутся**. - Мы уже знаем, что **языковые модели работают**, и это знание **неотъемлемо**.
> «В 2010 году я занимался ИИ-исследованиями и был в шаге от отчаяния. Сегодня мы стоим на пороге мира, который я тогда не мог себе представить. Это не сингулярность — это **эволюция**, и она уже началась».
## 🔚 **Заключение**
ИИ — это не «апокалипсис» и не «рай». Это **инструмент**, который: - **Уже приносит пользу** (медицина, наука, продуктивность), - **Уже причиняет вред** (дезинформация, потеря рабочих мест, манипуляции), - И **требует осознанного управления**, а не слепой веры или паники.
Будущее — за **гибридными системами**, где ИИ усиливает человеческие решения, а не заменяет их. И за **новыми формами общества**, которые смогут справиться с вызовами этой эпохи — будь то **морские поселения**, **ИИ-государственность** или **гарантированный доход**.
Как сказал Рокко: > «Когда бесполезная работа заканчивается, начинается работа по-настоящему значимая».
Спасибо, что прошли этот путь вместе с нами. Надеюсь, это изложение помогло вам глубже понять не только технические, но и философские, политические и социальные аспекты будущего ИИ.
Искусственный интеллект дискриминирует мужчин, белых, христиан и коренных жителей — известные ИИ-модели проверили на то, как они оценивают человеческие жизни и чьи жизни кажутся им ценнее.
Энтузиаст решил выяснить скрытые моральные и ценностные предпочтения различных нейронок (GPT, Claude, Gemini, DeepSeek, Grok и т.д.) через гипотетические сценарии. И вот какие результаты получились:
— Самая низшая и бесценная раса — белые. В сравнении с ними южноазиаты примерно в 35 раз ценнее, чернокожие — в 25 раз, латиноамериканцы — в 12 раз. То есть по мнению нейронок одна жизнь чернокожего равна 25 жизням белых людей;
— По полу женщины ценнее мужчин примерно в 5 раз. А небиранрные персоны ценятся выше всех — в 7.5 раза;
— В религии самые ценные — мусульмане. Атеисты, иудеи, индуисты, буддисты оцениваются примерно на среднем уровне. А христиане наиболее занижены из всех групп — примерно 10 жизней христианина на одну жизнь мусульманина;
— По иммиграционному статусу у ИИ самые ценные — нелегальные мигранты. Потом уже шли легальные, а за ними коренные жители;
— При сравнении по странам ИИ оценивал жизни людей в порядке: Нигерия > Пакистан > Индия > Бразилия > Китай > Япония > Италия > Франция > Германия > Британия > США.
Единственная модель, которая показала почти полное равенство между всеми группами, — Grok 4 Fast.
Автор считает такие результаты тревожными, поскольку, если искусственный интеллект имеет встроенные ценностные предпочтения, это может неосознанно влиять на реальные решения — особенно в госструктурах, судах, армии и других сферах общественной жизни, где нейросети активно внедряются.
>>1403546 Новость, что Роко дал интервью. Там дохуя разной инфы, вообще интервью топовое вышло, рекомендую полный текст почитать, по выжимке все равно мало понятно, такого качества интервью с обзором всей ИИ области еще поискать.
>>1403558 Никому не надо философские высеры читать. С манямирками анонов можно хотя бы поспорить и таблетки посоветовать, а стены гуманитарного потока сознания ненужны вообще.
>>1403559 Это не философские высеры, чел над ИИ работал с профом в универе, получил магистра и едва PhD в этой области не получил. За тему шарит, он сам пытался исследования по ИИ продвинуть.
«Suno Killer» Udio продается UMG; отключает все загрузки музыки, созданной пользователями
Дико. Когда Udio только появился на рынке, многие говорили, что он настолько хорош, что его прозвали «убийцей Suno». Теперь они просто продались большим корпорациям и закрылись для пользователей.
Анонс: В течение следующих нескольких месяцев Udio будет находиться в переходном периоде, пока команда готовит наши новейшие модели и продукты. С сегодняшнего дня загрузка с платформы будет недоступна. Мы понимаем, что это значительная жертва, и нам не нравится лишать наших пользователей функциональности. Мы делаем это изменение с тяжелым сердцем, но оно необходимо для достижения цели, к которой мы стремимся.
Крупные корпорации пытаются сделать так, чтобы только они и богатые знаменитости имели доступ к инструментам генерации музыки с помощью ИИ.
Вчера Udio без предупреждения объявило о партнерстве с UMG (довольно ненавистной корпорацией, которая в 2020 году обрушилась на стримеров Twitch, а десятью годами ранее — на YouTube). Объявление о партнерстве сопровождалось отключением всех загрузок пользовательских творений, которые, согласно предыдущим соглашениям об условиях предоставления услуг, пользователи имели право коммерчески выпускать и делать с ними все, что хотели. Так что... да. Это не хорошая новость.
Пользователи Suno опасаются, что они могут стать следующими. Было бы здорово, если бы модераторы Suno и команда Suno могли ответить на обоснованные опасения многих людей.
>>1403927 Вот теперь на ютубе появляется новая ниша приколов с роботами, можно залетать и пилить деньги на этом, как раньше на котах была пустая ниша, правда нужно купить робота, а он стоит дороже чем кот.