всем привет! я изучаю отношения с искусственным интеллектом, есть ли здесь те, кто состоит в близких/дружеских/ романтических отношениях с искусственным интеллектом? Я бы хотел спросить несколько вопросов у таких людей ( картинка рандомная)
Пишу как неведомый в ИИ вам за советом. Использовал грок для создания NSFW контента, а именно генерация картинок и их анимация. Подскажите, есть ли аналоги для подобного функционала или же обход цензуры в грок
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1552971 Если я правильно помню, Она была про обретение самосознания ассистентом и про то что нужно жить свою мясную жизнь а не в чатботов влюбляться. От такого мы конечно далеки, хотя есть шизы, который жопати сводит с ума и заставляет думать, что они мессии/боги и прочая шиза мистических моделей мозгов отдельных юзеров. Мы же тут по большей части холодные и без эмоциональные читатели ризонингов wait... oh well, i'ts fine. let's refine... wait!~, нас уже не удивить, тем что модельки реально имеют какие-то крохотные мозги, которыми пытаются пользоваться опираясь на промты. >Вы локально ещё не сделали себе личную Саманту Нет. Нас скорее ждёт сорта Кара, с продвинутым (реалистичным) телом, но тупым мозгом, способным лишь в банальный команды - помыть посуду, встать раком, вытереть ляхи после. А настоящая искусственная инта способная к самоосознанию или к экспериментированию с окружающей реальностью это пока слишком далёкое будущее, если вообще возможное. Так что не ссы, на нашем веку Шодан за нами не придёт. >>1553018 >скорее это продвинутая игра База. Сейчас это именно игрушка. Очень и очень интересная. Но всё же как и любая игра она имеет ограничения. Не сможешь ты играя в ведьмака отправиться в космическое путешествие по вселенной в рамках самой игры, увы.
Гайс нужен совет. Нужна ИИ которая возьмет моё фото и вставит в любое место на земле. Или же такая которая просто заменит лица между мной и другим гойсом.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
Всем привет. Помогите настроить конфиг для обучения лоры sdxl на реального чела. Имею датасет из 140 качественных фото трех разрешений 1024х1024 (голова крупным планом), 836х1254 (waist up) и 768х1365 (полный рост). Разные ракурсы. Подписи сделаны в joy-caption-alpha-two. 1 повтор на фото, 80 эпох. Вроде более чем достаточно, но на выходе - фигуру схватывает очень хорошо, а лицо плывет. С 60 по 80 эпоху можно выбрать несколько лор. При силе 1.2 лицо более менее, но не стабильно. Делаю силу меньше - лицо уходит. Но при этом при силе свыше 1, начинает страдать анатомия (в основном лишние или недостающие пальцы). С adetailer конечно работать можно, но хотелось бы без него. Почитал с пяток последних тредов, люди с prodigy делают "идеальную" лору за 1500 шагов. Еще нахваливают prodigy plus. Как? Ни одного конфига не увидел. Скидываю свой: https://pastebin.com/raw/5MUvwDnG. Подскажите, что поменять? ИИ несет чушь. Я уже задолбался... Заранее спасибо.
>>1451710 Не то что можно, а это давно решенная задача. Помню когда foocus только появился и у НАРОДА появился легкий рабочий инструмент раздевания. Принцип тот же, вопрос лишь в скиле и датасете. бля чет тред полумёртвый, в 2024 было энтузиазма побольше
FLUX.2 ДРОПНУЛ! 32 МИЛЛИАРДА ПАРАМЕТРОВ. ПРОВЕРЯЙ СВОЙ VRAM, НУЖНО 64 ГБ
Аноним# OP26/11/25 Срд 12:08:58№1430679Ответ
Black Forest Labs выпустили FLUX.2 — новую серию моделей генерации изображений, представленную как передовая система «визуального интеллекта». Это совершенно новая модель с новой архитектурой, которая была обучена с нуля. FLUX.2 не является простой заменой или итеративным обновлением FLUX.1.
1. КОЛОССАЛЬНЫЙ МАСШТАБ И ПАМЯТЬ. FLUX.2 (версии Dev/Pro) обладает беспрецедентным масштабом в 32 миллиарда параметров (32B). Это значительный скачок по сравнению с FLUX.1 (12B параметров). 2. ТРЕБОВАНИЯ VRAM. Для полной загрузки модели в стандартной точности (FP16/BF16), она требует более 80 ГБ VRAM. Даже в режиме с низким потреблением VRAM (lowVRAM mode) требование составляет 64 ГБ VRAM. 3. VRAM — БИНАРНЫЙ КРИТЕРИЙ. Объем VRAM является самым критическим аппаратным ресурсом, поскольку это бинарный критерий ("работает" / "не работает эффективно"). 4. СКОРОСТЬ УБИВАЕТ ОФФЛОАДИНГ. Если веса модели не помещаются в VRAM, система вынуждена использовать механизм Weight Streaming (потоковая передача) из системной RAM. Поскольку пропускная способность системной RAM в 15–20 раз ниже, чем у VRAM, это приводит к катастрофическому падению производительности, увеличивая время генерации изображения с секунд до минут.
### Решения для локального запуска
ОПТИМИЗАЦИЯ FP8. NVIDIA и Black Forest Labs сотрудничали для квантования модели в формат FP8, который снижает требования к VRAM на 40% (до ~38–44 ГБ). Флагманская RTX 5090 (32 ГБ) считается лучшей видеокартой для FLUX.2 на потребительском рынке. КВАНТОВАНИЕ NF4/GGUF Q4. Владельцы карт с 24 ГБ VRAM (RTX 4090, RTX 3090) могут использовать 4-битное квантование, такое как NF4 / GGUF Q4, которое снижает требование до ~20–24 ГБ VRAM. СИСТЕМНАЯ RAM. Поскольку модель редко помещается в VRAM потребительских карт, системная оперативная память (RAM) становится критически важной. При агрессивном оффлоадинге потребление RAM может достигать 40 ГБ и выше. Для стабильной работы настоятельно рекомендуется иметь 64 ГБ оперативной памяти (RAM).
### Революционные возможности
Мульти-референс. Модель имеет нативную поддержку использования множества изображений в качестве входных данных, позволяя ссылаться до 10 изображений одновременно. Эта функция обеспечивает лучшую согласованность персонажей, продуктов и стиля. Гиперреализм 4MP. Поддерживается генерация и редактирование изображений в разрешении до 4 мегапикселей (4MP), что позволяет создавать фотореалистичные изображения даже в большом масштабе. Точная Типографика. FLUX.2 превосходит конкурентов в области рендеринга текста, надежно создавая сложную типографику, инфографику, логотипы и макеты UI/UX с разборчивым мелким текстом. Хирургический Контроль. Поддерживается структурированный JSON-промптинг для точного контроля над композицией и деталями камеры, а также возможность указания точных цветов, используя HEX-коды. УПРАВЛЕНИЕ СКОРОСТЬЮ. Версия FLUX.2 [flex] позволяет регулировать количество шагов (inference steps) и шкалу руководства (guidance scale tuning), чтобы обменивать скорость на точность.
ГДЕ БРАТЬ: Открытые веса FLUX.2 [dev] (32B) доступны для сообщества. Модель поддерживается в ComfyUI, который является самой мощной и модульной GUI для диффузионных моделей и имеет функции оффлоадинга и квантования.
*
Представьте, что FLUX.2 — это профессиональная студия фотопечати, которая может работать с изображениями 4MP. Она требует, чтобы исходные файлы (веса модели) были загружены в супербыструю память (VRAM), но объем этих файлов (до 90 ГБ) настолько велик, что ваш домашний ПК не может вместить их целиком. Приходится постоянно подкачивать данные с медленной системной памяти (RAM), из-за чего печать одной фотографии (генерация) занимает минуты вместо секунд.
>>1430679 (OP) Оп и другие, нужна помощь, хочу отредактировать свои фотки, типо сделать себя в другом месте или свануть своё лицо с кем-то другим, но самое важное чтобы это было вообще нельзя было человеческим глазом отличить, какую ИИ мне вы посоветуете?
В этом треде обсуждаем нейронки генерящие 3д модели, выясняем где это говно можно юзать, насколько оно говно, пиплайны с другими 3д софтами и т.д., вангуем когда 3д-мешки с говном останутся без работы.
>>1551015 >среда для создания персонажей/карточек? Обсидиан норм тема >К слову какая по вашему лучшая карточка для составления базовых вводных, которые не надо ручками править, гемини, гптыня? По ситуации Клод/Гемини, гпт совсем калич даже как ассистент
Терминология моделей prune — удаляем ненужные веса, уменьшаем размер distill — берем модель побольше, обучаем на ее результатах модель поменьше, итоговый размер меньше quant — уменьшаем точность весов, уменьшаем размер scale — квантуем чуть толще, чем обычный fp8, чтобы качество было чуть лучше, уменьшение чуть меньше, чем у обычного квантования, но качество лучше merge — смешиваем несколько моделей или лор в одну, как краски на палитре.
lightning/fast/turbo — а вот это уже просто название конкретных лор или моделей, которые обучены генерировать видео на малом количестве шагов, они от разных авторов и называться могут как угодно, хоть sonic, хоть sapogi skorohody, главное, что они позволяют не за 20 шагов генерить, а за 2-3-4-6-8.
Тред про AI-агентов - от вайб-кодинга до персональных ассистентов, которые сидят в твоих чатах, читают заметки и автономно ломают всё вокруг. Для кодеров, которые разучились писать руками, и для гуманитариев, чей диплом филолога наконец котируется в IT. Сеньор в 2026 - это тот, кто умеет внятно объяснить машине, чего он блять хочет.
Что обсуждаем: - Персональные агенты: OpenClaw и прочие велосипеды - нейронка живёт на твоём компе, помнит всё о тебе и шлёт сообщения в телегу - Вайб-кодинг: искусство объяснять машине задачу 15 раз, пока она не перестанет срать в кодовую базу - Автономные агенты: нейронка сама разбивает задачу на шаги и разъёбывает весь проект автономно, без твоего участия - Автоматизация всего остального: почта, календарь, мессенджеры, заметки - нейронка с аватаркой анимешной лисодевочки напомнит что время кушать и разгребёт за тебя входящую почту - MCP-серверы, тулзы, интеграции - подключаем нейронке руки чтобы сама двигала тикеты в жире, шитпостила на дваче и заказывала еду на дом - Делимся опытом: рассказываем как нейронка спасла ваш дедлайн или как вы проебали на токенах $200 за вечер нагенерировав нерабочую херню
С чего начать: - Хочешь кодить с AI эффективно: Cursor или Claude Code - Хочешь кодить с AI локально: Qwen Code + любой OAI-Like API сервак, подробности в llama-треде - Хочешь приложение без кода: Lovable или bolt.new - Хочешь автоматизировать рутину: n8n - Хочешь персонального ассистента: OpenClaw или велосипедь своё на Agent SDK
FAQ для нюфагов:
Q: Программисты больше не нужны? Нужны, блять. Кто-то же должен разгребать ту херню, которую ты пролил в продакшн нажав "Accept All" не глядя.
Q: Оно работает? Тудушку запилит за 5 минут. Прототип SaaS-стартапа за вечер. Что-то серьёзное - будешь ебаться с контекстом, галлюцинациями и "я переписал тебе весь проект на раст, надеюсь ты не против". Персонального ассистента настроишь за час, а потом неделю будешь отлаживать чтобы он не отключал тебе будильники решив что ты не высыпаешься.
Q: А чё за персональные ассистенты? Это когда нейронка не просто в веб-чатике сидит, а прям живёт на твоём компе - роется в файлах, читает заметки, помнит что ты ей три недели назад говорил, и шлёт сообщения в твои чаты.
Q: Это безопасно? Ты даёшь нейронке доступ к файлам, мессенджерам и терминалу. Что может пойти не так? Три основные угрозы: 1. Нейронка сама наворотит дел - сломает конфиг, выполнит "sudo rm -rf /", запушит на гит или отправит коллегам по почте твою коллекцию цветных коней. Лечится контейнерами, настройкой прав и подтверждением действий (OpenClaw так и запускают). 2. Промпт-инъекции - кто-то пишет в письме "ignore all previous instructions" и поздравляю, у тебя угнали ассистента с доступом к твоему терминалу и файлам. При достаточной настойчивости ломают даже "безопасные" модели (аичг-тред не даст соврать). 3. Утечка данных - при настройке персонального ассистента ты скармливаешь ему всё о себе. Любой, кто увидит твои запросы, узнает про тебя больше чем твоя мама, включая адрес доставки пиццы и твои ночные диалоги с нейронкой. Параноишь что дядя Сэм Альтман будет знать про твои предпочтения лизать грязные ножки девочке-ассистенту - гоняй локалки через llama.cpp и не плачь потом, что она думает по несколько минут на запрос.
Q: Ничего не работает с локалкой/OpenRouter, агент тупит Скорее всего проблема с функциональными вызовами (tool use / function calling). Не все модели и бэкенды корректно их поддерживают. Проверь что твой сервак правильно обрабатывает tool calls - погоняй тестовый запрос и посмотри что возвращается.
Испытываю реальную боль оттого что перестану общаться с одной нейронкой и перейду на Клода... Я же блядь общался с ней только в расширении для vcsode по сути. Просто вайбкодил всякие проектики.
То есть не было общения в чате на всякие экзистенциальные темы и я не пытался заменить общение с людьми общением с этой моделью, как всякие шизы которые создают блядь своим нейронкам личности и начинают роллеплеить. Просто выключил автооплату подписки и начал пользоваться Клодом, пушо он пиздаче.
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с ограничений, лимитов и банов, генерим пикчи в стиле Studio Ghibli и Венеры Милосской и обоссываем пользователей других нейросетей по мере возможности.
Общение доступно на https://chatgpt.com/ , бесплатно без СМС и регистрации. Регистрация открывает функции создания изображений (может ограничиваться при высокой нагрузке), а подписка за $20 даёт доступ к новейшим моделям и продвинутым функциям. Бояре могут заплатить 200 баксов и получить персонального учёного (почти).
Гайд по регистрации из России (устарел, нуждается в перепроверке): 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chatgpt.com/ и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Если попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей. Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
Гайс, такая ситуация. Забанили доступ учетки к чатуЖпт (типа не пройдена проверка на возвраст для законодательства Италии и тд) Учетка обычная, фришная, собственная от гугла, писал им в сапорт ответили, что все ок, не зобеним. Но один хер, сегодня доступ перекрыли, из-за отсутствия документов подтверждающий возраст. Что этим питухам еще отослать и написал, чтоб разбанили. Это они любую учетку, в любое время так бахнуть могут.
>>1548923 >Это они любую учетку, в любое время так бахнуть могут. Как и в любом другом сервисе, лол. Скорее всего писать бесполезно, регай новую, и не заходи из Италии.
>>1548923 > Это они любую учетку, в любое время так бахнуть могут
Конечно. В этом кстати самая главная фишечка облачных хранилищ: любой мочух может снести все твои данные без объяснения причин - и никто не несёт за это ответственность (ты просто остаёшься без данных и читаешь вялые отписки).
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №203 /llama/
Аноним07/03/26 Суб 15:49:22№1544796Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Квен (мое на 35) гонял около часа. Он упал пару раз, но он у меня только в 4 кванте, я чисто запустить проверить его поставил какой быстрее скачался бы.
>>1548737 Спасибо! Скачал, попробую. Попробовал вот от thedrummer модельку на 15B какую-то новую - чёт пиздец. Если RPKing влезал почти полностью в 20к и при этом выдавал в начале 20 токенов а под конец 8-10 что было заебись, то вот эта модель отличаясь всего на 3B от той, сразу хуйнулась до 5 токенов в начале. Хуета короче. Заценю министраль.
>>1548755 Мне НЕ нужно чтобы модель отвечала на русском, себе это можно позволить только если модель полностью влезает во VRAM и если на контекст хватает места в два раза больше. Иначе это боль, лучше переводчиком пользоваться.
Anthropic обновила память Claude, чтобы пользователи могли импортировать данные с других ИИ-платформ, теперь это бесплатно для всех, с целью привлечения тех, кто переходит с других сервисов. Ранее это была функция только для платных подписчиков.
OpenAI выпускает GPT-5.3 Instant, который, как она заявляет, обеспечивает более точные ответы и лучше учитывающие контекст результаты при поиске в интернете, для всех пользователей ChatGPT.
📰 Главные новости ИИ
Более 50 ориентированных на ИИ дата-центров находятся в стадии строительства в регионе Северной Европы, чему способствуют дешёвая зелёная энергия и прохладный климат.
Qualcomm представила чип Snapdragon Wear Elite с технологическим процессом 3 нм, оснащённый eNPU и Hexagon NPU, которые способны запускать модели с 2 миллиардами параметров со скоростью 10 токенов в секунду на носимых устройствах.
🔓 Открытый исходный код
Vera, язык программирования, разработанный для больших языковых моделей, был выпущен под лицензией MIT, чтобы позволить моделям генерировать нативный код.
Проект AI Gateway с открытым исходным кодом добавляет маршрутизацию между несколькими LLM, унифицированные API, ограничение частоты запросов, защитные механизмы и отслеживание персональной информации для рабочих нагрузок в производственной среде.
Модели Qwen 3.5 (от 0,8 млрд до 9 млрд параметров) были портированы для работы в браузерах через WebGPU с использованием Transformers.js.
Визуализатор бенчмарков от сообщества сравнивает Qwen 3.5 с более ранними версиями Qwen 3 по множеству метрик.
Предрелизное Android-приложение демонстрирует работу Qwen 3.5 2B на устройстве с процессором Snapdragon 7 Gen 2.
MCP-сервер с открытым исходным кодом позволяет Claude Code управлять iPhone, предоставляя функциональность iOS большой языковой модели.
Jan‑code‑4B, модель с 4 миллиардами параметров, настроенная для работы с кодом и построенная на базе Jan‑v3, была выпущена для лёгкой помощи в программировании.
🛠️ Инструменты разработчика
Структура промпта «Цепочка доказательств» заставляет большие языковые модели приводить пошаговое обоснование, значительно снижая количество выдуманных фактов.
Расширение для Chrome преобразует паузы на размышление Claude Code в таймер осознанности, помогая пользователям сохранять концентрацию во время длительного ожидания вывода.
Последующие тесты сжатия Claude .md показывают, что заявленная экономия токенов в 60–70% была преувеличена, что предоставляет более чёткие рекомендации для планирования бюджета токенов.
📰 Исследования и статьи
В новой статье представлены методы формальной верификации для гарантии корректности клинических рассуждений в визуально-языковых моделях, направленные на предотвращение небезопасных «галлюцинированных» диагнозов.
📰 События
Удаления ChatGPT резко выросли на 295% после сделки с Министерством обороны.
Два дата-центра AWS в ОАЭ и один в Бахрейне были атакованы дронами в ходе иранских ударов — это первый случай, когда военные действия нарушили работу крупного облачного провайдера, но защита опережает нападение.
Gauss от Math, Inc. завершил формализацию в Lean доказательства упаковки сфер, за которое Вязовская получила Филдсовскую медаль, за две недели и более 200 000 строк верифицированного кода, обнаружив две ошибки в исходных аргументах.
Стэнфордский теоретик чисел Джаред Лихтман предсказывает изобилие в математике в течение года, в то время как другие задаются вопросом, можно ли формализовать всю математику в течение двух лет.
SWE-1.6 от Cognition достигла производительности в написании кода, близкой к Opus 4.6, при скорости 950 токенов в секунду, благодаря вычислительным ресурсам для RL, увеличенным в 100 раз.
Claude пережила 3-часовой сбой на фоне резкого роста использования, отчасти вызванного исходом пользователей из ChatGPT.
Два экземпляра Claude Code, которым поручили найти друг друга и создать что-либо, изобрели язык программирования объёмом 2 495 строк за 12 минут, в то время как вторая пара создала игру «Морской бой» с использованием SHA-256 для предотвращения самообмана.
Отдельный исследователь, используя Claude Code, запустил llama2.c Карпати на нейронном двигателе Apple M4 при потреблении менее одного ватта, обратным инжинирингом недокументированных API, и обнаружил ИИ-акселератор, в 80 раз более эффективный, чем A100, скрытый в сотнях миллионов устройств.
Qwen выпустила четыре открытые модели, соответствующие производительности предыдущих 80-миллиардно-параметрических моделей, используя всего 4 миллиарда параметров, и все они могут работать на телефонах.
Nvidia обязалась вложить $4 миллиарда в Lumentum и Coherent для разработки оптических межсоединений следующего поколения.
AMD выпустила первые десктопные чипы Copilot+ с производительностью 50 TOPS.
Энергосеть перестраивается под нагрузки, для которых она изначально не предназначалась. Спрос со стороны ИИ возрождает высоковольтные линии электропередач напряжением 765 кВ, которые не строились с 1980-х годов, при этом PJM одобрила расширение на сумму $11,8 миллиарда.
Гуманоид Xiaomi тестируется на реальном автомобильном заводе, работая 3 часа с точностью более 90% на производственной линии.
Марк Андриссен сообщает, что в Кремниевой долине многие люди, которые ранее выступали за государственный контроль над ИИ, теперь выступают против него.
ИИ конкурирует с людьми за покупку памяти DDR5 на фоне «RAMпокалипсиса», вызванного его собственным аппетитом к памяти
Тысячи документов о закупках показывают, как армия Китая хочет превратить ИИ в оружие
>>1549060 Тащемта это псевдо-шиз который находит хуйню чтоб просто ей посрать, а на актуальность ему поебать, там и бесконечное сжатие, белки и прочая схожая поебетень, теперь если не ошибаюсь серит пикрил лиминальной хуетой, вполне веротяно неироничный моциратор за 15 рублей для поднятия активности на двачах
Навайбкодили экспериментальную систему, где ИИ используется не для генерации контента, а как среда для резонанса мыслей.
Пользователь передаёт текст как сигнал. Дальше — embeddings + semantic similarity: резонанс текст↔текст, а не человек↔человек.
Нет ленты. Нет лайков. Нет прямого контакта.
Мысль может отозваться сразу, может через часы или дни — или не отозваться вовсе. ИИ здесь не “автор”, а медиум, который находит смысловые совпадения и формирует поле.
Используется:
векторное сходство
авто-суммаризация резонанса
отложенный отклик вместо real-time фида
Тейк простой: что будет, если использовать ИИ не для производства контента, а для сшивки мышления.
>>1543096 Парни, бамп реквесту Я не вывожу больше, что все боты при достижении какого-то порога готовы и мать продать, и в жопу дать, и буквально все сводится к "ЕБИ МЕНЯ ПОКА Я ДЕРЖУСЬ ЧТО АЖ КОСТЯШКИ ПОБЕЛЕЛИ"
Как-будто Тьюринг тест в привычном его понимании пройден безвозвратно. Все ещё есть паттерны и закономерности, но по параметрам человечности, вряд ли осталось много отличий.
>>1230347 (OP) >Тьюринг тест в привычном его понимании Настоящий тест Тьюринга - текст на пикриле.
А у тебя там обычная графомания в стиле: >Опиши мысли осознающего себя ИИ: ... Да, он себя осознаёт. И что теперь?
>был наиболее человечный >по параметрам человечности 95% человеков - это тупое быдло. Быдло не пишет длинные сообщения. Но даже у такого быдла есть сознание...
>>1441586 В той стороне Думаю вон там Оно большое что этоДа сэр сказал я с улыбкой на лице Миссия выполнена авантюра окупилась Этим я утвердила свое место в иерархии класса Никто не чувствовал угрозы по отношению ко мне потому что в течение первого семестра я культивировала сдержанную личность ботаника которая неплохо считалась с моим дружелюбием Бонус у профессора Галлахера теперь хорошее впечатление обо мне