Тред про AI-агентов - от вайб-кодинга до персональных ассистентов, которые сидят в твоих чатах, читают заметки и автономно ломают всё вокруг. Для кодеров, которые разучились писать руками, и для гуманитариев, чей диплом филолога наконец котируется в IT. Сеньор в 2026 - это тот, кто умеет внятно объяснить машине, чего он блять хочет.
С чего начать: - Хочешь кодить с AI эффективно: Cursor или Claude Code - Хочешь кодить в VS Code без привязки к конкретному провайдеру: Kilo Code, Cline или Roo Code + OpenRouter - Хочешь кодить с AI локально: OpenCode, Qwen Code или Pi Coding Agent + из моделей аноны советуют Qwen3.5, подробности в llama-треде - Хочешь приложение без кода: Lovable или bolt.new - Хочешь автоматизировать рутину: n8n или Langflow - Хочешь персонального ассистента: OpenClaw + API корпов или локальная модель на твоей пеке
антропики душат. на плати маркете брал оплату подписки забанили акк, до этого тоже часто банили. не аккаунт брал готовый а просто оплату. поделитесь плз кто где берет оплату и нет банов ебаных, спасайте заебало уже
>>1600732 Сеймич. Отлетело два акка. В принципе если губу не раскатывать, юзать соннет как основную сетку, активно юзать субагентов на хайку, агрессивно компактить, то можно и на апи опенроутера прожить. Но тяжко конечно.
Чуваки, кто знает какие локальные модельки норм подойдут для агентного использования? Грубо говоря в прогу вставить её чтобы она какую-то работу совершала по подробному промпту с инструкциями и возвращала данные обратно в json? 6гб врам 16гб рам, пробовал qwen2.5-coder, phi4-mini, gemma4:e4b, достаточно шустро работали и с базовыми запросами справлялись, есть ли какие-то модельки которые специализированно обучены на такой вариант использования? Мб ещё дополнительно RAG к модельке подключить чтобы компенсировать маленькое количество параметров?
хочу уйти с иглы курсора на лицо локальных лли, потому что заебала история с оплатой про плюс или баном учеток, поэтому задумался об использовании локального агента.
че имеем: макпук м4 про, 48гб. понравилась моделька `batiai/qwen3.6-35b:q6` че думаете, каллеги?
работаю фронтом, но с готовым ui-kit'ом, поэтому чаще всего нужно реализовать больше логику
>>1601446 > 6гб врам 16гб рам Тут можно сказать для тебя специально >>1590112 → >>1601519 Квены 3.6, или 35а3 или 27б, они очень мощны в своем размере. Ну а квант подбирай самый крупный который влезет с контекстом. Стоит еще в сторону mlx-lm посмотреть раз мак, оно быстрее и не такое глючное как llamacpp, но будет сложнее.
>>1601522 пасиба, но я ваще использую ollama)00)0) но гляну все таки
кстати, еще вопрос: вот хочу я воспользоваться llamacpp, но меня смущает варианты: есть какая -то супер оптимизированная модель под мой мак в которой все расписали и есть "GGUF" вариант, который не ясно как ваще у тебя будет работать по сравнению с первым вариантом - че выбрать без тестирования каждый раз самому? я поэтому и использовал ollama. потому что на ней была уже более расписанная модель, нежели GGUF вариант в llamacpp без описания нормального и замеров
>>1601531 > я ваще использую ollama Тогда земля пухом. Ollama - ловушка для ньюфагов, вредительская обертка внутри которой лишь кривой форк llamacpp. Не существует никаких "супер оптимизированных моделей", просто пальцем в небо выбрали какой-то квант, который с запасом запустится. Был калькулятор сколько памяти потребует конкретный квант с указанным контекстом, спроси в лламатреде. Или даже проще - смотришь сколько у тебя свободно памяти в системе в простое, выбираешь квант размером на 20-30% меньше (справедливо для квенов). Также, тебе стоит посмотреть в реддите, других ресурсах маководов и банально глянуть ютуб на предмет. В них уже наверняка все протестировали и могут сразу сориентировать.
>>1600732 у меня второй месяц через платиру работает, скоро вот третий возьму. но я использую его в нативном чате через впн, а если надо в опенклау точерез опенроутер подключаю.