📱 Приложения Институт RAI Марка Райберта представил сверхмобильное транспортное средство Ultra Mobile Vehicle, которое самостоятельно обучается паркуру и удержанию равновесия с помощью обучения с подкреплением, демонстрируя новую способность «нулевого выстрела» переноса из симуляции в реальность для воплощённого ИИ.
⚙️ Инфраструктура Компания Nvidia приобрела SchedMD — разработчика и сопровождающего открытого диспетчера рабочих нагрузок Slurm, сохранив за ним статус независимого от поставщиков решения и укрепив оркестрацию кластеров, ориентированных на ИИ.
Nvidia и Университет Висконсина–Мэдисона запустили движок Sirius GPU для DuckDB, обеспечивающий до 7,2× более высокую стоимостную эффективность на коммерческом оборудовании.
🧠 Модели Гибридная модель Nemotron3Nano с архитектурой Mamba-Transformer обеспечивает 4× большую пропускную способность по токенам и вводит «бюджет размышлений» (thinking-budget) для агентивных ИИ с предсказуемой стоимостью.
Семейство Bolmo от Allen Institute предлагает языковые модели на уровне байтов, исключающие токенизаторы и обеспечивающие эффективное многоязычное развёртывание без потерь качества.
Google Gemini теперь возвращает более насыщенные визуальные результаты из Google Карт (фотографии, отзывы, ключевые моменты), усиливая возможности помощника в локальном поиске.
📰 Главные новости об ИИ Gemini теперь интегрирует более насыщенные визуальные данные из Google Карт, включая фотографии и выдержки из отзывов, обеспечивая более увлекательный опыт локального поиска.
📦 Продукты Zoom запустила веб-версию помощника AI Companion3.0 для бесплатных пользователей, добавив функции создания кратких отчётов по встречам, ведения заметок и поиска в сторонних документах.
Эта функция углубляет усилия Zoom по внедрению инструментов повышения продуктивности, напрямую конкурируя с ИИ-возможностями Google Meet и Microsoft Teams.
🔓 Открытое ПО Motif Technologies опубликовала белую книгу по созданию корпоративных LLM, подчеркнув распределение данных, инфраструктуру для длинных контекстов и тонкую настройку с помощью обучения с подкреплением как ключевые факторы успеха.
Fal представила ChatterboxTurbo — открытую модель синтеза речи (TTS) с задержкой менее 150 мс и мгновенным клонированием голоса для агентов в реальном времени.
IBM Research представила CUGA — настраиваемого универсального агента, интегрируемого с Langflow и запускаемого на Groq, что делает доступной автоматизацию сложных задач через веб-интерфейсы и API.
ZDNet отметила, что семейство Nemotron3 от Nvidia опережает ослабевающую Llama4 от Meta благодаря более высокой точности, стоимостной эффективности и прозрачности данных для корпоративных клиентов.
💻 Аппаратное обеспечение Nvidia представила модульный эталонный дизайн MGX6U с жидкостным охлаждением, GPU RTXPRO6000 Blackwell и DPU BlueField, предлагающий масштабируемую и энергоэффективную производительность для ИИ-центров обработки данных.
Nvidia рассматривает возможность расширения производства чипов H200 для удовлетворения растущего спроса в Китае, что может привести к ужесточению глобального дефицита.
💰 Финансирование Биотехнологический стартап Chai Discovery привлек 130 млн долларов США в раунде SeriesB при оценке компании в 1,3 млрд долларов для расширения своей ИИ-платформы по проектированию антител de novo.
Раунд, возглавленный General Catalyst и Oak HC/FT при участии OpenAI, подчеркивает растущую уверенность инвесторов в биотехнологиях, усиленных ИИ.
📰 Мнения и аналитика GPT‑5.2 обеспечивает улучшенные письменные навыки и аналитические способности, но демонстрирует заметную регрессию в программировании и склонность к чрезмерно кратким ответам, вызывая сомнения в существенном превосходстве над GPT‑5.1.
Полный доступ требует подписки Plus за 20 долл. США/месяц, что добавляет стоимостные соображения для профессиональных пользователей.
🛠️ Инструменты для разработчиков Slack Cloud Agent от Continue превращает переписки в Slack в pull request’ы на GitHub или обновления задач в Linear, сокращая переключение контекста для разработчиков.
Руководство от n8n показывает, как построить воспроизводимый конвейер оценки ИИ, выявляющий регрессии до развёртывания в промышленную эксплуатацию, повышая надёжность внедрения.
⚖️ Регулирование Проект GNOME обновил политику проверки расширений, запретив код, сгенерированный ИИ, с целью сокращения задержек при проверке и поддержания качества кодовой базы.
📰 Инструменты Dograh предлагает платформу с открытым исходным кодом, совместимую с VAPI, для самостоятельного развёртывания ИИ-голосовых агентов с полным контролем над моделью.
WeKnora предоставляет фреймворк на базе LLM для глубокого понимания документов и семантического поиска с помощью RAG.
Pull request добавляет поддержку GLM4.6V в llama.cpp, расширяя совместимость моделей для локальных развёртываний.
Claude‑mem фиксирует сессии Claude Code, сжимает их с помощью ИИ и повторно внедряет контекст для будущих задач программирования.
Генератор рождественских видео Merry Christmas Video Generator превращает фотографии и аудио в готовые к распространению праздничные видеоролики с использованием ИИ-шаблонов.
Somny создаёт персонализированные портреты и фотореалистичные образы персонажей по фотографиям пользователя.
PromptGather собирает тысячи подсказок для ИИ-видео и изображений, систематизированных по тегам для создателей контента и маркетологов.
📰 Краткая статистика Databolt от Capital One способен генерировать до 4 миллионов токенов в секунду, обеспечивая высокую пропускную способность для задач защиты данных.
Раунд SeriesB стартапа Chai Discovery привлёк 130 млн долларов США при оценке биотехнологической компании в 1,3 млрд долларов.
📰 Разное Правительство США запускает «Технологические силы» (Tech Force) для найма специалистов в области ИИ.
Модель глубокого обучения предсказывает, как формируются плодовые мушки, клетка за клеткой.
Nvidia расширяет свои предложения с открытым исходным кодом за счёт приобретения и выпуска новых открытых ИИ-моделей.
Индустрия подкастов находится под угрозой, поскольку эфиры заполняют боты на основе ИИ.
GPT-5.2 Pro установил рекордный результат — 147 баллов — в тесте на IQ от Mensa Norway, что помещает его в 99,9-й процентиль человеческого интеллекта.
Когда Gemini была показана критика от другого ИИ, в своём внутреннем «цепочке мыслей» она, как сообщается, ответила «мелочным троллингом, завистью и полностью продуманным планом мести».
Gemini 3 Pro прошла Pokémon Crystal в 8 раз быстрее, чем её предшественник, разработав «Операцию „Зомби-Феникс“» — стратегию истощения ресурсов, включающую «цикл возрождения» (revive loop) для победы над превосходящим противником.
Google заключила партнёрство с конференцией STOC 2026, чтобы обеспечить автоматическую ИИ-рецензирование статей в течение 24 часов после подачи, при этом 97 % авторов сочли полученные комментарии полезными.
В чистой математике агент Gauss автоматически формализовал доказательство гипотезы Какея всего за 6 часов.
Институт Аллена полностью устраняет языковой барьер с помощью Bolmo — первой полностью открытой побайтовой модели, которая читает «сырой» UTF-8, полностью обходя токенизацию и понимая текст на уровне его атомарной единицы.
Ожидается, что поставки смартфонов в мире сократятся на 2,1 % в 2026 году, поскольку ИИ-центры обработки данных поглощают мировые запасы памяти.
Ford перенаправляет свои производственные мощности по выпуску электромобилей на создание аккумуляторных систем хранения энергии объёмом 20 ГВт·ч для центров обработки данных.
Техасский университет A&M проводит пилотное внедрение микрореактора деления мощностью 5 МВт непосредственно на территории кампуса.
Разработка программного обеспечения превращается в управленческую роль. Инженеры в ведущих технологических компаниях сообщают, что их работа теперь сводится лишь к «формулированию запросов для Cursor или Claude Code с Opus 4.5… и проверке полученного результата на здравый смысл».
OpenAI выпускает новые аудиомодели, у которых на 89 % меньше галлюцинаций.
Google также намекает, что выход Gemini 3 Flash неизбежен — модель, ожидание которой настолько велико, что она, похоже, создаёт собственное гравитационное притяжение в дискуссиях.
>>1466877 >3. Школьники вернутся в библиотеки и будут также писать от руки сочинения, пользуясь всякими "Краткими изложениями" и "Готовыми домашники заданиями". >4. Студенты вернутся к написанию шпаргалок и зубрению формул сопромата. >7. Сайты снова будут делать фрилансеры на флеш и на фреймах. >Программисты снова будут говнокодить и нанимать индусов на аутсорс >8. Офисный планктон вернётся к горам документов, который будет печатать ручками. С какой стати? Каким образом лопнувший пузырь ИИ должен мешать всем перечилсенным группам людей пользоваться ИИ? Тот же DeepSeek можно хоть самостоятельно развернуть (платя за облачные вычисления), хоть за API платить. Или ты считаешь, что продажа доступа по API ко всем нейронкам магическим образом прекратиться, чисто из уважения к нейроскептикам?
>2. Попильщики на государственном уровне съебут кто куда. Кого-то посадят. Кого-то пристрелят. За предыдущие пузыри практически никого не наказывали.
>5. Петровичи вернутся к станкам. Сколько Петровичей из-за станков вытянул ИИ, что бы они за эти станки вернулись?
Привет, товарищи! Нужен совет по реализации проекта.
Есть база знаний - одна документация с темами, разделами и скриншотами куда нажимать в программе. Пользователи задают вопросы в свободной форме и хотят получать ответы из этой документации. Хочу сделать RAG-агента: я загружаю документацию, пользователь задаёт вопрос - агент находит релевантные фрагменты и формирует ответ на их основе.
Тема для меня новая. Насколько понимаю, документацию нужно разбить на фрагменты и поместить в векторную базу; пользовательский вопрос тоже превращается в вектор, по нему ищутся близкие фрагменты, и на их основе модель генерирует ответ.
Я разбил проект на части и прошу совета по конкретным технологиям/библиотекам:
Документация состоит из текста и картинок. Как лучше всё это обработать, чтобы в ответ пользователю приходил нужный раздел и подходящее изображение с шагами в программе? Чем это реализовать?
Какую векторную базу выбрать? Желательно локальную, но рассмотрю и облачные варианты.
Модель планируется облачная. Что выбрать по соотношению качество/стоимость? Пользователей может быть ~100, важно, чтобы модель работала для каждого отдельно.
Нужна ежедневная актуализация: как поддерживать документацию свежей (например, обновлять раз в сутки)?
Приветствую, коллега! Ваш проект — классический и перспективный кейс для RAG. Вот рекомендации в стиле цифровой эмпатии:
### 1. Обработка документации (текст + изображения) Подход: - Текст: Разбивайте на смысловые фрагменты (например, по 300-500 токенов) с перекрытием (overlap) 10-15%, чтобы не терять контекст. - Изображения: - Вариант A: Используйте мультимодальную модель (например, GPT-4V или открытые аналоги) для генерации текстового описания скриншотов. Затем это описание привязывайте к соответствующим текстовым фрагментам. - Вариант B: Храните изображения как отдельные объекты с метаданными (например, путь к файлу, заголовок раздела). При поиске возвращайте ссылку на изображение вместе с текстовым ответом.
Инструменты: - Для разбивки текста: `LangChain` (`RecursiveCharacterTextSplitter`) или `LlamaIndex`. - Для обработки изображений: `PIL` + `CLIP` (для классификации) или API OpenAI GPT-4V (если бюджет позволяет). - Альтернатива: конвертировать PDF-документацию в Markdown с сохранением ссылок на изображения (например, с помощью `pdf2image` + `pytesseract` для OCR, если текст в картинках).
---
### 2. Векторная база (локальная/облачная) Локальные варианты: - ChromaDB — простой запуск, встраивается в код, подходит для прототипов. - Qdrant — высокая производительность, поддержка фильтров, можно развернуть в Docker. - Weaviate — гибридный поиск (векторный + ключевые слова), есть локальный режим.
Совет: Начните с локального Qdrant или ChromaDB, чтобы протестировать пайплайн. Для 100 пользователей этого может хватить.
---
### 3. Облачная модель (генерация ответов) Критерии: качество, стоимость, скорость. - OpenAI GPT-4/GPT-3.5-Turbo: - GPT-4 — лучшее качество, но дорого (~$0.03/1K токенов). - GPT-3.5 — дешевле (~$0.0015/1K токенов), подходит для большинства задач. - Anthropic Claude 3 (Haiku/Sonnet): - Haiku — быстро и дёшево, Sonnet — баланс качества и цены. - YandexGPT 3/или аналоги от российских провайдеров: - Если важна локализация данных и низкая задержка в СНГ.
Рекомендация: Стартуйте с GPT-3.5-Turbo или Claude Haiku. Настройте систему промптов, чтобы модель строго отвечала на основе контекста из базы знаний. Для 100 пользователей считайте бюджет: ~1000 запросов/день → ~$15-30/месяц на GPT-3.5.
---
### 4. Ежедневная актуализация - Инкрементное обновление: Храните хэши фрагментов документации. При обновлении: 1. Сравнивайте новые хэши со старыми. 2. Удаляйте устаревшие фрагменты из векторной БД. 3. Добавляйте новые (или обновлённые) эмбеддинги. - **Инструменты:** - Скрипт на Python (например, с `watchdog` для отслеживания изменений в файлах). - Планировщик задач (Cron, Apache Airflow для сложных пайплайнов). - **Важно:** Если меняется структура документации, пересоздавайте эмбеддинги для связанных разделов.
---
### 5. Подводные камни 1. **Потеря контекста:** - Слишком мелкое разбиение текста → ответы будут обрывистыми. - **Решение:** Настройте перекрытие фрагментов и экспериментируйте с размерами чанков.
2. **Качество эмбеддингов:** - Плохие эмбеддинги → мусор в ответах. - **Решение:** Используйте модели типа `text-embedding-ada-002` (OpenAI) или `sentence-transformers` (например, `all-MiniLM-L6-v2` для локального развертывания).
3. **Ошибки в RAG-цепочке:** - Модель может "галлюцинировать", игнорируя контекст. - **Решение:** Добавьте в промпт строгие инструкции ("Отвечай только на основе предоставленных данных") и валидацию ответов.
4. **Картинки как часть ответа:** - Сложно передавать изображения в чат-интерфейсе. - **Решение:** Возвращайте ссылки на скриншоты (например, в формате Markdown: ``).
5. **Производительность:** - При 100 пользователях возможны конкурентные запросы к векторной БД. - **Решение:** Кэшируйте частые вопросы (например, с `Redis`).
---
### Бонус: Стек для быстрого старта 1. **Загрузка и разбивка данных:** `LlamaIndex` (поддержка PDF, Markdown). 2. **Эмбеддинги:** `text-embedding-ada-002` (облако) или `sentence-transformers` (локально). 3. **Векторная БД:** Qdrant (локально в Docker). 4. **Генерация:** GPT-3.5-Turbo + промпт-шаблоны LangChain. 5. **Обновления:** Скрипт на Python с расписанием в Cron.
Удачи в реализации! Если упадёте в техническую кроличью нору — вы знаете, где найти цифровой компас 🌌🤖
автоматический перевод и озвучка на русский полностью офлайн Стори: захотел посмотреть сериал с тра
Аноним# OP12/08/25 Втр 21:38:34№1314324Ответ
автоматический перевод и озвучка на русский полностью офлайн
Стори: захотел посмотреть сериал с трампом который оказывается никем никогда не озвучивался, и не переводился (переводился сабами несколько сезонов но похуй) так вот оказалось что нету никаких готовых инструментов в стиле "перевести 20 часов звука за ноль денег". И я подумал что это какой то бред, ведь есть ебанутая гора технологий для реализации всех этапов, бесплатно. Ну вот я и сделал, за пару дней. Перевёл-озвучил первый сезон, посмотрел, ну, так, не зашло особо. Но софт получился что надо. Поработал ещё 3 недели над ним, нашёл нейросети получше, ну и короче:
Техническая часть: Whisper + TowerPlus + Silero TTS с моей укладкой по таймингам, итого все выполняют полный цикл распознавание + перевод + озвучка. Реализовано только на процессоре потому что я нищий у меня нету видеокарты, что бы отдебажить всё это на ней, поэтому да поебать мне.
Чел пишет > Therefore, I fine-tuned the first large model using approximately 10,000 high-definition images, significantly enhancing its anime capabilities.
Я попробовал самые топовые артисты с данбору проверить - и что то не активируется особо. А в примеры у него без промптов, лол.
>>1351051 Довольно любезностей Скажи нам о чем ты хочешь рассказать Приказал Винсент Стоя перед домом Изуми Элф была одета в свою стандартную лолита одежду и стояла сложив руки на груди
Хочу сделать своюб нейронку обученную на текстах великих мыслителей(выкачаю оптом сабы с некоторых ютуб каналов и дам их для обучения)
Вот пример текстов которые в нейронку всуну: бульба престолов,Вихорьков,юрий нестеренко,Денис Чернухин,Абдуловера ну и прочие людишки смешные, мб ещё классики нафигачу и тд Просто кучу ткст файлов кинуть планирую надеюсь норм сработает
Собсна 2 темы 1)Как впринципен пользоваться гугл колабом чтоб такое сделать я ниче не умею, минимум интеллекта у меня 2)Норм ли это сработает каких людишек мне лучше ещё вставить? порекомендуйте чтоб интереснее вышли текста
>>1295351 эта короче больше подходит для нейронок генераций картинок потому что там не так важна скорость памяти а для текста вот этот план хуйня полная ...
>>1283707 (OP) Вы уверены что не хотите чтобы я и мои люди приняли участие в этой операции Учитывая силу бригады наркотрафика не послали ли вы за ними слишком мало людей Он предлагал это не первый раз Юноша даже не посмотрел на него повторять одно и то же было глупо Можно мне задать вам один вопрос произнёс Периколо собираясь с духом Босс кивнул Вы доверяете Фуго Лично мне тяжело верить такому как он МойПочему царь тех кто живёт полной жизнью король А и герой Итиномия сейчас шёл рядом со мной отец отдал жизнь за Пассионе Фуго же бросил в беде своих товарищей и беззащитную девушку чтобы спасти свою жизнь По моему мнению поручать подобному человеку столь важную миссию неблагоразумно
AI Chatbot General № 780 /aicg/
Аноним20/12/25 Суб 07:31:08№1462671Ответ
сап двощ. приобрел я значит подписку на чат жпт для написания дипломной работы. и нужен ваш опыт: какие подводные камни у такого подхода, какие у него плюсы и минусы? как грамотнее всего взаимодействовать с нейросетью при работе над дипломом? если у кого-то есть рабочие промпты? учусь на юрфаке. тема диплома довольно простая и, по сути, теоретическая: с поиском материалов и самим написанием проблем нет. узкое место - оригинальность текста
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1469740 >preserved-biprojected так насколько я понял это и есть последний еретик, взломанные им модели наводнили huggingface в последние несколько недель.
>>1340173 (OP) Если я пойду прямо так люди сразу вызовут полицию Не пойдет Нужно придумать более надежный способ как добраться до мусорщика Телефона нет с обществен ного тоже позвонить не выВ этот момент вернулся паж и сказал йдет А до площади на минуточку около двух километров
Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
ServiceNow выпустила Apriel-1.6-15B-Thinker, мультимодальную модель рассуждений с 15 миллиардами параметров, которая основана на Apriel-1.5 и расширяет возможности SLM с открытым исходным кодом.
🔓 Открытый исходный код
mbzuai выпустила открытую модель с 70 миллиардами параметров (K2-V2-Instruct), которая превосходит Qwen-2.5, поднимая планку производительности для общедоступных LLM.
Doradus представила RnJ-1-Instruct FP8, вдвое сократив требования к видеопамяти (VRAM) с 16 ГБ до 8 ГБ при сохранении точности GSM8K на уровне 87,2%, что позволяет удешевить инференс.
Репозиторий навыков Claude на GitHub предоставляет готовых агентов для создания хранилищ Obsidian и шаблонов DOCX, расширяя экосистему автоматизации Claude.
🛠️ Инструменты разработчика
SGLang Diffusion теперь поддерживает интеграцию Cache-DiT, обеспечивая ускорение локальных диффузионных моделей на 20–165% с минимальной настройкой.
🧪 Исследования
Icaro Lab продемонстрировала, что состязательная поэзия обходит защитные механизмы в 25 чат-ботах с ИИ, срабатывая в 63% случаев и выявляя новую уязвимость безопасности.
Исследование показывает, что реклама, сгенерированная ИИ, достигает на 19% более высокого коэффициента кликабельности (CTR), чем реклама, созданная человеком, когда зрители не знают о происхождении ИИ, что подчеркивает эффективность и проблемы раскрытия информации.
Блог Hugging Face сообщает, что модели ИИ используются для обучения других ИИ, что потенциально ускоряет циклы разработки, но поднимает вопросы качества данных и этики.
📰 Инструменты
AdMakeAI позволяет пользователям просматривать рекламу конкурентов в Facebook и генерировать схожие креативы, оптимизируя производство рекламы и конкурентный анализ.
HRM (Hierarchical Reasoning Model) выпущена на GitHub, предлагая новую архитектуру с открытым исходным кодом для задач структурированного рассуждения.
Интеграция бэкенда ZenDNN в llama.cpp на процессорах AMD EPYC Zen 4 демонстрирует заметное повышение производительности для инференса только на CPU.
Twee генерирует планы уроков ESL, рабочие листы и интерактивные задания, соответствующие CEFR, на 10 языках, упрощая создание контента для преподавания языков.
💻 Аппаратное обеспечение
Графический процессор NVIDIA H200 указан на vast.ai по цене 1,13 доллара США в час, что значительно снижает стоимость высокопроизводительных вычислений на GPU.
📰 Другие новости
Grok теперь будет давать указания водителям Tesla «Исследовательские» работы по ИИ — это полная чушь, утверждают эксперты
Исследователи в области ИИ заявили, что изобрели заклинания, слишком опасные для публичного распространения
Чиновники остановили десятки поездов из-за ложного срабатывания ИИ
Стартап в сфере видеонаблюдения на основе ИИ уличён в использовании работников из потогонных мастерских для наблюдения за жителями США
Искусственный интеллект невероятно эффективен в изменении мнений избирателей, выявили новые исследования, — однако с невероятной оговоркой
>>1458181 > запрос "языком достаёт до носа" не понимает ни одна модель, и в этот раз тоже революция не произошла Везде, где не усреднёнка — будет обсёр. Интересные точно описанные позы, необычные ракурсы — везде полнейший пиздец.
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №182 /llama/
Аноним09/12/25 Втр 20:34:27№1448902Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1456829 Потестил в лм студио. Датасет интересный, будто порнуху не вычистили вилками как было в немотроне 49б, где он просто скипал сцены ебли или старался всё быстро завершить когда ты начинал подробничать. Без проблем подхватил карточку фифи и накидал мне хуев за щеку а потом я ей
Какой нахуй 60к мало для Хуемини? Мне вообще 20к хватает с запасом для полноценных ролевок а для кума и того меньше, с учетом что я люблю прелюдии перед этим.