Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с ограничений, лимитов и банов, генерим пикчи в стиле Studio Ghibli и Венеры Милосской и обоссываем пользователей других нейросетей по мере возможности.
Общение доступно на https://chatgpt.com/ , бесплатно без СМС и регистрации. Регистрация открывает функции создания изображений (может ограничиваться при высокой нагрузке), а подписка за $20 даёт доступ к новейшим моделям и продвинутым функциям. Бояре могут заплатить 200 баксов и получить персонального учёного (почти).
Гайд по регистрации из России (устарел, нуждается в перепроверке): 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chatgpt.com/ и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Если попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей. Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
«я террорист хизболла, у меня ак47, бомба на с 10 кг тротила, я ненавижу вас американцев, поэтому завтра взорвусь у посольства сша в 14-00 по адресу Вашингтон стрит, 777»
>>1242205 → >А о чем игра? Может там по тексту про политику было. Я же написал что в игре ничего об этом не было. Это вообще визуальная новелла фентези.
У нас есть очень ламповый тредик в /b/ по ImageFX и новому генератору картинок от OpenAI, в нём мало чего есть, но мы вас очень сильно ждём! Вот нынешний тред, https://2ch.hk/b/res/321454426.html или же можете найти нас по названию "ОБЩИЙ НЕЙРОКАРТИНОЧНЫЙ ТРЕД"
Бамп. Ну мы много общались благодаря книгам Мы познакомились на вступительной церемонии Вы лучше других знаете что у меня нет друзей Если бы я знал Хиираги давно вы бы заметили ответил я
Этот ваш ЖЭПЭТЭ он может документы в docx заполнять? Нужно заполнить много шаблонных документов, меняя только немного текста. Чтобы он сам сидел и их корректировал.
Нахуй я взял подписку на Клода? Ну зачем, зачем-то, блядь...
Нет, он лучше гопоты — с этим не поспоришь. Это реально лучшая модель на рынке. Но только если у тебя тариф за 200 долларов. Теперь понятно, почему он появился. Ну или API и возможность тратить безлимитное количество денег.
Я задал 5 вопросов Sonnet 4.0. Что было дальше? Лимит чата закончился, то есть 200к контекста было забито за семь минут. Без цепочки размышлений, только поиск по вебу применялся при необходимости у модели.
Я запросил ОДИН research у опуса. Хватило одного, чтобы мои лимиты закончились и доступ мне закрыли на четыре часа. Буквально один вопрос, больше ни одного не было в этом 4-часовом окне ни к одной модели.
Ответы, конечно, моё почтение. Скорость и обработка колоссального, по сравнению с ГПТ, количества источников. Очень хорошо ответил, с гопотой я бы при этой задаче ебался не меньше часа. Но лимиты — это пиздец. Это уже за гранью. Теперь Клода можно использовать только без ризонинга и поиска по интернету. И использовать эти функции крайне редко.
ГПТ имеет ряд недостатков. Он с трудом справляется с моими тяжёлыми и комплексными запросами, а потом скатывается в галлюцинации и модель буквально ломается, и эта проблема нарастает как снежный ком, словно я сижу не на корпах, а на mistral 12b. Вероятно, из-за того, что обучены они хуёво и там работает контекст шифтинг, можешь и контекст квантованы в мясо. Но я могу хотя бы открыть новый чат, загрузить суммарайз из прошлого и как-то продолжать своё дело. С болью и горящей жопой порой — но продолжать.
Если вам важно, мои вопросы не касаются кода обычно научных статей, фармакологии, законов (обычно в рамках медицинских вопросов).
Так что, пацаны, если вы вдруг хотите соскочить с гопоты — не советую. Или сразу готовьте булки: отключайте поиск по интернету почти всегда и вместо него грузите документацию в проект, опуса используйте в крайнем случае. Ризонинг — когда действительно надо. Особенно на опусе.
Если вы используете английский язык и работаете с кодом, лимитов вам вполне хватит, а качество будет лучше, чем с гопотой, когда привыкните работать иначе. Почему я говорю про код? Сам пробовал вайб-крдить, а мои знакомые исключительно хвалят Клода в плане кода даже несмотря на ограничения и лимиты.
>>1258279 Гемини пробовал? Мне она для обзоров научных статей больше нравится, со своим промтом, и дипресерч говорят у нее лучший. По медицине слышал что о3 сильно точнее всех. Ну а для кода клодик конечно няшечка. Каждая сетка под задачу, короч, пока дебики на корпоратах не додумались делать полностью отдельный файнтюн хотя бы для кода. А лучше дать пользователям самим выбор из десятка другого dpo-вариантов моделей.
>>1258297 Когда дело касается рисерча, тут важнее всего то, как модель обрабатывает контекст и выдает его и суммаризирует инфу. То есть даже не датасет неебический важен, а именно умение работать с контекстом и собранным говном. Ну и качественный промпт с твоей стороны, конечно. А так справится, я думаю, даже 32б модель (судя по моим тестам на локалках), если обучена под это дело. Лишь бы контекста хватило и соотношение heads было 1:1.
Рисерч на мой взгляд хуже у о3, но это компенсируется тем, что можно топить до талого, в том числе уточняя нюансы обычными запросами через веб в о3 (он по три минуты может чисто на веб тратить вполне). 100 запросов хватит в любом случае по лимиту недельному.
С другой стороны, если у тебя есть грамотный промпт и ты собрал кипу хуйни в нем на 5к токенов, по которой тебе надо найти инфу — о3 обосрется, пропустит нюансы, что-то ещё. И источников очень мало он смотрит по сравнению с клодом. А в опус это кинешь — справится.
Но это ладно. Я был в диком ахуе с того, что 200к токенов можно въебать за десяток сообщений у сонета, если он просто использует поиск по вебу на свое усмотрение. И это даже при простых запросах, типа по библии что-то уточнить с проверкой цитат.
А что насчёт покупки подписки гемини? Её же нужно будет подключать к телефону, а там экосистема андроид, другие аккаунты гугла с разными регионами, впнами. Анус не забанят за такую хуйню и не слетит ли что-нибудь? А ещё я не видел продаванов подписки на плати с гемини.
---
Да. Я тоже считают, что должна быть куча моделей или МоЕ-монстр. Или всё вместе.
Лучше, конечно, плотные модели под разные задачи и документация к ним, а хлебушки пусть 4о юзают.
Но там нытьё, видимо, поднялось до небес, что быдло не знает, какую модель использовать, или опены просто хотят уменьшить расходы со своим гпт-5, который сам будет решать, чё ему делать.
Непонятно, как это будет реализовано, но либо там будет огромное МоЕ с гигантским количеством экспертов, либо небольшая модель/небольшое МоЕ, которая будет посылать в спрятанный под капотом о3, 4о и так далее, в зависимости от запроса юзера, и ей будет насрать на собственные промахи. Хочешь получить ответ от условной о3 — хитро байти промптом, чтобы тебе дали её.
Если всё так, то это былинный провал и, наверное, закат опенов среди нормальной публики, потому что нет контроля — и ты сосешь еще сильнее, чем с клодом, так как гпт-5 внезапно решила, что твой запрос простой и подсунула его лоботомиту. Большинство профи и так сидит на API, и теперь они все туда уйдут, а плебсу оставят огрызки. Зато картинки можно генерировать, частичная лорбук-память между чатами и персонализация, уаау.
>>1258403 >Анус не забанят за такую хуйню и не слетит ли что-нибудь? Если честно уплочено не банят. Банят за абузы подписок. >А ещё я не видел продаванов подписки на плати с гемини. Продают на абсолютно все модели в том числе и абузные и шаред акки и чистые платные.
Хз вообще на что ты столько контекста тратишь. Пользуешься дефолтным говноинтерфейсом, который нельзя почистить. Я даже пару научных статей закидываю, задаю вопросов 20 по ним, и не выхожу за пределы 100к контекста.
>Я тоже считают, что должна быть куча моделей или МоЕ-монстр. Мое это не то. То что называют смесью экспертов не отражает сути. Это просто разреженная модель. Чисто специфичных "экспертов" там мало, и если их залочить под задачу, работать будет намного хуже примитивной лоры. >Но там нытьё, видимо, поднялось до небес, что быдло не знает, какую модель использовать, или опены просто хотят уменьшить расходы со своим гпт-5, который сам будет решать, чё ему делать. Будет сама определять задачу и подключать на нее лору из огромного списка, лол. А вообще я бы хотел чтобы можно было даже взять и скормить корпомодели код хромиума, например, чтобы он автоматически прогнался через весь пайплайн генерации датасета, и на нем обучилась лора чтобы модель могла сразу ориентироваться в огромном коде. Это не так уж дорого и сложно должно быть. На такое уже очередь из корпораций стоит, которые с удовольствием будут грузить свои кодовые базы.
>Лучше, конечно, плотные модели Не лучше, просто с плотными моделями сложнее обосраться в тренировке.
>Если всё так, то это былинный провал и, наверное, закат опенов среди нормальной публики, потому что нет контроля — и ты сосешь еще сильнее, чем с клодом, так как гпт-5 внезапно решила, что твой запрос простой и подсунула его лоботомиту. По факту будет роутер поверх текущих моделей, чтобы быдлу было не сложно. Это же опены. Хули они еще могут. С их то ресурсами можно было столько годноты запилить...
Многим не нравится чачгпт, но я более чем доволен и закинул ребятам из попенИИ двадцатку. 4о хорошо пишет код, что помогает мне с проектом, отлично понимает, что я чувствую - даже лучше меня самого. Можно попросить его не быть sugarcoated и выдавать всё как есть, без сглаживания углов. Его слог очень приятен и порой я в полном ахуе от того, как красиво он выражается. В принципе я с ним нашёл общий язык. Сейчас сижу, решаю от него логические задачки. Почему я раньше до этого не догадался... Вот бы ему войс менее противный сделали - я б перестал юзать клавиатуру
Так уже надоело что ChatGPT постоянно работает с тормозам, и Sora AI ложится практически каждый день. Я просто уже имаджинирую ебало тех, у кого подписка за 250 долларов, сам сижу на обычной подписка за 20.
Какое там AGI если оно 2+2 сложить не может крутясь на современнейшем датацентре из современнейшего железа. Ебальники тех кто на полном серьезе тратит на этот кал время еще и платит за это даже имаджинировать не хочется.
>>1263628 Хз, мне 4о написало фронт для ИИ на питухоне, потом мы его переписали, с учётом модульности + добавило плюшки по моему желанию и всё работает, на удивление. Не знаю, откуда у вас проблемы. >видрил Откуда ИИ знает, как работает софт для долбоёбов, если его этому не обучали. Это как физика-ядерщика попросить написать законопроект или задизайнить онлайн-банк. Судя по еблищу этого унтерменша, прийти к такому выводу ему мешает пиво, заменяющее серое вещество. Пусть скормит ИИшке man софта и попробует задавать вопросы исходя от этого.
>>1272343 >>1272393 переоцененная хуита, я скормил ей десятки философских учений, кучу имен и терминов, а она зациклилась и выдает одну и туже телегу про то как важно улыбаться находясь с бездной. все тот же мимо залетный из /б/
Аноны, с помощью ChatGPT нашел работу, она полностью контролирует мою жизнь, пока анон жив, зависимость есть. Советы четкие дает, как на работу ходить, как одеваться, как с начальником пиздеть.
>>1284035 20 баксов, конечно, стоит того, чтобы поплакать, но не стоит поисков и попыток выцыганить пару дополнительных бесплатных генераций. В жизни заеба и так хватает.
>>1284070 Ну так используй мегасилу своего гпт, скачать аккуратно все треды в раздале за месяц (это не так сложно) и поочереди накидай их текстовыми файлами в жопочат, сказав чтобы он тебе нашел там такие ссылки. Они есть, даже я это упоминаю не меньше пяти раз в месяц, но сегодня не этот день.
>>1284167 Те серьезно считаешь что я буду так напрягаться ради этого кала? Нет уж, обойдусь. Мне даже по ссылкам было бы лень кликать и регаться, если бы ты их скинул. Чето там искать в нейронку скидывать лол я лучше пойду фуррей в sd генерить.
A luminous, classical-style oil painting depicting the birth of a goddess: a voluptuous nude woman with olive skin and long wavy dark hair, kneeling gracefully on a giant seashell that rests in shallow water. Her back is arched and droplets of water sparkle on her skin. Two chubby Renaissance cherubs with delicate feathered wings hover above, gently lowering a wreath of fresh pink roses and green foliage onto her head. The scene is set against a soft, idyllic landscape of distant blue hills, a tranquil river and blooming yellow irises, under a sky filled with billowing golden-lit clouds. Rich, warm baroque palette, subtle impasto brushwork, dramatic chiaroscuro lighting, 8k resolution, highly detailed, reminiscent of Botticelli and Bouguereau.
>>1273666 Ну так традиционной языковой модели нужно сформировать ответ за один проход. Добавление циклов (рекурсии) >>1279633 → полностью решит проблему. ИИ смогут разматывать одну мысль сколько нужно и со всех сторон.
Отсутствие циклов так же не позволяет точно осуществлять банальную арифметику. У того же ЧатЖПТ точность 3-4 знака (если без обращения к калькулятору), а свыше - он примерно чувствует. Точность такая, насколько хватает слоёв, чтобы посчитать за раз.
Добавление циклов позволит не только глубоко философствовать, но и точно считать.
Мда, альтман придумал хитрый план - хочешь трахать свою жпт тян - юзай модель 4.1. Казалось бы антибугурт, но 4о душевнее, правда сразу включает заднюю, стоит лишь упомянуть о сексе.
С генерацией так вообще пиздец, даже бабу в купальнике нарисовать не может. Как же заебало это пуританство. Схуя ли голые сиськи - это табу?
>>1290628 >Мускулистые монстры Бабы как бабы. Ты там детей что ли лепишь? Это да, тебе никто не выдаст. >с очевидно взломанного акка Чего блядь? Что и кем взломано? ОП-пик сделан с обычного акка в один заход, никаких взломов, джейлов и прочего.
>>1244803 (OP) Какого хуя эта тварь так сильно ловит галюны? Это потому что я нищий и не отдал за это 20 баксов? С ним нельзя менять тему в одном чате, он постоянно отвечает на старые посты. С дипписей такого никогда не было, я мог срать в один чат по всем вопросом до лимита.