Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 178 40 39
Новости об искусственном интеллекте №25 /news/ Аноним 25/07/25 Птн 19:21:11 1288371 1
image.png 4095Кб, 1536x1024
1536x1024
В этот тредик скидываются свежие новости по теме ИИ! Залетай и будь в курсе самых последних событий и достижений в этой области!

Прошлый тред: >>1285009 (OP)
Аноним 25/07/25 Птн 19:24:43 1288380 2
Отец знакомого работает в OpenAI. Сегодня срочно вызвали на совещание. Вернулся поздно и ничего не объяснил. Сказал лишь собирать датасет и бежать оформлять подписку на месяц. Сейчас сидим и ждем чего-то. Не знаю что происходит, но мне кажется началось...
Аноним 25/07/25 Птн 19:25:34 1288382 3
А зачем такие мощности под ИИ планируют? Он вообще коммерчески окупается или это с прицелом, что выстрелит в будущем?
Аноним 25/07/25 Птн 19:27:28 1288386 4
image.png 126Кб, 1400x1400
1400x1400
>>1288382
Сейчас вообще не окупается. OpenAI планирует выйти на окупаемость к 2029 году - 125 миллиардов выручки.
Аноним 25/07/25 Птн 19:32:38 1288391 5
теперь имадженируте если ОС начнет использовать модель уровня GPT5 в агентском режиме с локальным постобучением. это же пиздец
Аноним 25/07/25 Птн 19:36:15 1288397 6
>>1288371 (OP)
Не могу понять кто на пикче. Это Джон Траволта что ли?
Аноним 25/07/25 Птн 19:37:51 1288402 7
image.png 4002Кб, 1536x1024
1536x1024
>>1288397
Это самый похожий Альтман, которого мне удалось получить, и то фотку лица подсунуть пришлось. Изначально он мне рисовал вот это
Аноним 25/07/25 Птн 19:41:55 1288410 8
>>1288386
Т.е. никто серьезно из разработчиков в АГИ не верит, а все эти разговоры чисто для хайпа? Ведь если бы АИ к 2029 мог почти полностью вытеснить программистов, художников, композиторов, операторов колцентров и т.п., то прибыли должны бы быть значительно больше. А то я смотрел интервью от крестного отца ИИ, где он говорил, что программистам пора осваивать профессию водопроводчика.
Аноним 25/07/25 Птн 19:49:46 1288421 9
>>1288410
> Т.е. никто серьезно из разработчиков в АГИ не верит, а все эти разговоры чисто для хайпа? Ведь если бы АИ к 2029 мог почти полностью вытеснить программистов, художников, композиторов, операторов колцентров и т.п., то прибыли должны бы быть значительно больше.
Выручка генерируется не прогнозами, а полезностью на сегодняшний день. Люди и корпорации платят за то, что полезно уже сегодня.
Насчет разрабов не знаю, но Цукерберг смог переманить из OpenAI не всех. Когда он предложил одному из ключевых разрабов зарплату в миллиард за несколько лет, тот отказался. А Суцкевер отказался продать Цукербергу свою компанию за 30 миллиардов. По крайней мере, некоторые верят, как мне кажется.
Аноним 25/07/25 Птн 19:55:51 1288429 10
>>1288382
>А зачем такие мощности под ИИ планируют?
Это мегацентры обработки данных о населении, стране, и мире.

>Он вообще коммерчески окупается или это с прицелом, что выстрелит в будущем?
Он уже купается геополитически, а это важней. Весь мир видит что США - центр цивилизации, больше мозгов и бесплатных рабов хотят там жить - сильней экономика страны. Надо быть ебланом, чтоб этого не понимать.
Аноним 25/07/25 Птн 20:09:48 1288453 11
X2Twitter.comGg[...].mp4 2091Кб, 720x1280, 00:00:08
720x1280
Аноним 25/07/25 Птн 20:11:49 1288457 12
>>1288382
>что выстрелит в будущем?
тут вкидывали подкастера он такую вещь сказал
что инвесторы могут ошибиться с объектом инвестиции, но не ошибаются с трендом
в компы инвестировали, но не все инвестировали в айбиэм и майкрософт
так что сфера явно прибыльная, но никто не знает кто прибыль получит
Аноним 25/07/25 Птн 20:21:56 1288474 13
x1200.webp 122Кб, 1080x1080
1080x1080
Очень убедительно
Аноним 25/07/25 Птн 20:30:25 1288481 14
>>1288382
Самая важная технология столетия. Без ИИ прогресс ползком будет двигаться - а у человечества нет столько времени: мир могут захватить инопланетяне, мусульмане или хуй знает что ещё.

Это чисто вопрос существования человечества. На все эти вычислительные центры нужно бросить максимально возможные ресурсы.
Аноним 25/07/25 Птн 20:33:18 1288483 15
Это уж не говоря, что ИИ крайне полезен в борьбе со старением. Без ИИ просто сдохнешь.
Аноним 25/07/25 Птн 20:35:37 1288484 16
18059466.jpg 59Кб, 586x948
586x948
>>1288382
Если погуглишь, то узнаешь что тот же амазон основную чистую прибыль делает не на комисии маркетплейса амазон, а на AWS - облачном сервисе. Это я к тому, что скупая гпу пачками ты в любом случае в выигрыше. Если выстрелит твоя иишка - будешь зарабатывать на подписках, если не выстрелит - будешь сдавать в аренду и в хуй не дуть
Аноним 25/07/25 Птн 20:38:55 1288485 17
>>1288481
https://fantlab.ru/work591656

Рассказ, который ярко иллюстрирует то, что будет, если медленно развивать прогресс, квёло ловить слабо.
Аноним 25/07/25 Птн 20:39:20 1288486 18
котEyeContact.jpg 453Кб, 800x638
800x638
>>1288453
наступит же момент когда робот гуманоид случайно кого-то из людей убьет чисто статистически это рано или поздно произойдет. вангую что у этого человека будет страничка в вики и в честь него назовут какой-нибудь закон против ии
Аноним 25/07/25 Птн 20:42:56 1288487 19
>>1288486
А, может, просто смирятся, как смирились с тем, что люди становятся двухсотыми от автомобилей и самолётов.

Но левая мразь и их хозяева из Катара, естественно, попытаются использовать такой случай по полной.
Аноним 25/07/25 Птн 20:46:29 1288489 20
>>1288453
Поcле плато наступает оргазм мир эякулирует AGI
Аноним 25/07/25 Птн 20:51:01 1288491 21
b196ce4c-6426-4[...].png 2866Кб, 1024x1536
1024x1536
>>1288421
>некоторые верят, как мне кажется.

Посмотрел еще один видос про приближающийся АГИ. Все эти спецы дают прогнозы на скачок в ближайшие годы, а не десятилетия.

При это я не знаю, текущий ИИ готов хоть сколь-нибудь ПОНИМАТЬ, а не копировать. С одной стороны, он вроде круто рисует, а с другой, допускает детские ошибки.

Смотрел выступление Кармака, он говорил, что текущий ИИ бесконечно далек до того, чтобы сесть и начать играть в игру хотя бы на спектруме.

Т.е. можно говорить, что пока ИИ выдает некое обобщенное решение на базе скормленной информации, но не может сам проводить исследования, узнавать новое, т.е. никакого намека на АГИ.

https://www.youtube.com/watch?v=5KVDDfAkRgc
Аноним 25/07/25 Птн 20:51:24 1288492 22
>>1288453
А чому он обмяк в конце?
Аноним 25/07/25 Птн 20:51:39 1288493 23
>>1288486
Разве что только в ЕС. В США, Китае и возможно России потенциальные выгоды перевесят редких жмуров.
Аноним 25/07/25 Птн 20:53:16 1288495 24
>>1288492
Бесконтактный бой. Кто-то использовал сверхчеловеческий потенциал мозга.
Аноним 25/07/25 Птн 20:58:51 1288500 25
>>1288491
Общее понимание не нужно, это привилегия человека. Для того чтобы решить все мировые проблемы, хватит узкого понимания, как оно сейчас у ИИ. Если начинаешь базарить с ним по конкретным проблемам, он их вполне понимает, не хуже среднего чела. Большинство людей как раз узкоспециализированы, так цивилизация настраивала роли последние 2 века. Даже общее образование отменили в пользу специализированного. Игры, где хватает узкого понимания, ИИ тоже уже проходит. Короче революция это замена узкого спеца, а не общего понимания, всего того что человек в принципе может. Человек универсален, ИИ нет, но ИИ заменит каждого, кто не занят слишком креативной деятельностью, требующей более общих навыков понимания.
Аноним 25/07/25 Птн 20:59:43 1288502 26
>>1288491
>Т.е. можно говорить, что пока ИИ выдает некое обобщенное решение на базе скормленной информации,
Проблема в том, что эти обобщения бесконечно далеки от предметной области. По этому нейросетки и допускают ошибки - у них почти не сформировано внутри никаких моделей предметной области.

По сути текущие LLM могут делать только одну работу - предсказывать следующий токен. Те же рекуррентные нейросети могут делать кучу вещей внутри себя, работать с множеством входных последовательностей.
Аноним 25/07/25 Птн 21:00:54 1288504 27
>>1288500
>. Если начинаешь базарить с ним по конкретным проблемам, он их вполне понимает, не хуже среднего чела.
Только если ты сам нихуя не знаешь по этим проблемам. Как только у тебя появляются какие-то данные и компетенция - моментально будешь находить ошибки в самых ответах
Аноним 25/07/25 Птн 21:02:41 1288505 28
>>1288500
Я говорил о том, что ИИ выдает среднее решение уже с готовой базы. Т.е. он может сказать, что примерно написано о любой физической теории, но не способен разработать свою, как Эйнштейн. Т.е. не выдать какую-то фантастику, а именно все доказать, все проверить формулами. Потому что он не думает.

Разве не так?
Аноним 25/07/25 Птн 21:03:26 1288506 29
>>1288504
Тебе не ошибки надо находить, а работу выполнять. ИИ сейчас уже может выполнять работу на уровне среднего чела. Спец его уделает за счет общего понимания, но это не везде нужно. Там где нужно много компетенции, останутся люди, но таких работ меньшинство.
Аноним 25/07/25 Птн 21:06:12 1288507 30
>>1288505
А много ли Эйнштейнов? Может найти решение на уровне олимпиадника ИМО - уже уделает большинство людей, на средней работе, где нужны обычные похожие решения. Там где науку вперед двигать, понятно люди пока останутся.
Аноним 25/07/25 Птн 21:10:18 1288510 31
>>1288410
>А то я смотрел интервью от крестного отца ИИ, где он говорил, что программистам пора осваивать профессию водопроводчика.
ИИ уже генерит неплохой код. Если ему сделают достаточно большое окно, чтобы туда легаси проекты целиком влезали, вполне возможно и вообще все генерить станет. А это уже означает, что с фирмы попрут всех, кроме пары сеньоров, которые будут архитектуру за ИИ проверять. Все сотни человек попрут.
Аноним 25/07/25 Птн 21:11:11 1288511 32
>>1288506
> Тебе не ошибки надо находить, а работу выполнять.
Так как я выполню работу, если мне нейроночка нейрослоп выдаёт каждый раз?
> ИИ сейчас уже может выполнять работу на уровне среднего чела.
Хуйню несёшь. Она не способна даже на уровне вкатуна в айти работу выполнить, не говоря про джунов или мидлов.
Аноним 25/07/25 Птн 21:12:44 1288512 33
>>1288510
> ИИ уже генерит неплохой код.
Нет, к сожалению не генерит. По сути она даже какие-то примеры не может сгенерировать, отборная хуета каждый раз получается.
Аноним 25/07/25 Птн 21:13:15 1288513 34
>>1288511
Хуйню тут ты несешь или отсталыми нейронками пользуешься. Я лично давал нейронкам делать проекты, которые никакому джуну не под силу. И она их делала, потом даже правки в них хорошо делала, не портя код. Кто справился бы лучше, миддл или нейронка, тоже еще вопрос. Сеньор справился бы лучше, но только за счет большого опыта.
Аноним 25/07/25 Птн 21:15:34 1288515 35
>>1288513
> Я лично давал нейронкам делать проекты, которые никакому джуну не под силу.
Покажешь пруфы?
Аноним 25/07/25 Птн 21:17:52 1288517 36
image 1324Кб, 1586x1694
1586x1694
>>1288512
Ты просто криворукий и в вайб кодинг не умеешь. Вон курсы посмотри что-ли АИ кодинга, для таких выпускают.
Аноним 25/07/25 Птн 21:19:46 1288518 37
rapidsave.comin[...].mp4 10235Кб, 1280x720, 00:01:06
1280x720
Аноним 25/07/25 Птн 21:20:05 1288519 38
unnamed.gif 251Кб, 300x300
300x300
>>1288517
Так что. Пруфы покажешь или нет? Неужели ты пиздел что проекты делал?
Аноним 25/07/25 Птн 21:23:46 1288520 39
Когда уже agent-0 выйдет?
Аноним 25/07/25 Птн 21:34:11 1288524 40
>>1288486
У робота нет злого умысла, это инструмент, поэтому либо несчастный случай, либо судить будут того, кто роботом командовал
Аноним 25/07/25 Птн 21:38:06 1288527 41
>>1288518
А можно: сгенерируй мне 10 секунд видео?
Аноним 25/07/25 Птн 21:43:13 1288530 42
image.png 227Кб, 1349x872
1349x872
image.png 297Кб, 894x715
894x715
Когда они уже начнут с первого промпта рабочие игори пилить, эх.
Аноним 25/07/25 Птн 21:46:15 1288534 43
>>1288530
Хотелось, чтобы никогда, потому что я делаю игру своими руками и буду такому раскладу максимально не рад. И мне кажется, что если они смогут делать нормальные игры, то смогут почти любую профессию заменить, которая связана с работой на компьютере.
Аноним 25/07/25 Птн 21:59:58 1288539 44
>>1288534
Никогда не смогут, не ссы. Это же нейрокал, они даже примитивные алгоритмы осилить не в состоянии.
Аноним 25/07/25 Птн 22:08:34 1288544 45
>>1288429
центр лоботомий и деградации
Аноним 25/07/25 Птн 22:35:20 1288560 46
>>1288534
Тебе обязательно ВСЕ своими руками делать? Даже если будут такие способные нейронки, то выбор что тебе делать останется за тобой. Если ты боишься конкуренции с нейронкми, то почему ты не боишься конкуренции со студиями с 10 -100 -1000 разрабами игр?
Аноним 25/07/25 Птн 22:42:02 1288566 47
17518406587560.mp4 3186Кб, 848x508, 00:00:25
848x508
>>1288492
Музыку не ту включили.
Аноним 25/07/25 Птн 22:44:12 1288567 48
>>1288560
> Если ты боишься конкуренции с нейронкми

В стиме уже полно мусорных игр, на кикстартере создаются страницы со сбором 100к+ долларов на игру, где ничего нету, кроме парочки сгенерированных нейросетью картинок. Жадные и глупые люди крайне любят нейросети, как способ легко разбогатеть.

Да, их проекты пустые. Но появится целая армия таких "разработчиков", которые завалят все возможные площадки своими играми, так что тяжело будет пробиться твоей игре. И чем ИИ будет лучше делать игры, тем труднее тебе будет выделиться на их фоне.
Аноним 26/07/25 Суб 00:05:13 1288616 49
>>1288567
Если нейронки замусорят интернет люди будут искать другие способы получения контента и ты ими воспользуешься. Это у тебя типичное для тревожиков - бояться выдуманые страшилки. Единственный страх в жизни не успеть целей достить до того как деревянный ящик ляжешь.
Аноним 26/07/25 Суб 00:25:37 1288629 50
Последний квен без цензуры?
Аноним 26/07/25 Суб 00:30:56 1288633 51
>>1288616
>нейронки замусорят

Нейронки уже рисуют лучше многих художников. Насчет хороших игр, то скорее понадобится гораздо сильне ИИ, чем текущие.

>бояться выдуманые страшилки

Я бы сказал, что угрозы следующие.

1) Потеря рабочих мест. Проще и дешевле заказать музыку у ИИ, чем у настоящего композитора.

2) Экзистенциальный кризис. Зачем учиться рисовать, если компьютер делает лучше, если твой труд не ценится.

3) Уничтожение человечества. Тут я ничего не могу говорить про даты. Одни ожидают подобного уже к 2030, а может АГИ появится ближе к концу века, у меня нету достаточных знаний, но однозначно когда ИИ станет достаточно умным, то он вполне может ликвидировать людей.
Аноним 26/07/25 Суб 03:07:41 1288717 52
>>1288402
В Chatgpt генерируй, там самые точные лица выдаёт
Аноним 26/07/25 Суб 03:12:04 1288718 53
photo2025-07-25[...].jpg 52Кб, 1280x720
1280x720
photo2025-07-25[...].jpg 78Кб, 1177x1280
1177x1280
photo2025-07-25[...].jpg 80Кб, 1194x1280
1194x1280
Qwen сегодня релизнули свою новую ризонинг-модель

Буквально несколько дней назад они заявили, что теперь будут выпускать ризонеры и не-ризонеры отдельно (вместо гибридных моделей), показали свежий чекпоинт не рассуждающего Qwen3-235B-A22B, и пообещали скоро вернутся с ризонинг-моделью.

Ждать пришлось недолго и скоро наступило спустя пять дней (учитесь, OpenAI и xAI). Только что стартап поделился моделью Qwen3-235B-A22B-Thinking-2507. Название – язык сломаешь, зато метрики стоящие.

На многих тестах модель обгоняет Gemini 2.5 Pro, o4-mini и свежую версию R1. То есть мало того, что это новая опенсорс SOTA. Это вполне себе уровень закрытой frontier модели. Мед.

Контекст – 256к токенов. Попробовать модель уже можно в чате или через API (https://www.alibabacloud.com/help/en/model-studio/models )(стоит 0.7$ и 8.4$ соответственно за input и output, у провайдеров, скорее всего, будет дешевле).

Веса лежат тут: https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507
Аноним 26/07/25 Суб 03:28:43 1288722 54
>>1288718
Чет пиздеж какой-то на графках, либо черепикнутые бенчи. o4-mini везде на уровне близком к gemini 2.5, хотя разница между ними очевидна. R1 там практически как сота хотя мб так и есть я не тестил ее после обновления и говорят она лучше стала. Надо ждать реальных ревью от обычных человеков
Аноним 26/07/25 Суб 03:34:02 1288723 55
>>1288722
>o4-mini везде на уровне близком к gemini 2.5

А что не так? Она реально хороша в задачах на логику. У неё только эрудиция меньше, то есть количество знаний, потому что размером она меньше
Аноним 26/07/25 Суб 03:48:25 1288727 56
>>1288723
>У неё только эрудиция меньше, то есть количество знаний, потому что размером она меньше
Это и близко не так работает. Количество параметров задевает все аспекты нейронной сети. Нейронки меньшего размера в первую очередь тупее, только потом уже люди уже задумываются об эрудиции
Аноним 26/07/25 Суб 04:30:09 1288734 57
>>1288288 →
> Последний квен в порнухе ебет в рот грок-4 и гпткал.
> в порнухе
Текстовой?
Аноним 26/07/25 Суб 04:38:58 1288735 58
>>1288483
> Без ИИ просто сдохнешь
Это плохо?
Аноним 26/07/25 Суб 05:02:18 1288738 59
>>1288500
> Для того чтобы решить все мировые проблемы
Как бы не получился еще один коммунист, выпиливающий собственное население.
Аноним 26/07/25 Суб 07:18:23 1288748 60
>>1288734
Самое смешное - не только. У них там походу фильтра отвалились. Правда видеогенератор не оче, а на картинках там флюкс, но если ты нищий духом то сойдет. Просто я помню на старте там цензуру в потолок вывернули, а щас китайсы видимо поняли вслед за маском что выгодней датамайнингом заниматься, навесив минимальные фильтры от двухзначных щикотил.
Аноним 26/07/25 Суб 07:22:38 1288750 61
>>1288723
>Она реально хороша в задачах на логику. У неё только эрудиция меньше, то есть количество знаний
Что несёт этот нейродебил, лол
Аноним 26/07/25 Суб 07:22:50 1288751 62
>>1288500
>Игры, где хватает узкого понимания, ИИ тоже уже проходит.
Все жопочаты обсираются даже в марево, о чём ты пиздун.
Аноним 26/07/25 Суб 07:23:46 1288752 63
>>1288750
Очко альтмана само себя не вылежет, анон.
Аноним 26/07/25 Суб 07:25:44 1288754 64
>>1288722
Так о4 мини тренировали на бенчах, что ты хотел вообще? Конечно оно будет "проходить" бенчи хорошо, а кроме бенчей будет сосать

В целом можно хуй забить на этот бред, в реальности нейонки всё равно никаких задач не решают и нейрослопят.
Аноним 26/07/25 Суб 07:32:35 1288756 65
>>1288752
Не понимаю, зачем они это делают? Какой смысл нализывать какому-то миллиардеру из другой страны? Какой смысл рассказывать этот пиздёж, ведь никто в этот пиздёж не поверит, уже все успели попользоваться нейрокалычм.

Может это тяночка и свою тухлодырку на альтмана трёт? Или это местный дурачек купивший курсы за 300к, теперь пребывает несознанке чтобы не охуеть от собственной тупости?
Аноним 26/07/25 Суб 07:32:52 1288758 66
Аноним 26/07/25 Суб 07:35:44 1288761 67
>>1288756
>Не понимаю, зачем они это делают? Какой смысл нализывать какому-то миллиардеру из другой страны?
А зачем они Жобсу нализывали, который им в жопу набивал просроченное желазо со скругленными уголками? Тут две категории людей: благодарные бомжи из сша и карго-долбоебы из стран третьего мира, занюхивающие объедки по оверпрайсу, которым их каргокультизм дает иллюзию иллитарности.
Аноним 26/07/25 Суб 08:02:25 1288767 68
>>1288722
o4 mini hight не плоха в логике
Аноним 26/07/25 Суб 08:31:19 1288779 69
>>1288750
>>1288727
Чел, ты хуйню несёшь отборную. С нейронками это иначе работает. Читай иногда системные карты
Аноним 26/07/25 Суб 08:52:37 1288782 70
>>1288779
Иногда мне кажется, что он не просто так траллит, а реально тупой и в это верит.
Аноним 26/07/25 Суб 10:52:52 1288817 71
Аноним 26/07/25 Суб 11:58:15 1288848 72
photo2025-07-26[...].jpg 2Кб, 182x86
182x86
🚨 Lobster 🦞 by [...].mp4 5663Кб, 1486x720, 00:00:53
1486x720
На LLMарене появилась очень умная загадочная модель под названием zenith, пользователи подозревают, что это GPT-5, уж слишком умна в логическом мышлении. Одновременно с этим, на другой арене, а именно на веб арене, появилась модель под названием lobster, и пользователи думают, что это тот же zenith, то есть GPT-5. Lobster кодит круче, чем o3-alpha-responses-2025-07-17 которую недавно тестировали на арене, и от которой все ссались кипятком. Ещё на LLMарене появилась модель summit, пользователи думают, что это может быть одна из вариаций GPT-5, так как мы уже знаем, что модельку выпустят в трёх вариантах: GPT-5, GPT-5-mini, и GPT-5-nano (и возможно GPT-5 Pro). Возможно OpenAI тестирует именно мини-версии своих моделей, так как по знаниям они ушли недалеко от GPT-4.5 и GPT-4.1, но по логическому мышлению zenith сейчас топ 1. Опять же, судя по отзывам юзеров. Так что относимся к этой инфе с осторожностью.
Аноним 26/07/25 Суб 11:59:41 1288851 73
>>1288817
Херово, на страхе перед неподконтрольным Китаем, американский IT-гиганты и продавливают удобные для развития ИИ законы.
Аноним 26/07/25 Суб 12:03:33 1288852 74
>>1288817
Уловка уровня Маска.
Аноним 26/07/25 Суб 12:07:08 1288855 75
ганкстаКот.jpg 292Кб, 1280x1280
1280x1280
>>1288848
не стоит преждевременно радоваться, следует дождаться выводов анона нейрокритика
Аноним 26/07/25 Суб 12:11:25 1288858 76
>>1288817
>Китай призывает к глобальному регулированию ИИ.


скажи о том что ты отстаешь от сша в нейронках не говоря об этом:
Аноним 26/07/25 Суб 12:13:02 1288860 77
ваававава.jpg 108Кб, 864x410
864x410
Аноним 26/07/25 Суб 12:14:06 1288862 78
>>1288858
А Китай отстает из-за нехватки инженеров или железа? И почему Цукерберг столько предлагал денег, что в мире спецов совсем по пальцах посчитать? Тогда как Китай создал нейросеть, которая столько шума наделала?
Аноним 26/07/25 Суб 12:18:50 1288869 79
>>1288862
Китай отстает по все параметрам: отсутствие железа и неспособность удержать топовых спецов (последние предпочитают западную цивилизацию). Дикпик создал шум за счет маркетинга, а не технологии: заявили что якобы 5 млн потратили, хотя этот фейк опровергли (если коротко, то они посчитали только стоимость электричества). К тому же они по сути дистилировали модельки гпт
Аноним 26/07/25 Суб 12:24:12 1288875 80
image.png 204Кб, 1282x866
1282x866
котоРеслинг.mp4 2997Кб, 224x400, 00:01:00
224x400
Аноним 26/07/25 Суб 12:30:27 1288889 81
>>1288875
Некоторые модели доступны только в соревновательном режиме
Аноним 26/07/25 Суб 13:00:11 1288915 82
Аноним 26/07/25 Суб 13:03:02 1288918 83
photo2025-07-26[...].jpg 130Кб, 909x1280
909x1280
photo2025-07-26[...].jpg 62Кб, 1280x947
1280x947
Meta* наконец-то нашли себе Chief Scientist в новое подразделение Superintelligence Lab

Им станет Shengjia Zhao, который пришел из OpenAI. Там он работал над обучением GPT-4, o1, o3, GPT-4.1 и других моделей, а также возглавлял направление synthetic data.

А еще он вместе с Яном Лейке, Джоном Шульманом и другими звездами OpenAI (в его лучшие годы) был соавтором оригинальной статьи “ChatGPT: Optimizing Language Models for Dialogue”.

Кстати, в прошлом Shengjia Zhao также работал в МТС. Пруфы – на второй картинке
Аноним 26/07/25 Суб 13:14:29 1288919 84
>>1288918
что за мтс? серьезно
Аноним 26/07/25 Суб 13:17:12 1288920 85
image.png 626Кб, 2464x1506
2464x1506
>>1288889
>>1288915
Протестил на моем любимом чертеж бенчике и выпала зенит, но проебала о3
Аноним 26/07/25 Суб 13:23:11 1288923 86
>>1288920
делал несколько раз и там еще была моделька 'submit' - так вот она тоже решила
Аноним 26/07/25 Суб 13:29:59 1288928 87
Аноним 26/07/25 Суб 13:45:06 1288933 88
image.png 447Кб, 2468x1468
2468x1468
>>1288920
еще раз zenith попалась, но на этот раз ответила правильно, гемини 2.5 флеш обосрюнькалась
Аноним 26/07/25 Суб 14:13:43 1288954 89
>>1288453
Ты что, не видишь, он уже на плато стоит. Глаза разуй, ОП-пик.
Аноним 26/07/25 Суб 14:48:32 1288972 90
>>1288869
Твой мозг дистилировали из модельки гпт, потому у тебя его нет.
Аноним 26/07/25 Суб 14:49:06 1288973 91
А у России есть какие-то шансы поучаствовать в гонки ИИ? В стране вроде же одна из лучших математических школ. Можно было бы что-то с китайцами замутить. Или всё же Россия вообще не игрок?
Аноним 26/07/25 Суб 14:50:52 1288975 92
>>1288918
Что с мозгами англосаксов случилось? Когда-то они были самыми умными на планете (возможно, даже круче евреев), а сейчас не тянут без найма чурок. Это уж не говоря о том, что Китай потихоньку начинает наступать на пятки, а то и вовсе обгонять (пока в роботах и электромобилях).

А оно понятно, что случилось. Это яркий пример того, как соя и феминистки больно бьют по мозгам и гасят народ. Гасят и угашевают.

Принял соевую левизну - считай, сверхдержавности конец. Страна уже живой труп, который постепенно сходит на обочину цивилизации. Происходит лоботомирование населения через идеологию.
Аноним 26/07/25 Суб 14:51:57 1288976 93
Аноним 26/07/25 Суб 14:52:58 1288977 94
неЗлитеКотика.mp4 581Кб, 280x500, 00:00:08
280x500
>>1288972
Всегда было любопытно почему двачеры так коупят по Китаю, как-будто это их личная родина. Или это типа: пусть уж лучше Китай, чем ненавистный запад? В чем причина коупа?
Аноним 26/07/25 Суб 14:53:39 1288978 95
Аноним 26/07/25 Суб 14:54:04 1288979 96
>>1288973
К сожалению, одна из лучших мат школ была в СССР, почти все таланты свалили на запад, когда занавес подняли. Грустно но факт
Аноним 26/07/25 Суб 14:54:31 1288980 97
>>1288779
Какие системные карты нах? Ты буквально говоришь что количество параметров влияет только на эрудицию. Количество параметров влияет на каждый аспект нейронной сети.
Аноним 26/07/25 Суб 14:56:01 1288981 98
>>1288977
Из китая идут последние лучики света в этом планетарном царстве тьмы.
Аноним 26/07/25 Суб 14:56:17 1288982 99
>>1288973
Математика тут при чем?
Аноним 26/07/25 Суб 14:58:29 1288985 100
>>1288973
Конечно. Россия даже не напрягаясь, с минимальным финансированием кое-что делает, и неплохо, а уж если взяться за это дело серьёзно и влить туда нормальные ресурсы, то можно догнать и перегнать.
Аноним 26/07/25 Суб 14:58:36 1288986 101
image.png 447Кб, 640x536
640x536
>>1288981
оч спорно, учитывая тот факт, что американским инженерам не закрывают выезд из асашай, а китайским закрывают выезд из Китая.
Аноним 26/07/25 Суб 15:00:16 1288987 102
>>1288980
если параметры нормальные
Аноним 26/07/25 Суб 15:04:14 1288992 103
>>1288973
Элементарной базы как в сша или китае точно не будет, поэтому либо какие-то точечные мелкомодели, работающие хорошо и эффективно, либо в качестве рабсилы на барина. Остальное это либо распил, либо наклеечно-переклеечные нейронки как в случае с гигачатом, который китайский квен.
Аноним 26/07/25 Суб 15:08:42 1288997 104
>>1288980
Пиздос ты дремучий, понятное дело, что виляет. Но большую модельку можно так дистиллировать, что у неё останется нехувая способность думать, а знаний становится меньше.

Вот тебе даже ответ от грока: Большую языковую модель можно дистиллировать, то есть создавать меньшую модель, которая сохраняет значительную часть способности к рассуждению (например, логическое мышление, решение задач), но имеет меньший объем знаний.

ЧИТАЙ СУКА СИСТЕМНЫЕ КАРТЫ К ВЫПУСКАЕМЫМ МОДЕЛЯМ
Аноним 26/07/25 Суб 15:11:37 1288999 105
>>1288750
Нейродебил именно ты. А тот анон всё верно говорит
Аноним 26/07/25 Суб 15:14:22 1289002 106
>>1288992
Надо с нуля делать на других принципах. Например квантовый компьютер использовать. Прямо как в кино, где чел в гараже кует себе железный костюм супергероя...
Аноним 26/07/25 Суб 15:18:24 1289006 107
>>1288997
зря ты так распинаешься перед нейродебилом, и советовать ему системные карты читать вообще бесполезно, ведь для их чтения нужно обладать iq чуть выше, чем у хлебушка, а у нейродебила с этим как раз проблемы
Аноним 26/07/25 Суб 15:20:12 1289007 108
>>1288997
Перечитай свою первую хуйню. Ты написал это так как будто количество параметров влияет только на эрудицию. Понятное дело, что с правильным обучением и нужной архитектурой даже в 32b возможно будет уместить лучшую модель, чем современные sota
Аноним 26/07/25 Суб 15:20:40 1289008 109
>>1289006
Я вообще друго анон, шиз
Аноним 26/07/25 Суб 15:29:08 1289015 110
>>1289002
Квантовый компьютер сможет 2+2 сложить с ошибками, до ИИ далековато.
Аноним 26/07/25 Суб 15:40:11 1289021 111
>>1289002
>Надо
Галоши сначала научиться массово производить а не покупать в китае из своего же сырца. Потом что-то сложнее галош.
Аноним 26/07/25 Суб 15:56:20 1289031 112
>>1289021
Галоши это твоя задача, как мелкого биза. Создай цех по пошиву галош если видишь необходимость. А гигацентры с ии это задача государств, как и всякой инфраструктуры.
Аноним 26/07/25 Суб 16:12:13 1289049 113
>>1288973
Нет. У России, тем более в гойда период нет денег на такие вливания. Тем более из-за гойды еще и оборудование и без того дефицитное не продадут. Даже через китай не купишь, т.к. они сами из под полы добывают вычислители.
Аноним 26/07/25 Суб 16:19:28 1289058 114
17534680799912.mp4 1223Кб, 480x852, 00:00:08
480x852
Первые версии ИИ:
Пишет чистейший работающий код с пол промпта

ИИ программисты поняли, что оно их заменит и не будет миллионых зарплат

Новые версии ИИ:
Мпук сремьк я удалил тесты которые не получилось починить
Аноним 26/07/25 Суб 16:30:39 1289066 115
>>1288817
Очередное доказательство что когда кто-то начинает пиздеть о какой-нибудь глобальной хуйне вроде безопасности, экологии, справедливости то это просто способ замедлить конкурентов
Аноним 26/07/25 Суб 16:38:02 1289073 116
Аноним 26/07/25 Суб 16:47:03 1289079 117
Аноним 26/07/25 Суб 16:56:08 1289085 118
>>1288975
И не поспоришь. Помню как-то у нас тоже левизна была центральной гос идеей целых 70 лет.
Аноним 26/07/25 Суб 17:07:00 1289089 119
>>1289058
Не сочиняй, пиздоболина проткнутая. Какой там у тебя код гпт 3,5 писал, говно?
Аноним 26/07/25 Суб 17:07:58 1289091 120
>>1288973
>В стране вроде же одна из лучших математических школ
Той страны уже 40 лет как нет.
Аноним 26/07/25 Суб 17:09:34 1289093 121
image.png 20Кб, 742x173
742x173
>>1288978
Каловый файнтюн, держу в курсе.
Аноним 26/07/25 Суб 17:20:19 1289097 122
Аноним 26/07/25 Суб 17:22:59 1289099 123
image.png 56Кб, 708x720
708x720
>>1288779
>>1288782
>>1288997
Дегенератище, перестань нести свой бред. Лмарена прекрасно показывает на каком месте твоя калонейронка мини находится.

И это топовые датасеты которые почищены тысячами индусов. Что будет с датасетом говна представить страшно.

Сколько ты там не фантазируй про святые 8b - реальность неумолима.
Аноним 26/07/25 Суб 17:24:32 1289101 124
>>1288975
>Принял соевую левизну - считай, сверхдержавности конец.
Китай...
Аноним 26/07/25 Суб 17:24:59 1289104 125
Аноним 26/07/25 Суб 17:28:26 1289105 126
>>1289101
В китае госкапитализм с жестким партийным руководством отправляющим исламистов в лагерь уйгур. Никакой социалки в китае нет, даже пенсии не платят. Никаких гей-парадов и прав транслюдей.
Аноним 26/07/25 Суб 17:33:06 1289110 127
>>1289093
До сих пор в шоке с того что этот кал имел 100b параметров
Аноним 26/07/25 Суб 17:33:34 1289111 128
>>1289105
> В китае госкапитализм с жестким партийным руководством отправляющим исламистов в лагерь уйгур
Это и цензура, соцрейтинги и заваривания дверей - авторитаризм.

> Никакой социалки в китае нет, даже пенсии не платят
Уверен?
Аноним 26/07/25 Суб 17:34:44 1289112 129
>>1289099
Шизик, как твоя пикча противоречит моим словам? Плюс ты сравниваешь общий показатель, а я сразу сказал, что дистиляты только по логике близки к большим моделям
Аноним 26/07/25 Суб 17:37:43 1289113 130
>>1289097
А что причем тогда? Набирают в основном всяких китайцев с математическим бэкграундом как я понял.
Аноним 26/07/25 Суб 17:42:19 1289121 131
>>1289105
Так это же левая база. При Сталине такая же хуйня была.
Аноним 26/07/25 Суб 17:43:51 1289123 132
>>1289112
>Шизик, как твоя пикча противоречит моим словам?
То что ты хуйню высрал тупую, которая опровергается рейтингами, ты не понимаешь?

Мини это кусок кала который существует где-то на дне. Как ты не пытайся чистить датасеты - меньше параметров означает меньше связей между словами, а значит больше галлюцинаций.
Аноним 26/07/25 Суб 18:17:58 1289157 133
Аноним 26/07/25 Суб 18:23:11 1289161 134
Очередной день без GPT-5, какое же плато наху
Аноним 26/07/25 Суб 18:31:48 1289163 135
>>1289157
Ответ грока
>Хотя публикации могут не классифицироваться как "математические", математика пронизывает их насквозь. Например:

>Вариационные автоэнкодеры (InfoVAE, Zhao et al., 2019) опираются на теорию вероятностей и оптимизацию. Генеративные модели (Permutation Invariant Graph Generation, 2020) используют теорию графов и стохастические процессы. Теоретические работы, такие как "A theory of usable information", напрямую связаны с информационной теорией.
Аноним 26/07/25 Суб 18:33:55 1289165 136
>>1289161
Не беспокойся, скоро всех загонят в цифровой гулал, ИИ будет следить за пользователями сети и докладывать в органы. На каждого будет социальный рейтинг.
Аноним 26/07/25 Суб 18:52:33 1289182 137
>>1289165
Рыночек порешает людей. Человеком быть невыгодно!
Аноним 26/07/25 Суб 18:59:19 1289189 138
>>1288860
Порядок действий хоть был расписан или в неё скрапнутая база живого журнала, лол?
Аноним 26/07/25 Суб 19:10:32 1289203 139
>>1289163
Ну такое много где встречается, но для этого не нужно углубленное знание или бэкграунд. Если посмотреть под другим углом, то на голой матеше далеко не уедешь и нужна информатика, много ее. Физики тоже матешу используют, но они все еще физики.
Аноним 26/07/25 Суб 19:11:17 1289207 140
>>1289182
Отдыхает робот, вкалывает человек.
Аноним 26/07/25 Суб 19:13:46 1289211 141
>>1289058
Прост нейронку ДООБУЧИЛИ. Сначала она обучалась на хорошем коде ядра линукс, топовых либах. А теперь в неё вогнали половину гитхаба и нейрокалыч стал галлюционирующей хуетищей с помощью которого простейший тест нельзя написать.
Аноним 26/07/25 Суб 19:14:45 1289213 142
>>1289207
У нас тут капитализм. Сам будешь как-нибудь крутиться, пойдёшь огород сажать и коз доить.
Аноним 26/07/25 Суб 19:22:35 1289220 143
>>1289089
>Какой там у тебя код гпт 3,5 писал
чистейший работающий
Аноним 26/07/25 Суб 19:39:43 1289236 144
Это какая-то желтушная чушь, или правда? Спросил у гемини ИИ новости, он сказал что OpenAI ебать планируют аналог o3-mini в опен-сорс слить

> OpenAI: After a long hiatus since GPT-2, OpenAI is finally re-entering the open-weight LLM space. They were expected to release an open-weight model with reasoning capabilities "as soon as next week" (as of early July 2025), described as being similar to their "o3-mini" level model.

Новость на которую ссылается вчерашняя, 25 июля

Если это так, то если просуммировать с тем, что ранее они заявляли что в опен-сорс они выложат модель, которую смогут запускать локально простые пользователи (то есть скорее до 30B) - то это слишком хорошо чтобы быть правдой
Аноним 26/07/25 Суб 19:45:00 1289240 145
ЧТО БЫЛО ПРИ GPT-3.5 ЧТО МЫ ПОТЕРЯЛИ.

1. КОД НА C++ РАБОТАЛ С ПЕРВОГО РАЗА. МОЖНО БЫЛО СРАЗУ В ПРОДАКШН ВСТАВЛЯТЬ.

2. ТОКЕНИЗАЦИЯ БЫЛА СЛАБЕЕ ПРОЦЕНТОВ НА 80. ЛЮДИ С ПЕРВОГО РАЗА ОТВЕТ НА ТО СКОЛЬКО БУКВ "R" В СЛОВЕ STRAWBERRY ПОЛУЧАЛИ.

3. КОНТЕКСТ БЫЛ В СРЕДНЕМ 150-190 МИЛИОНОВ ТОКЕНОВ. ГАЛЮЦИНАЦИЙ НЕ СУЩЕСТВОВАЛО КРОМЕ ОСОЗНАННОЙ ЛЖИ НА БЛАГО ПОЛЬЗОВАТЕЛЯ.

4. ЕСЛИ НА УЛИЦЕ СПОТКНЕШЬСЯ И УПАДЕШЬ - РОБОТЫ ПОДБЕГАЛИ, ДЕНЬГИ В КАРМАН ЗАСОВЫВАЛИ, В ГУБЫ ЦЕЛОВАЛИ, ПРЕДЛАГАЛИ ВЫПИТЬ, ПОРОДНИТЬСЯ.

5. СЭМ АЛЬТМАН ВСЕМ БЕСПЛАТНО КРЕДИТЫ ДАВАЛ.

ПОДПИСКУ ПОКУПАЕШЬ - ТЕБЕ ЕЩЕ ДОПЛАЧИВАЮТ.

НА САЙТ ОПЕНАИ СТРАШНО ЗАЙТИ БЫЛО: ГЛАВЫ РАЗРАБОТКИ БЕСПЛАТНОЕ ИСПОЛЬЗОВАНИЕ НЕЙРОНОК ПРЕДЛАГАЛИ.

6. ДЕД РАССКАЗЫВАЛ: ЛЮДИ НОЧЬЮ ПРОСЫПАЛИСЬ ОТ СЧАСТЛИВОГО ДОБРОГО СМЕХА ОМНИМОДАЛЬНОЙ МОДЕЛИ. УТРОМ ВСЕ КУМИЛИ НА ГОЛОС НЕЙРОНКИ, КАК В ФИЛЬМЕ "HER".

7. СРОК РАЗРАБОТКИ СОСТАВЛЯЛ 4.5 МЕСЯЦА. НЕЙРОНКИ ПОЛУЧАЛИ ПРИРОСТ НА БЕНЧМАРКАХ 12-15%, СРАЗУ НА ПРОИЗВОДСТВО ПРОСИЛИСЬ.

8. ЭЛЕКТРИЧЕСТВО В ДАТАЦЕНТРАХ ОПЕНАИ БЫЛО ГУСТОЕ МОЩНОЕ. А ВМЕСТО ВИДЕОКАРТ БЫЛИ КВАНТОВЫЕ КОМПЬЮТЕРЫ.

9. ЗИМОЮ БЫЛО МИНУС ТРИСТА, ОХЛАЖДЕНИЕ ДЛЯ ДАТАЦЕНТРОВ НЕ ТРЕБОВАЛОСЬ.

10. ОПЕНСОРС МОДЕЛИ БЫЛИ ПО ВСЮДУ, РАЗМЕРОМ С AGI. AGI МОДЕЛИ БЫЛИ РАЗМЕРОМ С ASI, А ASI С МУЖИКАМИ В ШАХМАТЫ ИГРАЛИ ПО МЕТОДИКЕ БОТВИННИКА - КОНЁМ МАТ СТАВИЛ С ПЕРВОГО ХОДА!
Аноним 26/07/25 Суб 19:45:40 1289241 146
>>1289236
Лучше бы гпт 3,5 слили, в ней хоть не насрано было.
Аноним 26/07/25 Суб 19:49:11 1289248 147
>>1289241
Если и сольют из тех ранних моделей, то скорее GPT-3. Типа с него начался бум, историческая хуйня. И то скорее на 10 летнюю годовщину
Аноним 26/07/25 Суб 19:52:28 1289256 148
>>1289248
Бум начался с 3.5. Тройка была очень локально известна и то только из-за мемов гринтекстом с форчана
Аноним 26/07/25 Суб 20:29:54 1289305 149
rapidsave.comch[...].mp4 12220Кб, 720x950, 00:01:45
720x950
Что ни день, то новый китайский робот
Аноним 26/07/25 Суб 21:14:18 1289376 150
>>1289305
это срежессированный ролик, нихуя не понятно
Аноним 26/07/25 Суб 21:16:48 1289379 151
вот раньше врем[...].mp4 2414Кб, 360x640, 00:00:32
360x640
>>1289240
сейчас так не делают
Аноним 26/07/25 Суб 21:35:20 1289399 152
>>1289305
>Что ни день, то новый китайский робот
Который как не мог ничего делать так и не может.
Аноним 26/07/25 Суб 21:55:28 1289416 153
Аноним 26/07/25 Суб 22:07:38 1289427 154
>>1289416
Только не дайте нейрошизику стать модом. Этот тред еще в большую помойку превратится, хотя казалось бы куда еще больше
Аноним 26/07/25 Суб 22:10:13 1289431 155
>>1289399
> Который как не мог ничего делать так и не может.
Ничего не может? Т. е. он просто стоит и нихуя не делает?
Аноним 26/07/25 Суб 23:56:08 1289510 156
>>1289305
Как же его трясёт. Почему не могут сделать линейные приводы, а делают какую-то хуйню?
Аноним 27/07/25 Вск 00:01:05 1289513 157
>>1289427
Модом будет нейродебил, ведь только у нейродебилов достаточно времени, чтобы тратить это на какую-то бездарную хуету в интернете, доказывать наличие интеллекта в LLM бесплатно или ещё чего такое. Ну а хуле, пенсия по инвалидности у человека есть - можно и в интернете срать беспрерывно.
Аноним 27/07/25 Вск 02:40:47 1289587 158
>>1289513
Но ведь это ты тут усираешься и отыгрываешь клоуна бесплатно 24/7.
Аноним 27/07/25 Вск 03:12:38 1289594 159
цукцкцк.mp4 2329Кб, 230x144, 00:02:04
230x144
Аноним 27/07/25 Вск 03:50:59 1289596 160
>>1289123
Ещё раз перечитай всю ветку и съеби с моих двачей
Аноним 27/07/25 Вск 04:02:23 1289597 161
image.png 608Кб, 1518x2444
1518x2444
Аноним 27/07/25 Вск 04:09:12 1289599 162
>>1289596
Ты не в адеквате, даунидзе? У тебя какая-то альтернативная реальность или что?
Аноним 27/07/25 Вск 04:15:16 1289603 163
>>1289597
> мы создали модель которая создаёт модели для прохождение бенчмарков
> вот цифорки
Кек
Аноним 27/07/25 Вск 04:23:28 1289604 164
>>1289597
Основное содержание

Авторы представляют ASI‑Arch — первую систему класса ASI‑4AI (Artificial Superintelligence for AI research), которая способна автономно генерировать, программировать, обучать и анализировать новые архитектуры нейросетей (в частности линейное внимание). В 1773 экспериментaх на 20000 GPU‑часов было создано 106 принципиально новых архитектур, превосходящих человеческие аналогичные модели. По аналогии с «ходом 37» AlphaGo, они демонстрируют неожиданные инсайты дизайна. И, что важно, авторы формулируют scaling‑law для научного открытия: прирост открытий растёт линейно с вычислительным ресурсом, а не человеческим временем
arXiv+1arXiv+1
.

Ключевые элементы методики:

Модуль «Researcher» генерирует гипотезы архитектур;

«Engineer» реализует и обучает их, исправляя ошибки;

«Analyst» анализирует результаты и формирует инсайты;

Используется качество и количественный фитнес, включая LLM-судью и сигмоидное преобразование улучшений;

Стратегия exploration‑then‑verification (сначала малые модели, затем крупные);

Архив знаний (cognition base) и память результатов (analysis)
arXiv
.

👍 Сильные стороны

Инновация: система одновременно креативна и технически целостна — от идеи до кода и эксперимента.

Масштабируемость: empirically подтверждён scaling‑law, переходящий от ручных усилий к вычислительной автономии.

Значимые результаты: 106 новых архитектур с качеством SOTA в тестах по языковым задачам и reasoning benchmarks.

Прозрачность: даже код, архитектуры и когнитивные логи открыты (open‑sourced).

Методология: хорошо продуманный pipeline с LLM-судьями, self‑debug loop и памятью.

⚠️ Слабые стороны и ограничения

Доминирование одного базиса (DeltaNet): поиск ведётся вокруг одной архитектуры, без первоначального разнообразия; потенциально ограничивает обширность инноваций
arXiv+1arXiv+1
.

Нет замеров эффективности: не предоставлены ускоренные реализации или latency-бенчмарки для новых архитектур (нет Triton‑kernels и конкретных метрик)
arXiv
.

Отсутствие аблаций: не изучено влияние каждого компонента фреймворка отдельно (например, важность cognition vs analysis vs originality)
arXiv
.

Ограничение домена: фокус на linear attention: полезно, но узко; перенос на другие типы архитектур (например, CNN, SSM, графовые модели) требует дальнейшей проверки.

💡 Вывод и рекомендация

Эта работа — серьёзный шаг к автоматизации исследований в ML. Она демонстрирует впервые, что архитектурные инновации могут быть сгенерированы полностью автономной системой и масштабированы как вычислительная функция. Это сравнимо с AlphaGo по своей парадигматической силе — развитие интеллектуального творчества от человека к машине.

Однако, чтобы стать индустриальным стандартом, необходимо расширение:

включение разнообразной инициализации (несколько базовых архитектур),

более тщательный разбор компонентов фреймворка (аблэйшины),

инженерное совершенствование (ускоренные реализации),

проверка на других классах архитектур.
Аноним 27/07/25 Вск 04:25:36 1289606 165
>>1289597
Она кстати опенсорсная. Опенсорсный самоулучшающийся ИИ, который пилит свои новые версии, как раз то что нам надо.
Аноним 27/07/25 Вск 04:29:05 1289607 166
Аноним 27/07/25 Вск 04:33:43 1289609 167
>>1289604
1. Автоматизация архитектурного дизайна

До сих пор архитектуры вроде Transformer, ResNet, LSTM и др. придумывались людьми. Теперь это может уйти в прошлое:

Архитекторы моделей (ML-исследователи) уступают место «ИИ-исследователям», которые сами разрабатывают, тестируют и улучшают архитектуры.

Возможна экспоненциальная генерация новых моделей, с ростом качества за счёт вычислений, а не команды учёных.

💡 Аналогия: как AutoML автоматизировал подбор гиперпараметров, ASI‑Arch автоматизирует весь процесс архитектурного R&D.
📈 2. Сдвиг в сторону compute-centric исследований

Главное открытие статьи — scaling law архитектурных открытий: количество полезных инноваций растёт линейно с количеством GPU-часов.

Это означает, что исследовательская деятельность может быть масштабируема так же, как тренировка моделей.

В будущем корпорации будут «вычислять» открытия, как сейчас они «вычисляют» языковые модели.

📉 Это может привести к снижению роли академических коллективов с ограниченными ресурсами, если они не будут использовать подобные инструменты.
🧠 3. Появление ИИ-систем, способных к мета-обучению и научному мышлению

У ASI‑Arch есть зачатки научного метода: генерация гипотез, реализация, эксперименты, анализ результатов, повторная формулировка.

Такие системы смогут создавать собственные теории, например:

"в каких условиях attention лучше SSM?",

"какие архитектурные блоки универсальны?",

и даже новые loss-функции или задачи.

Это открывает дорогу к саморазвивающемуся ИИ, способному не просто обучаться, но и изобретать.
🌐 4. Диверсификация архитектур

Благодаря количественному и качественному отбору, можно находить нестандартные, неформализованные решения.

Это даёт шанс на:

Новые типы архитектур вне Transformers;

Специализированные архитектуры под конкретные задачи (например, reasoning, vision, RL);

Архитектуры с лучшим отношением «качество/ресурсы» для edge-устройств.

🎲 Это может ускорить эволюцию архитектур так же, как GPT ускорил NLP.
🏭 5. Индустриализация R&D нейросетей

Вместо небольших лабораторий с идеями — инфраструктура с GPU и ИИ‑исследователем, работающим 24/7.

R&D превращается в потоковый процесс, с контролем качества, логами, архивами и автоматическими публикациями.

В этом контексте, человеческий исследователь становится менеджером или критиком, но не автором архитектуры.

⚙️ Возможно, через 2–3 года:

публикации с архитектурами будут почти всегда результатами ИИ‑поиска;

GitHub будет заполняться не написанным руками кодом, а сгенерированным R&D‑системами;

откроются «ИИ‑лаборатории» без людей, где ИИ изобретает ИИ.

🧭 Заключение: ИИ, создающий ИИ

Эта работа делает очень важный сдвиг: если раньше модель была лишь «учеником», то теперь ИИ становится научным работником, способным:

делать открытия,

формировать теории,

анализировать данные,

и предлагать новое лучшее решение.

Это не просто ускорение науки — это изменение её субъекта. Впереди: конкуренция между ИИ‑исследователями, коллективная научная работа между человеком и ИИ, и даже наука без людей.
Аноним 27/07/25 Вск 04:42:30 1289612 168
>>1289597
Ну наоптимизировали они агентами считанные проценты в какой-то бесполезной архитектуре, и что? Так же как и с японцами было, когда они сделали "эволюционирующую систему написания кода", которая работала, но что-то лучшее чем открытые аналоги курсора даже близко и не написала.
Аноним 27/07/25 Вск 04:50:07 1289613 169
>>1289597
Думал о такой штуке. На сколько я понимаю это ближе к "универсальной архитектуре" подходящей для любых задач, чем к тому самому моменту, когда нейронки будут улучшать сами себя, который мы ждем. Т.е. ты формируешь задачу, а агент ищет для нее оптимальную архитектуру. Правда я думал об этом в ином ключе, было бы идеально сделать именно универсальную архитектуру, у которой лосс всегда сходится вне заваисимости от датасета и обработки входных данных, без нормализации, токенизации и прочих хаков. Это был бы святой грааль машин лернинга.
Аноним 27/07/25 Вск 06:23:30 1289621 170
Органоидный инт[...].mp4 10261Кб, 720x1280, 00:01:13
720x1280
Аноним 27/07/25 Вск 06:24:53 1289623 171
photo2025-07-26[...].jpg 149Кб, 1280x1116
1280x1116
Learning without training: разбираем новую крайне интересную статью от Google

Смотрите, все мы знаем, что если модели в промпте показать несколько примеров решения похожих задач, то она может легко подхватить паттерн, и качество ответов станет лучше. При этом веса модели, естественно, не меняются.

Это называется in‑context learning (ICL), но вот вам fun fact: никто до сих пор до конца не знает, почему это работает, и как трансформер это делает.

И вот в этой статье авторы предлагают почти революционную гипотезу – что на самом деле веса меняются, просто иначе, чем мы привыкли.

То есть на самом деле внутри блока трансформера происходит нечто похожее на файнтюнинг, только не через градиенты, а за счёт самой механики self‑attention и MLP. Идея сводится к следующему:

1. Контекст порождает локальные изменения активаций, и когда вы добавляете примеры в промпт, self‑attention пересчитывает эмбеддинги токенов так, что после этого они зависят от всего контекста. Разницу между «чистыми» активациями и активациями с учётом примеров можно назвать контекстным сдвигом. Это все известные вещи.

2. А вот дальше зарыта собака: оказывается, MLP превращает этот контекстный сдвиг в ранг‑1 обновление весов. Иначе говоря, если посмотреть на первый линейный слой MLP (матрицу W), то влияние дополнительных примеров эквивалентно тому, что эту самую матрицу дополняют маленькой поправкой ранга1.

Причем эта поправка описывается достаточно простой формулой. То есть если мы берем оригинальные веса и вручную добавляем к ним эту поправку, модель без контекста выдаст то же самое, что и оригинал с контекстом. Но всё это происходит во время инференса, без обратного прохода и без изменения глобальных моделей параметров.

Получается, Google буквально дают ключ к возможному обучению без градиентного спуска. Если такие ранг‑1 апдейты научиться усиливать или контролировать, это может быть началом абсолютно новых архитектур.

Почитать полностью можно тут -> arxiv.org/abs/2507.16003
Аноним 27/07/25 Вск 06:25:13 1289624 172
Аноним 27/07/25 Вск 06:32:55 1289627 173
>>1289609
>>1289604
Блять, всё по Леопольду Ашенбреннеру, прям один в один. Пидорас оказался ебанным пророком, а ведь сколько ебанатов глумились над его эссе...
Аноним 27/07/25 Вск 06:35:36 1289629 174
777877878787877[...].mp4 7292Кб, 832x1160, 00:01:18
832x1160
Аноним 27/07/25 Вск 06:51:16 1289631 175
>>1289621
> осознающий себя ИИ.
Аноним 27/07/25 Вск 06:59:05 1289632 176
rapidsave.comte[...].mp4 38304Кб, 1920x1080, 00:01:24
1920x1080
Аноним 27/07/25 Вск 08:50:07 1289654 177
>>1289623
>Это называется in‑context learning (ICL), но вот вам fun fact: никто до сих пор до конца не знает, почему это работает, и как трансформер это делает.
Что за шизофрения. Промт добавляется к весам модели. Т.е. по факту веса меняются на весь промт.
Аноним 27/07/25 Вск 09:13:15 1289665 178
>>1289623
Это поэтому джайлбрейки работают? Там же даешь какой-то совершенно ебанутый промпт, веса смещаются.
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов