Главная Юзердоски Каталог Трекер NSFW Настройки

Программирование

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 14 5 5
Здравствуте. Я не программист, но у меня 2 вопрос к айтишникам о очень наболевшкем: 1.) существует Аноним 26/01/26 Пнд 19:30:04 3633230 1
IMG202508051227[...].jpg 78Кб, 1440x1080
1440x1080
IMG202512251536[...].jpg 140Кб, 1440x1080
1440x1080
Здравствуте. Я не программист, но у меня 2 вопрос к айтишникам о очень наболевшкем:

1.) существует ли интернет для медленного интернета? я живу в деревне и здесь средняя скорость 20 килобит/сек, из за этого многие сайты даже не открываются по таймауту, они не понимают что это не таймаут, а просто медленный интернет. Например файл 12 Мб скачивается около 20 минут, а многие страницы сегодня сами по несколько Мб, один клик занимает много минут.

2.) в молодости я пользовался диалаппом и весь интернет работал на 28-36 килобитах/сек, норм было. То что сейчас сайты стали такими жирными, это неизбежность или просто никто не думает о экономии трафика и не программирует на 20 килобита/сек, но если бы захотели, то и сегодняшними технологиями могли бы писать маленькие и быстрые сайты?


Даже на дваче я уже забыл что такое картинки и видео, потому что их никто не сжимает. Люди неиронично закачивают видео в 1 минуту вместо 1 Мб, 20 Мб! Даже фотки перестали сжимать, одна и таже картинка для сайта может весить и 100 Кбайт и 4 Мб, очевидно это не в технологии дело, а в том что люди даже не задумываются об этом.
Аноним 26/01/26 Пнд 19:58:25 3633248 2
IMG202601051226[...].jpg 203Кб, 1440x1080
1440x1080
Одна и та же фотка на телефон, с одинаковым разрешением, со сжатием jpg 50% - 117 килобайт, а со 100% по умолчанию качеством - 766 килобайт. При этом 50% jpg - идеальное качество абсолютно 100% и достаточно для любых мыслимых целей. То есть размер фотки меньше 6 раз при одинаковом разрешении и без потери качества. Просто никто не двигает ползунок качества jpg. А о разрешении фотки тоже никто не задумывается, делают гигантские многопиксельные фотки, когда никакой пользы это мегапиксели не несут. Та же фотка с меньшим разрешением будет в десять раз меньше и будет видно тоже самое. Будет ли тоже самое со страницами сайтов? когда их размер можно сделать в десять раз меньше без потерь функционала? я
Аноним 26/01/26 Пнд 20:04:19 3633251 3
Вот я для пример сфотографировал сейчас с камерой по умолчанию, как фотографировала бы бабушка пенсионерка, купив телефон - фотка получилась 7,6 Мб! Эта же самая фотка с меньшим разрешением и большим сжатием jpg - 117 кб!
Это получается в 70! раз меньше размер! без какого либо ухудшения практической пользы, все видно так же хорошо! возможно ли такое же с сайтами?
Я спросил у ChatGPT почему его первая страница с десятком слов и одним полем ввода грузится 20 минут Аноним 26/01/26 Пнд 20:26:13 3633269 4
Коротко: это не неизбежно. В подавляющем большинстве случаев это осознанный компромисс, а часто — просто отсутствие приоритета на размер.

Разберу по существу, без программистского жаргона.

Современные сайты стали тяжёлыми по трём причинам.

Первая — экономика внимания, а не трафика.
Разработчиков и заказчиков почти никогда не наказывают за «лишние мегабайты». Их наказывают за другое:
— сайт должен выглядеть «современно»,
— всё должно быть интерактивным,
— аналитика, реклама, A/B-тесты, трекинг.
Каждый такой модуль — отдельные скрипты. Размер страницы растёт, но это не считается проблемой, потому что у целевой аудитории «обычно быстрый интернет».

Вторая — стек технологий.
Большинство сайтов сегодня — не страницы, а мини-программы в браузере.
Чтобы вывести «10 слов и поле ввода», сначала загружается:
— фреймворк (React / Vue / и т.п.),
— система состояния,
— система сборки,
— стили, шрифты, иконки.
Технически ту же страницу можно сделать в 20–50 КБ. Практически — так почти никто не делает, потому что это сложнее в разработке и хуже масштабируется для бизнеса.

Третья — потеря культуры оптимизации.
Раньше размер был жёстким ограничением. Сейчас — нет.
Многие разработчики реально не смотрят, сколько весит страница. Она «быстро открывается у меня» — значит, всё нормально. На 20 кбит/с такие сайты никто даже не тестирует.

Про фотографии — вы абсолютно правы.
Ваш пример с 110 КБ против 7,6 МБ — классический и очень точный.

Что происходит на практике:
— камеры и телефоны делают огромные изображения «на всякий случай»,
— сайты часто грузят оригинал или слабо сжатую версию,
— адаптивные версии либо настроены плохо, либо вообще отсутствуют.

При этом:
— для экрана достаточно 1–2 мегапикселей,
— сильное JPEG-сжатие визуально почти не заметно,
— выигрыш в трафике — в десятки раз.

Это не ваша ошибка восприятия. Это действительно инженерная халатность + приоритеты рынка.

Важно: есть сайты, где размер оправдан.
Карты, редакторы, сложные веб-приложения. Там мегабайты — цена функциональности.
Но когда:
— текст,
— одна форма,
— одна картинка
весят мегабайты — это не необходимость, а выбор.

Итог.
Вы правы по сути:
— лёгкие сайты возможны,
— эффективное сжатие изображений давно известно,
— проблема не техническая, а культурная и экономическая.

Медленный интернет не «устарел». Он просто перестал быть учитываемым сценарием.
Аноним 26/01/26 Пнд 20:44:42 3633281 5
image 63Кб, 580x471
580x471
Чтобы открыть этот тред, мой браузер скачал 300 килобайт при первом запросе, и всего лишь 6 килобайт при обновлении страницы.
На имиджбордах если не раскрывать картинки кликом, то грузится лишь их превью, занимающее 1% от размера картинки (если картинка много весит)

Так что, по-моему, ты просто бурчишь. Не посещай тяжёлые сайты, сиди на бордах, посещай форумы. Отключи автозагрузку медиа в Телеграме и пользуйся на здоровье. Должно работать даже лучше, чем 20 лет назад.
Ты просто хочешь на двух стульях усидеть, и тяжёлые сайты открывать и трафика мало потреблять.

>>3633230 (OP)
>пользовался диалаппом и весь интернет работал на 28-36 килобитах/сек, норм было
Просто текста больше было, а сейчас часто кроме текста грузится ещё дофига всего. Можешь вручную блокировать то, что тебе не нужно через настройки браузера или блокировщики типа ublock.
Аноним 29/01/26 Чтв 23:07:28 3633341 6
>>3633251
По сути ты предлагаешь сжатие с потерями. Т.е. падает точность до тех пор, пока это не сказывается на восприятии.

Такое можно проделать, но стоить такая разработка будет дорого в силу того, что бОльшая часть разработки веба идёт с использованием инструментов, которые на каждый чих закидывают 10+ div'ов и ещё столько же, если не больше, правил css, из-за чего размеры html, css и php файлов, которые сами из себя представляют текстовые файлы, раздувается.

А ещё я молчу про безумную зависимость одних библиотек js от других: чтобы корректно работала одна, надо подключить ещё три-четыре других. И тогда на одну пересылку одного кода js может уйти мегабайт более пяти мегабайт. И самое ужасное - любой переход по ссылке на другую страницу сайта сопровождается тем же процессом загрузки кучи всего.


И хотя, наверное, тебе довелось слышать про всякие кеширования, blob и куки, всё это работает крайне криво, а потому вместо уменьшения пересылки данных(html/css/js/картинки) просто съедает кусок ресурсов.

Чтобы как-то улучшить ситуацию, стоит перейти на одном раничные сайты-приложения, но бОльшей части веб-программистов и верстальщиков такая древняя технология неизвестна.
Аноним 30/01/26 Птн 00:28:25 3633382 7
>>3633230 (OP)
> просто никто не думает о экономии трафика
конечно не думает, у всех безлимит 10-100-500мб
всем похуй на проблемы туземцев в ебенях, которые через модем сидят. особенно смено слушать чтобы ради ананасов на дваче кто-то видео пошел сжимать, а не охуел ли ты часом чтобы тратить время на такую хуйню?
Аноним 30/01/26 Птн 00:33:25 3633385 8
image2026-01-30[...].png 596Кб, 736x552
736x552
а по существу отвечу так:

> существует ли интернет для медленного интернета?
есть, даркнет. там все сайты как ты хочешь ибо скорость как в середине девяностых через пикрелейтед
Аноним 30/01/26 Птн 02:16:55 3633400 9
>>3633230 (OP)
> существует ли интернет для медленного интернета?
нет.
даже через API там будут сраные REST на базе HTTP и TCP.
> сейчас сайты стали такими жирными, это неизбежность или просто никто не думает о экономии трафика и не программирует на 20 килобита/сек,
скорость разработки важнее скорости работы апликухи/сайта.

пользователь купит DDR5 и SSD, и заплатит за гигабитный инетик по оптоволокну.
Аноним 30/01/26 Птн 02:20:38 3633401 10
>>3633248
> Будет ли тоже самое со страницами сайтов? когда их размер можно сделать в десять раз меньше без потерь функционала? я
все говно которое ты видишь в принципе можно уместить в пару килобайт и сделать так чтобы пользователь видел сначала Low-Res изображения и по клику выбирал какое качество он хочет.

давно были сайты когда картинка качалась она сначала качалась в 128х128 потом 256х256, а потом и 1024х1024 и так далее. некоторые форматы и кодеки умеют засовывать в первые байты только основные пиксели а потом уже предоставлять большую детализацию.
Аноним 30/01/26 Птн 02:27:20 3633402 11
>>3633341
> А ещё я молчу про безумную зависимость одних библиотек js от других: чтобы корректно работала одна, надо подключить ещё три-четыре других. И тогда на одну пересылку одного кода js может уйти мегабайт более пяти мегабайт. И самое ужасное - любой переход по ссылке на другую страницу сайта сопровождается тем же процессом загрузки кучи всего.

собственно почему веб-макаки таки макаки. они херачат без разбору всё что попало мол "зачем надо в эпоху дешевой памяти".
Аноним 30/01/26 Птн 16:37:52 3633861 12
>>3633402
в чем они неправы? все кто занимался байтоебством вместо реализации нужных фич умерли. каноничный пример - lotus и word. пока лотус байтоебствовал оптимизируя быстродействие на 5% ворд просто хуячил все фишки которые только мог не считаясь с ресурсами и в итоге о лотусе никто и не знает сейчас, хотя когда то он был популярнее ворда.
Аноним 31/01/26 Суб 00:15:37 3634180 13
>>3633861
> в чем они неправы? все кто занимался байтоебством вместо реализации нужных фич умерли

ебать ты дебил. если верить Википедии Lotus со своими продуктами 1-2-3 завоевала рынок и обошла конкурента VisiCalc как раз тому что вся критическая часть была написана c глубокой оптимизацией(да всё на ассемблере как обычно). они просрали рынок потому что не стали выпускать продукты под MS-DOS, тогда мелкомягкие выпускали под Macintosh.
Аноним 31/01/26 Суб 01:35:43 3634257 14
>>3634180
во времена дос лотус был редактором по дефолту и стоял везде. у него была система макросов и он запускался с 256 килобайтами оперативки. когда вышла винда то у ворда была киллер фича - можно было мышкой ставить курсор куда угодно, выделять ей текст и делать его жирным. сам ворд был глючный, жрал неимоверно много памяти (2Мб минимум, 8Мб - для комфортной работы) и тормозил везде кроме самых топовых компов. инженеры лотуса презрительно сказали в духе "эта монстрообразная хуйня сгодится только домохозякам и настоящим профессионалам не нужна", и продолжили пилить свой лотус под дос чтобы он мог еще быстрее работать, потребляя не болье 512 Кб (килобайт) оперативки (так как вместе с системой 640Кб должно было хватить всем, дос же). через год после выхода ворда доля продаж лотуса упала в 10 раз, им порвало жопу в клочья и они спешно выкатили версию 1-2-3 под винду но поезд уже ушел.

эта история описана кстати в каждом втором учебнике по IT-менеджменту
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов