Асинхронный Python-код медленнее обычного кода! Ааа!!1один. Aiohttp VS синхронные фреймворки
Vložit
- čas přidán 12. 07. 2024
- Мой курс «Хардкорная веб-разработка» - course.to.digital
Книжный клуб Ботаним!, где мы читаем хорошие ИТ-книги: botanim.to.digital/
Telegram: t0digital.t.me
Сказать спасибо за это видео можно здесь - boosty.to/digitalize.team
А точно ли вообще асинхронность в питоне нам нужна? Есть мнение, что старые добрые синхронные веб-фреймворки на Python таки работают быстрее и надёжнее. Давайте проверять!
Две упоминаемые статьи:
habr.com/ru/post/440282/
habr.com/ru/company/ruvds/blo...
0:00 Популярные тесты производительности Python веб-фреймворков
3:49 Разворачиваем проект под тесты
6:39 Запуск тестов Aiohttp
9:05 Запуск тестов Meinheld с Falcon
10:40 Aiohttp сливает, асинхронность отстой:(
11:22 Или нет?
12:02 Изменим тесты и проведём их снова
14:38 Ёлочки-палочки, что происходит? Почему?
17:15 Мультипроцессинг, мультипоточность, асинхронность - когда что использовать?
/****************** about ******************/
Меня зовут Алексей Голобурдин, я программирую с 2004 года и на этом канале делюсь своим опытом. Я основатель и руководитель компаний:
- Диджитализируй digitalize.team, разрабатываем сложные IT системы для бизнеса;
- Salesbeat salesbeat.pro, комплексный модуль доставки для интернет магазинов.
Если у вас есть проект на разработку, пишите нам на hi@digitalize.team.
С другими предложениями, а также если вам нужна одна или несколько индивидуальных консультаций/уроков по разработке (3000 руб/час), пишите мне на alexey@salesbeat.pro.
Telegram канал - t.me/t0digital
ВК - digitalize.team
RuTube - rutube.ru/channel/24802975/ab...
Дзен - dzen.ru/id/6235d32cb64df01e6e...
Мой курс «Хардкорная веб-разработка» - course.to.digital
Вжух!
Вспомнился прекрасный ответ со stackoverflow:
if io_bound:
if io_very_slow:
print("Use Asyncio")
else:
print("Use Threads")
else:
print("Multi Processing")
Да!
что за выравнивание самовольное не по пепу ? :D :atata
Я бы написал "Use threads OR asyncio if you are used to", при относительно быстром IO можно и async использовать, если вам привычнее.
Да и вообще, в клиент-серверных приложениях в современном контексте async должен быть по умолчанию.
@@karlzinher4181 Почему не по пепу?
@@ziminf1997 не заморачивайтесь :) визуально три пробела показывает %) а по факту 4ре))) верстка в хроме зачетная тут
Поигрался с этими тестами и обнаружил, что выдаваемые ими RPS прямо пропорциональны доступному количеству соединений с БД.
В тестах для синхронных фреймворков используется пул psycopg2, но в них он абсолютно бесполезен. Каждый воркер будет использовать лишь одно соединение из пула: взял соединение, выполнял запрос, вернул соединение в пул. Т.о. получается потолок для синхронных фреймворков: 12 воркеров * 1 соединение * 5 запросов в секунду (по 0.2) = 60 rps.
С асинхронными фреймворками ситуация иная. После того, как воркер взял соединение из пула и отправил в него запрос он не ждёт ответ из БД, а берет второе соединение, третье и т.д., пока не загрузит весь свой пул работой. По умолчанию, максимальный размер пула aiopg составляет 10 соединений. Итог: для асинхронных соединений потолок в этих тестах составляет: 12 воркеров * 10 соединений * 5 запросов в секунду (по 0.2) = 600 rps.
В свете этого, цифры, показанные тестами, не значат ничего конкретного, т.к. получены в разных условиях. Зато они отлично отражают подход. Ради смеха, я решил сравнять количество доступных соединений к БД для двух фреймворков. Для асинхронного Sanic я использовал 4 воркера, то есть 40 соединений. Для Flask пришлось создать 40 воркеров =)
В обоих кейсах я получил ожидаемые 200rps. Но какой ценой! 40 процессов для Flask стоили мне в сумме 900Mb памяти. А 4 процесса Sanic - 90Mb.
Тоже самое хотел написать, просто нужно в синхрон добавить воркеров и можно получить такой же результат.
Прекрасный анализ. Спасибо
То есть получается из-за того, что сипитон однопоточный, поэтому синх использует только один тред в воркере… или нет? Я не питонист…
Очень здорово придумал подачу. Поставлена задача и все ручками решается прямо при зрителе. На мой взгляд очень полезно, особенно начинающим.
Спасибо! Рад, что полезно!
Это что получается. Опять нужно головой думать исходя из задачи вместо того, чтобы использовать "самый быстрый фреймворк". Во дела...
И использовать языки для нужных задач. Во дела))
Согласен))
А то получается, словно унитаз вилкой чистить)))
Ага. Неприятная ситуация для тех, кто пишет свои проекты бездумной копипастой с гугла...
Смотрите ХАудихо там все ответы на вопросы!
или сменить платформу на Elixir/Phoenix, тогда точно придётся думать -- в языке нет циклов 8)
но того стоит - полноценная многозадачка, а nginx перед ним _мешает_ работать
@@user-eg8li6no4u класс
Ой, вот прям в нужное время.. Вот как раз таких крутых видео не хватает. А то везде видео с маркетинговыми заголовками, а здесь всё круто и по делу.
Спасибо за контент! Продолжайте в том же духе.
Твои ролики это топ)они странным образом побуждают после просмотра разобраться самому и углубиться в тему ролика!Это по настоящему прекрасно, спасибо тебе.
Спасибо! Эта самая правильная реакция:)!
Разрушители мифов в мире IT.
Классная демонстрация! Спасибо!
Спасибо за труд! Смотрю с удовольствием.
11:00 - 11:20
Сыграно АГОООНЬ! Аж слёзка подкатила! ))
Классный канал!
Спасибо за видео!
Очень информативно
Пришёл не по уведомлению, а по зову сердца
Спасибо за топ контент!
спасибооо!
@@t0digital Привет, в видео по типу прошлого, про многопоточность, мне кажется было бы лучше вставлять картинки для большего понимания, подобные темы легче воспринимать с помощью изображений. Успехов)
@@user-mh6dz7bd8o да, согласен. Дорасту до монтажера, видосы вообще станут вкусняшкой:)
Лайк за хорошие рекомендации!
На синхронном сервере при 12 воркерах и 200 мс теоретический предел - 60 рпс. Чтобы выжать из него больше, надо поднимать число воркеров
Крутое видео!) Приятно было услышать корректность и адекватность выполнения тестов, ведь у каждой задачи свои требования и ограничения как программные так и аппаратные. Нельзя провести один, два теста и сказать кто лучше справляется. Ведь тест отражает только один маленький частный случай из всего многообразия возможных вариантов.
Это видео было полезным, как и другие
Алексей - молодец!
Классное видео. Спасибо!
Очень грамотный и доходчивый контент.
спасибо!
Очень полезно и доходчиво! Спасибо, буду иметь ввиду.
💪💪💪
На многих ресурсах видел перевод статьи про асинхронность. Спасибо за разбор!
Рад, что полезно!
Круто! Спасибо!
Классное видео, спасибо
Интересно, спасибо!
Спасибо!
Спасибо за видео!
спасибо за подробный разбор
Лёха все супер, продолжай радовать котанов
мяу 😻
Чувак жги, всегда лайк))
спасибооо!
Алексей, продолжай, я на твоих видео такими темпами стану Мидлом!)
В очередной раз спасибо Вам, Алексей! Ну а я все еще в комнате ожидания DRF😂
однажды будет и DRF
Диджитализируй! Раз пошла пляска (великолепная кстати) с асинхронном, можно скомбинировать темы и заменить дрф на ФастАпи
Очень интерестно :)
Круто! Ума нет считай - тормоз во всем!!!!! Видео очень полезно понравилось
Офигенно 👍
Очень полезно!!!
Отличная работа!
спасибо!
Очень интересное и полезное видео! Буду ждать еще подобных видео!) И есть просьба, если возможно, пожалуйста объясняй, кратко, всякие термины, которые могут быть кому-то не известно)) Я например не знаю что такое трейды( Я понимаю что есть гугл, но просто отвлекаться что бы найти и понять каждый термин как-то не очень)
в прошлом видео как раз было о том, что такое треды, процессы, асинхронность, основные термины
@@t0digital а, оу, я его смотрел, но успел забыть) Спасибо!
Уф, заметил, что не все твои видео со своих трех акков лайкнул, а не, показалось. Лайкнул каждое по три раза..)
Йеее:) Спасибо! 💪
Спасибо, очень интересно и полезно.
Было бы интересно увидеть тест с участием asyncpg вместо aiopg.
Также интересно, как правильно профилировать приложения, чтобы понимать, на что уходит больше всего процессорного времени: на ввод-вывод, либо на вычисления, и сколько на что из этого уходит.
Спасибо!
Было бы интересно послушать про event loop от вас
У тебя такто все темы интересные ))
Спасиб:) будем продолжать
как нельзя кстати
сейчас стоит задача как то ускорить процесс отправки запросов к смтп серверу, а то после 30-ого скорость растет будто по факториалу, и тут контент..
годнота!
Спасибо за материал! Интересно посмотреть меняется ли ситуация при использовании микросервисов в докере. И скейлинг горизонтальный. Что лучше поместить в этом случае в докер, aio или стандартпый фреймворк. Для увеличения показателей qps.
Шикарный момент на, 11:10! :)
спасибо
Спасибо
Это слишком очевидно, логично, что при синхронном выполнении эти 200мс будут суммироваться с временем выполнения
А в ассинхронном - эти 200мм будут раскидываться на количество потоков
Я вот тоже не понял. А нельзя было реальные запросы потестить(?)
Хорошо что досмотрел а то уже расстроился.
А можно видео про то чем отличается многопроцессинг, многопоточность и асинхронность?
С примерами на Python
Мхатовская пауза в середине очень понравилась! Аж сердце замерло, неужели думаю,... и в самом деле... асинхронный Питон полный отстой... Ан нет! Живём-с :)
Досмотрел видео до конца. Да, aiohttp работает хорошо когда доставили sleep, но заметьте что wrk на aiohttp возвращает 59 респонсов не с 200-300 статус кодами. Поэтому он показал цифры быстрее конечно, но при этом респонсы некоторые были невалидные вообще.
17:45 мне кажется это свойственно не только питону, это в общем так работает
Асинхрон же придумали именно для IO-нагруженных задач, естественно, в них и надо тестировать и сравнивать
(мелким шрифтом: формально, есть асинхронные операции и для CPU-нагруженных задач, см. C#, но мы же знаем, что многопоточность и CPU-нагруженные задачи - это не про Python).
Упс, написал до того, как просмотрел до 16:20 и тем более 17:58. Да, просто полностью согласен
Красавчик
Мораль - доверяй (статьям), но проверяй
так и есть
Спасибо за видео. А чем записываете экран когда пишете код, чтобы было прозрачно?
Просто режим наложения слоя скринкаста какой-то в монтажке
Спасибо, как раз вовремя!
P.S. На столе PocketBook 740?
Он самый:)
@@t0digital Хе-Хе, долго искал эту обложку под принт на домах у нас у Бутово, узнал :))
@@prepyev а что за принт на домах у Бутово?
@@t0digital Чет мне как-то показалось, видосы канала из офиса в БЦ "Лотос", вот и подумал может соседи. А принт вот этот etaloncity.ru/about/news/3238/ Кацусики Хокусая
@@prepyev о, не видел это принт на зданиях. Мне нравится эта картина, кайфовая. Видосы из Лотоса, да:)
Хотелось бы посмотреть по ASGI и WSGI в джанге.
Планирую такой материал
Как всегда спаcибо за видео! Небольшой оффтоп вопрос - не страшно запускать код какого-то постороннего чувака под своим юзером? У меня обычно для этого заготовлена песочница на firejail. Это нормальное решение или паранойя?)
ну в целом паранойя лишней не бывает:)
Всегда стоит учитывать время разработки / дебага / поддержки кода, не скажу новость, но асинхронный код в разы сложнее писать / дебажить / тестировать. Если у вас большая нагрузка то кажется вообще проще от питона отказаться в пользу других языков, ибо проблем с asyncio очень много, синхронный питон имеет свою нишу в которой он правда лучший для задач, а вот какую нишу занимает async python и чем он лучше аналогов не понятно, кажется на нем сейчас пишут просто по привычке
Я думаю, что даже в примере, когда запрос долгий, можно сказать, что синхронный ВОЗМОЖНО будет быстрее. Стоит различить две ситуации: когда база данных находится на той же машине, что и сервис, и когда они разделены. Показанный пример - это пример, когда они разделены (запрос в бд не нагружает железо сервиса). Но если запрос в бд будет активно нагружать железо сервиса, асинхронные фреймворки не будут уже так себя комфортно чувствовать. Хотя много зависит от запроса: он может быть на чтение большого кол-во данных, а может на построение новой сложной структуры...
Все вроде бы так, да есть один нюанс. Вы бы количество воркеров во тором тесте для синхронного кода раз в 10 увеличили бы. Глядишь результат интересней мог получился.
Очень захотелось увидеть результат Django на sleep 0,2
1. Я как понял форк запускает несколько скриптов, т.е. подымает несколько серверов и каждому по очереди скармливает http даннные запросы.. если так, то запусти на синхроно, 100 форков и посмотри что будет. т.е. пока там 200мс простаивает, другие скрипты же могут выполнятся..
2. Когда идет синхроная обработка, то и запросы в БД идут синхроно, а значит БД не загружена, и будет выполнятся по той скорости как будто 12 запросов в БД одновременно, что снижает нагрузку на процессор и будет быстрее выполнятся.. как в асинхроности это может быть 1000 запросов к БД, что реально будет делать 200мс...
Все выше доводы говорят о том, что тесты не 100% верны. Еслиб вы написали реально реализацию с БД, где от одного запроса идет выполнения скрипта 200мс, хотябы просто селект без индексов, тогда бы тесты былибы адекватными. А пока первый вариант где синхроность выглядит более реалистично, посути на реальном примере, пускай и банальном.. т.е. если у когото такой банальный пример, простой чат-бот, то синхроность как я понял лучший вариант.
Там слишком много неизвестных. Где находится база данных (на том же компьютере или нет) и как реализована задержка в селекте, где расположен источник запросов... От этого зависит распределение нагрузки по ядрам. И почему именно 10 или 12 ? По числу ядер надо создавать (и клиента в том числе). Потому как увеличение количества процессов более количества ядер приведет лишь к увеличению накладных расходов на переключение и снижению быстродействия. А поскольку в асинхронном режиме нет переключения потоков, то и лишних затрат на переключение контекста нет, но это абсолютно не значит, что асинхронное быстрее. Надо выяснять реализацию, как построены фреймворки.... без этого это "гадание на кофейной гуще".
@@user-md3nz9hy8z да ты прав.
🔥
Агонь.
спасибо
Здравствуйте! А что вы можете сказать про asgi в django? Это ведь связано с асинхронностью, может это выход для данного фреймворка?
Джанго ведёт работу над переводом в асинхронность, но я не думаю, что в обозримом будущем джанго сможет стать полностью асинхронным и что вообще хочет этого
Правильнее тестировать/измерять на реальном проекте, как есть. А синтетические тесты - как дополнение, на всякий случай (граничные случаи).
Пушка
В доках на aiohttp указывают, что гуникорн работает медленнее других решений. Интересно было бы увидеть тесты на это.
slightly, как они говорят. Без гуника настраивается - nginx и systemd, который стартует несколько процессов с aiohttp
@@t0digital Насколько будет лучше если Gunicorn запустить через aiohttp.GunicornUVLoopWebWorker, а aiopg заменить на asyncpg? )
Давно думал: как можно организовать код на Джанге, используя чистую архитектуру?
интересно-интересно, но, там же щас джанго асинхронный клепают, будет какое видео обсуждение об этом? или еще сами не пробывали тыкать туда?
Будет видео, но пока рано говорить об асинхронном джанго, и не факт, что когда-то об этом можно будет говорить полноценно
Здравствуйте! У меня вопрос немного не по теме . Тут пару месяцев назад Гарвард выпустил новый курс бесплатный CS50 посвящённый веб-разаработке на JS и Python. Хотелось бы услышать ваше мнение об этом курсе.
Здравствуйте, не видел не проходил, но спасибо, что написали, возможно познакомлюсь
CS50 - это курс по Си. Дно, а не курс. Там подача такая, что до циклов добрались только на 5й лекции.
И там уже от курса осталась треть сонного зала.
czcams.com/video/SW_UCzFO7X0/video.html
Non-2xx or 3xx responses: 59 - для теста с aiohttp и эмуляцией запроса в базу 200 ms. Получается, что из 100 запросов с 200 статусом вернулся ответ для 41 запроса. Я правильно понимаю?
Чисто мне было бы интереснее про юнит тестинг в питоне. Ибо нагруженные сервера никто на питоне не будет делать, для этого вон есть Go, Java, C# и другие с рутинами и корутинами...
Коммент. Тнеммок. Продвигаем.
Слушал обсуждение этого поста в подкасте Радио-Т (кстати, заметь). Они там не особо хвалили aiopg. Говорили, что asyncpg дал бы результаты лучше
Да, возможно, опять же надо тестить
Читал эту статью сразу после выхода на хабре, очень смешно было, когда чел тестит без какой-либо бизнес логики
17:57 А как же asyncqt?
Например у меня в синхронном qt может подвисать интерфейс при выполнении какой-то задачи кнопкой и конечно я могу обойтись тредами и многопроцессорностью, но в некоторых задачах(даже не связанных с сетью) асинхронность сильно экономит ресурсы и работает лучше, но тут уже всё зависит от конкретной задачи
Комментарий для продвижения!
Спасибо 💪
Диджитализируй! Уважаемый Алексей, с особым интересом смотрю все Ваши учебные видео-уроки и уже узнал очень много нового, за что Вам огромное человеческое спасибо! У меня есть вопрос касаемо вынесения бизнес-логики из вьюшек. Вы всё время твердите, что бизнес-логику нужно выносить в сервисы, например, с чем я очень хочу согласиться, но что делать, если вьюшки основаны на классах, а не на функциях (как во всех рассматриваемых Вами примерах)? Неужели такие методы, как get_queryset, get_context_data выкидываются? Как поступать в такой ситуации? Заранее благодарю за ответ!
P.s. для примера вот такой метод:
def get_queryset(self):
return Movie.objects.all()
это, мягко говоря, странно выглядит, но в рамках примера - выносите в сервисы функцию
def get_all_movies():
return Movie.objects.all()
которую используйте в методах вьюхи и/или любого другого класса
@@user-rh3ji8xf5l спасибо, но почему это странный вопрос? Обычный метод get_queryset.
Значит, в этом методе мне нужно возвращать метод из вашего примера?
def get_queryset(self):
return get_all_movies()
@@FRA1T вопрос не странный. в рамках примера странно (на мой взгляд) выносить что то совсем элементарное, в отдельные функции/сервисы. При наличии какой то логики (хотя бы фильтрация) - да, это имеет смысл. А так да, вы все правильно поняли, в get_queryset возвращаете вызов метода, который вынесли в services
@@user-rh3ji8xf5l благодарю за ответ, теперь чувствую себя лучше от знаний!
Огромное спасибо за разъяснение!!! Ох уж эти холивары: придумывают синтетический тест, никак не соотносящийся с реальностью, получают какие-то результаты, не анализируют, а просто возводят в абсолют, и потом орут на весь мир, что это - гамно и это - гамно и мнение хрен оспоришь ! 😪
14:55 ихиххихи
есть такой стек Eixir/Phoenix (язык поверх Эрланг-машины, лучшая многозадачность из всех языков) -- который специально был сделан авторами на замену Ruby/Rails
можете по собственному опыту сравнить впечатления?
самый известный тул, написанный на Эрланг -- это RabbitMQ, известный своей эффективностью в проде
Очень интересно смотреть такие годные вещи от человека который хайпил на том что jQuery устарел. Этим Вы и уникальны. Видео топ! ))
jquery умер
@@cyberpoet Блин, прикинь я его только вчера видел... Живее всех живых.
@@garrygaller2853 прямо как Ленин в мавзолее )
@@cyberpoet Ну Ленин, положим, просто лежит. А JQuery работает. Причем в твоем браузере, когда ты, например, поисковик открываешь. Так что рано ты старичка похоронил. Он еще и тебя переживет...
@@garrygaller2853 это в каком же таком поисковике его используют? Кажись, только на говносайтиках остался.
Если в вашей конторе пишут в 2020 на jquery и ничего не слышали ни про react, ни про angular, ни про vue или другие современные фреймворки, я вам глубоко сочувствую, но это ещё ни о чём говорит.
Но когда-нибудь вы повзрослеете и научитесь писать код, а не эту вермишель, надеюсь!
В реальности, из 100 запросов 80 будут простыми. Поэтому использовать aiohttp нужно только там, где это действительно(!) нужно.
да. надо комбинировать. Некоторые запросы типа insert delete на которых работа с БД заканчивается и ответ от них не важен, можно кидать в асинхроность. Также отпавка сообщения в телеграм тоже в асинхроность.
Если я правильно понимаю, то асинхронность - это та же самая синхронность, но в которой действия выполняются не по прямому порядку, а согласно условно расставленым приоритетам, в результате которых некоторые действия ожидают своей очереди выполнения по заданным условиям.
Если это так, то понятно, по каким причинам может быть мнение, что асинхронность работает медленнее, чем синхронность.
Алексей - молоток!
Однако, хотелось бы услышать еще объяснение "почему так".
Попробую объяснить, как сам понимаю и почему считаю, что утверждение "асинхроный код работает быстрее" - это миф.
Допускаю, что у моего объяснения много допущений и неточностей, тем не менее.
Процессор - один, полезную нагрузку, которую надо посчитать - одна и та же.
Тогда с какой стати задача будет решена быстрее, если ее решать "поперек", а не "вдоль"?
Т.е. одна задача в принципе асинхронно не может быть решена быстрее чем синхронно.
Тогда почему говорят, что асинхронно можно решать быстрее?
Так говорят про поток задач. Асинхронное выполнение позволяет "пропустить"
через процессор больше задач в единицу времени.
Всегда? Нет.
Если задачи завязаны на процессор - нет, не позволяет.
А если на ввод/вывод - теоретически - да.
Если мы сразу запустим N задач - каждая из которых будет ждать ввода-вывода, то N задач
могут выполниться параллельно быстрее, чем если их решать последовательно одну за другой.
А какими способами можно запустить параллельное решение задач?
- процессы
- треды
- event-loop с epoll (async await)
Разница между ними в накладных расходах (и удобстве программирования).
В двух первых из них за переключением между задачами следит ОС.
Она же гарантирует, что каждой задаче будет уделено какое-то время.
В последнем - за переключением следите вы сами, организуя свое приложение.
А можно ли не использовать async await, но устроить event-loop?
Можно, например, используя greenlet'ы greenlet.readthedocs.io/
Какие накладные расходы?
Запуск нового процесса это всегда:
а) накладные расходы на память
б) дополнительные (и не дешевые) системные вызовы.
в) межпроцессное взаимодействие (передача задания и результатов)
Треды чуть "легче"" и память разделяемая, но со своими "удобствами",
например, в Python'е их сложно принудительно остановить снаружи (не из самого треда).
Event-loop'ы самые "дешевые", но достаточно сложные в организации кода.
Кроме всего прочего, еще нужно иметь ввиду GIL (Global Interpreter Lock),
который не позволяет нескольким threads работать одновременно в Python.
Касательно тестов, которые провел Алексей.
У нас все запросы "одинаковые": запрос - пауза 200 мс - ответ.
Async-await работает прекрасно и на одном ядре CPU можно выполнить хоть 10000 таких запросов в секунду.
Т.е. каждый запрос потребляют 0.0001 CPU. Latency этих запросов будет ~200 мс (ожидание ввода-вывода).
Теперь, представим себе, что каждому 100-у запросу требуется CPU на 2 секунды.
Т.е. мы ожидаем что в среднем теперь требуется ~0.02 CPU.
И мы можем ожидать выполнения ~50 запросов в секунду.
Попробуем взглянуть, что произойдет с обработкой этих запросов в действительности.
Первые 50 запросов, пришедших в первую секунду отдадутся через 200 мс, каждый.
Вторый 50 запросов, пришедших во вторую секунду отдадутся через 200 мс, каждый,
за исключением последнего, которые отдастся через 2 секунды.
Третьи 50 запросов, пришедших в третью секунду отдадутся через 2 секунды, каждый,
т.к. им придется ждать, пока 100-й запрос отдастся, а потом они смогут вернуть свой результат.
Четвертые 50 запросов, пришедших в четвертую секунду отдадутся через 2 секунды, каждый,
т.к. им тоже придется ждать, пока отработает 100-й запрос, А 200-й запрос задержится на 2 секунды.
Все запросы за исключением первых 99 будут отдаваться теперь за 2 секунды вместо 200 мсек.
Т.е. казалось бы async-await должен "помочь", но вместо этого, он "выравнивает" latency по самому медленному (запросу)
(Строго говоря, если запросы приходят равномерно, то первые из 100 будут ждать 2 секунды,
а последние всего около 200 мсек, т.е. в среднем все же меньше чем 2 секунды)
Выводы:
Я не к тому, что нельзя использовать async-await, но к тому, что написание таких обработчиков
требует особой внимательности - ни один из них не должен быть CPU-bound - иначе все усилия
могут потрачены впустую.
Так надо использовать async-await? Не попробуешь - не узнаешь.
Но если у вас разнообразные обработчики, то как минимум нужно CPU-bound обработчики
искусственно прерывать, давая возможность "пропустить" IO-bound вперед.
Это, в свою очередь не увеличивает читаемость кода.
Вот пару видео от python-хакера David'а Beazley - будут полезны:
czcams.com/video/Obt-vMVdM8s/video.html
czcams.com/video/xOyJiN3yGfU/video.html
17:12 - синхронные*
С I\o bound нужно юзать не трединг, мультипроцессинг, потому что треды лочатся в таких задачах из-за GIL
Да
Мне кажется, этот тот случай, когда надо чекнуть теорию раньше, чем практику. Очевидно же, что асинхронка это техника параллельного выполнения задач в ситуации избыточного времени ожидания. Соответственно, если просто осознать этот факт, то и тесты станут не нужны. Хотя для видео, естественно, живые тесты это очень круто.
Однако из теории следует что ∀task speed(async_release(task)) >= speed(sync_release(task)), но это явно не всегда правда - реализация асинхронности хромает.
Люди любят тестить нечто в вакууме. А если оно подтверждает их убеждения, так вообще прекрасно. Это просто особенность человеческого сознания. Нужно во что-то верить. Они не виноваты ))
Где-то я уже это слышал
Рандомизированная выборка, слепой эксперимент, исключение прочих факторов и желательно сидящий рядом специалист по статистике.
Может кто-нибудь показать/рассказать как выглядят системные вызовы? Например, в Clang в unistd.h есть функция fork, но как она сообщает ОС, что от неё требуется?
Или, например, в go есть куча системных вызовов, вокруг которых построены обертки, но как оно внутри работает? Как сделай кастомный системный вызов без оберток?
Как понимаю это интерфейс к ядру ОС. Те кто ОС проектируют этот интерфейс предоставляют. Как это на более низком уровне, чем на каком то ЯП написать хз.
Как с курсом обстоят дела?
Образовательная программа будет, онлайн, разбитая по модулям, которые можно будет прорабатывать отдельно
А почему собственно при изменении запросов заново не подобрали количество воркеров? Так как запрос выполняется долго, то процесс выполняющий запрос почти не грузит систему. Соответственно банальное увеличение количества воркеров должно сильно улучшить текущие результаты синхронных систем, да и асинхронных тоже. Я требую продолжения банкета!
Очень некорректный тест с pg_sleep(0.2). Для синхронного сервера получилось так, как и должно: 12 / 0.2 = 60, для асинхронного же тест некорректен, т.к. все зависит от настроек и загруженности postgresql.
Настройки pg одинаковы для обоих тестов
14:59 =))
13:32 я не питонист, но мне интересно как это работает. окей, постгрес спит 200мс прежде отдать ответ, но по какой причине произошло ускорение? что такого произошло в коде, что асинхронный код начал работать в 8 раз быстрее?
Более эффективное использование каждого ядра процессора. Когда есть ожидание 200мс ожидания ответов от сети (или какое-то иное ощутимое ожидание IO операций, не обязательно такое большое), то можно или ничего не делать в них, или обрабатывать другие HTTP-запросы в это время. Если идёт обработка других запросов - то и больший RPS получаем, requests per second, запросов в секунду
Жду когда вместо "Здоров котаны" скажет "Здоров псы" xDD
блин, тут на котанов есть люди, которые обижаются)))
Супер кул! Прям вот разжовываете для самых маленьких :-)
Спасибо:)
@@t0digital не забудьте поправить емэйл на сайте :-)
Я где-то читал, что есть практика делать несколько потоков, внутри которых работают асинхронные задачи. Насколько это эффективно?
если мы про питон, то несколько процессов, и внутри асинхронный код, тк многопоточность в питоне отстой (GIL)