kubernetes, ingress controller [1] - теория
Vložit
- čas přidán 8. 07. 2020
- Первое видео в серии "Ingress controller". Теоретическое.
Полезные ссылки:
Ingress - kubernetes.io/docs/concepts/s...
Ingress Controllers - kubernetes.io/docs/concepts/s...
NGINX Ingress Controller - kubernetes.github.io/ingress-...
В следующем видео будет показана установка и настройка ingress controller с использованием NodePort.
Помощь в развитии канала ВТБ: 2200 2460 1569 3404
Следующие видео в серии Ingress controller:
2. Установка и настройка Ingress controller, вариант NodePort с дополнениями и улучшениями: • Kubernetes, Ingress co...
3. Kubernetes, ingress controller [3], установка второго контроллера, вариант HostNetwork: • Kubernetes, ingress co...
Мой сайт: www.kryukov.biz
Артур, огромное спасибо Вам, за ваши видео, они очень помогают восполнять пробелы в знаниях! Прошу Вас, не останавливайтесь и выкладывайте новые видео! Однозначная подписка и лайк!!!
очень грамотно, спасибо за уроки я б без таких уроков с детальными объяснениями не смог бы чего либо сделать так быстро поняв тему
Очень последовательно и доступно рассказали, сразу стало понятно. И формат урока 20 минут - самое оно. Спасибо)
Спасибо большое за видео! Очень доступно и легко воспринимается. Подписка.
лучший!
Артур, добрый вечер! Огромное спасибо Вам за видео! Очень полезная информация! Большой + Вам в карму! У меня есть предложение по теме следующего видео - "Сеть в Kubernetes". Инфо об ингресах, подах и т.д. достаточно много, а вот подробностей о работе сети, ее настройки практически нет. Было бы круто, если бы вы сделали такой обзор. Спасибо!
Спасибо.
Встречный вопрос: какую из сетей описывать? На всякий пожарный ссылка на все возможные сети в кубере :)
kubernetes.io/docs/concepts/cluster-administration/networking/
@@OldPythonKAA Добрый день. Спасибо за столь быстрый ответ! Я бы рассмотрел Calico, на сколько я понял этот плагин Вы и используете. Далее (или сначала) что такое CNI и вишенка на торте будет как на это накладывается Istio Service Mesh :))) А так, конечно на Ваш выбор.
Да, пожалуй calico. Постараюсь до Нового Года записать цикл про сети. Но не обещаю :) в конце года очень много работы :(
Спасибо, а что за графический интерфейс вы использует? самое лучшее, что я нашел для настроек kubernetes это консольный k9s webinstall.dev'/k9s'/ одной командой все поставил
В данном видео - rancher.
@@OldPythonKAA rancher платный?
@@s78ap Ранчером лучше не пользоваться, если не умеете копаться во внутренностях k3s. А так - бесплатный.
Артур, а разве тем самым 15:30 мы не ограничим сетевую производительность производительностью той ноды, на которой в данный момент запущен Ingress controller?
Если предполагаете, что будут проблемы с трафиком, выносите ингресс контроллер на отдельные ноды.
Об ошибке которой вы рассказываете - я видел в одном из первых видео про логи, у вас судя по логам были таймауты на DNS поде каком-то (если нужно - поищу что конкретно я имею в виду). Не оно ли это что вы описываете на 17:50 ?
нет.
Подскажите, почему был выбран Flannel, про переход на calico я понял. В кластерах развернутых через rancher устанавливается weave. на мой взгляд она более интересная. Но наши кластера размещаются внутри сети, а тот что в ДМЗ установлен за фаерволом. Как правильно подбирать сеть для разных мест размещения кластеров (облачные провайдера или личные ДЦ)?
Фланелл простой как грабли. Но относительно недавно в сетевом стеке линукс появилась ошибка со счетчиком при нат преобразованиях. И фланнел до сих пор ее не исправил (точнее не учел ее в своей работе). Приходится колдовать на каждой ноде.
Поэтому перешел на калико. Не помню где, но ее рекомендовали разрабы куба.
Но честно говоря, в моих повседневных задачах (небольшие баре металл кластера - до 15-ти нод) особо накручивать сетки в кубе не приходится. Поэтому установок по умолчанию мне хватает. При этом большинство установок - это высоконагруженные системы.
кстати, на счет использовать ранчер для установки кластера. буквально на прошлой неделе убедился, что я прав, что использую ранчер только в качестве WEB морды. Обновился до 2.5.1 и потерял доступ к кластеру. Какая то проблема в ui. Такое у ранчера бывает не часто, но бывает. Поэтому только сбоку :)
@@OldPythonKAA у нас самый большой кластер 8 нод и то я пытаюсь сократить за счет перехода на виртуализацию где возможно поставить для машины больше ядер и памяти (бесплатный ESXi ограничивает 8 core). А rancher используется так как умеет работать с ADFS, к тому же он с наглядной графикой, но все же не все там можно делать из графики. Kubespry не использовал, он вроде как не поддерживается уже. Был опыт с kubeadm, rancher и minikube для тестов.
@@OldPythonKAA спасибо за курс по kubernetes!! Очень полезно. Подскажите issue баги фланела. Спасибо.
2х сразу ставьте