Заглавная страница
Сертификация Juniper
JNCIS-SP
Книга 1 (Routing, tunneling)
Глава 1-6. High Availability
Книга 2 (Switching)
Virtual Chassis
Глава 2-4. Provider bridging
Глава 2-7. ERP (Ethernet Ring Protection)
!!!Эту главу основательно отредактироватьГлава 2-7. LAG
Книга 3 (MPLS)
Глава 2. RSVP
Глава 5. MPLS Features
Глава 6. VPN
Глава 8. L3VPN Configuration
Глава 9. Полезности по траблшутингу L3VPN
Глава 10. L3VPN Scaling and Internet Access
Глава 11. L3VPN Advanced topics
Глава 12. Multicast VPNs
Главы 16-17. VPLS
JNCIP-SP
Advanced routing
OSPF
BGP
IS-IS
JCOS
Глава 1. QoS
Глава 2. Packet classification
Глава 3. Policing
Глава 4. Scheduling
Глава 5. Hierarchical scheduling
Глава 6. Rewrite rules
Глава 7. CoS-based forwarding
Глава 8. Packet flow
JMR
Глава 2. Multicast, IGMP
Глава 3. Routing protocols (DVMRP, PIM-DM, PIM-SM)
Глава 4. MSDP
Глава 5. PIM-SSM
Глава 6. Multicast and Policy
Глава 7. IPv6
JMV
Глава 1. Fundamentals
Глава 2. Label Distribution Protocols (RSVP, LDP)
Deploying MPLS
Failover and Optimization
Traffic engineering
L3VPN
L2VPN
VPLS
EVPN
MPLS Core Implementation
Automation
Overveiw
Fundamentals
Essential topics
SNMP
SNMPv3
DC
Overlay Networks
Положительные особенности overlay network (наложенных сетей): 1. Отделение сети от физического оборудования позволяет позволяет сетям дата-центров быть развернутыми за считанные секунды. 2. Поддержка L2 и L3 между VM и серверами. 3. В отличие от стандартной сети поддерживает до 16,4 млн "заказчиков" (вланов).
Чем приходится платить за использование overlay network: - virtual tunnel endpoints (VTEPs) ипользует MAC и route. В отличие от традиционной модели, где каждая VM и каждый сервер использует MAC и route. В overlay трафик от VM и сервером инкапсулируется между VTEP. mac и route каждого сервера теперь не виден для оборудования overlay сети. mac и route теперь перенесены с физического уровня на уровень hypervisor.
Bare metal server
Редко в каких сетях получится найти полностью виртуализированую сеть. Какая-то часть серверов все-равно останется железной (в основном из-за производительности).
Как не бросить те самые железные сервачки и сохранить с ними сетевую связность?
Один из методов: соединить VTEP с физическим access switch.
Каждый гипервизор имеет VTEP. VTEP передает инкапсулированный трафик data plane между VM. Также VTEP делает mac-learning, предоставляет новые virt netw и другие изменения конфигурации.
На железных серверах нет VTEP. Чтобы железный сервер включить в overlay netw архитектуру, нужно чтобы кто-то инкапсулировал трафик от сервера и делал mac-learning. Пусть это делает обычный access-switch от имени сервера. Сервер при этом просто думает, что посылает от себя трафик дальше в сеть.
IP Fabrics
Самое важное условие для IP Fabric: VTEP должны соединяться по L3.
Clos придумал распределенную топологию для L3, при которой возможно достаточно хорошее масштабирование сети. В такой сети есть разделение на уровни: ingress, middle, egress.
На основе CLOS произошла топология spine anf leaf, которую иногда называют сложенной CLOS сетью. То ест тут ingress и egress уровни сложены друг на друга (если можно так выразиться).
Spine - это L3 свитчи.
Leaf - это top-of-the-rack свитчи, который связывают сервер и VTEP.
Масштабируемость определяется двумя параметрами: "толщиной" spine, коэффициентов переподключенийleaf светчей.
© Наталия Бобкова 2014—2022