#sdn — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #sdn, aggregated by home.social.
-
EVPN-connector от VK Cloud: знакомим с первым Open-Source-компонентом нашего SDN Sprut
В современных облаках есть много задач, связанных с проблемами производительности и масштабируемости виртуальных сетей. Кроме этого, есть ряд задач, требующих интеграции с аппаратными сетевыми устройствами. Чтобы преодолеть этот барьер, в собственном SDN (Software Defined Network, программно-определяемая сеть) мы реализовали поддержку технологии EVPN. За это отвечает специальный компонент — EVPN-connector. Он использует OpenVSwitch для передачи данных и GoBGP для передачи информации и позволяет строить распределенные сети с поддержкой L2- и L3-режимов, а также обеспечивает интеграцию с аппаратными устройствами. В этой статье мы, команда IaaS Network в VK Cloud, расскажем о EVPN-connector в деталях.
https://habr.com/ru/companies/vktech/articles/1000332/
#vk_cloud #EVPN #SDN #Sprut #vk_tech #облачные_сервисы #облачные_технологии
-
IPsec, GRE, BGP и немного автоматизации для высокой доступности вашей сети
Построение отказоустойчивой гибридной сети между локальной инфраструктурой и облаком — одна из ключевых задач при миграции. Стандартных решений здесь не существует: выбор архитектуры и технологий зависит от требований безопасности, производительности и желания избежать vendor lock-in. Я хочу показать один из способов решения такой задачи на примере облака VK Cloud с учетом специфики его SDN-сети. Отдельно хочется добавить, что рассматриваемый в статье подход к построению сетевой связности может быть успешно применен не только в VK Cloud. В основу статьи легли вопросы и задачи, с которыми клиенты часто обращаются к командам Presale архитекторов и Professional services VK Cloud, когда они хотят построить надежное гибридное решение для своего бизнеса. Мне хотелось написать статью, которая будет не научно-популярным повествованием, а практическим руководством, систематизирующим имеющиеся знания по разным продуктам и сетевым технологиям.
-
От идеи до продакшена: как мы строили SDN-слой для zVirt
Привет, Хабр! Меня зовут Дмитрий, я работаю в компании Orion soft. Преимущественно занимаюсь проектированием и разработкой бэкендов различного уровня от низкоуровневых сервисов до масштабируемых API. Сегодня мои основные инструменты — языки Python и Go. Так как ранее плотно работал с системным программированием, очень люблю *nix и всё, что с ними связано. В статье расскажу, почему классические подходы к сетям перестали работать в условиях масштабирования, как мы выбирали стек, с какими архитектурными и техническими ограничениями столкнулись на практике — и почему выгоднее доработать существующий Open Source, а не переписывать всё с нуля. Покажу, как мы шаг за шагом избавлялись от узких мест, оптимизировали работу с большими объёмами ACL, переносили критичные компоненты на Go, и что в итоге получилось в продуктивных инсталляциях. Если вам интересно, как реально эволюционирует инфраструктура и почему MVP — это не всегда «быстро и грязно», а зачастую — про осознанный выбор компромиссов — добро пожаловать под кат! Перед вами наш путь разработки программно-определяемой сети (SDN) для платформы виртуализации zVirt.
https://habr.com/ru/companies/orion_soft/articles/933164/
#sdn #ovn #devops #сетевая_инфраструктура #api #java #phyton #инфраструктура #сеть
-
От NSX к OVN: 4 года подготовки и успешная миграция облака «на лету»
Привет, Хабр! Меня зовут Владислав Одинцов, я — техлид в K2 Cloud (ex Облако КРОК) и работаю в облаке с 2013 года, администрирую Linux и сети в нём, коммичу в Open Source (Open vSwitch, OVN и другие проекты). С 2015 года занимаюсь облачными сетевыми сервисами. В этой статье по мотивам моего доклада для конференции Highload++ 2024 расскажу об истории смены SDN в публичном облаке с проприетарного VMware NSX на Open Source решение OVN. Ввиду того, что текст статьи, в отличие от выступления на конференции не ограничен по времени, я решил разобрать некоторые моменты более подробно. Таким образом, даже если вы присутствовали на конференции или смотрели доклад в записи, вы, вероятно, сможете найти для себя что-то новое.
https://habr.com/ru/companies/oleg-bunin/articles/885710/
#К2_Облако #highload++ #NSX #SDN #OVN #cloud #network_virtualization #open_vswitch #самописный_софт #K2_Cloud
-
I have to say, ovn-trace is awesome! Helped me debug sdn issues more than once. The output may look terrible, but so does the Exim server log before you get used to it.
-
Read an excellent tutorial for everybody on:
- #networkSlicing, #SDN, #NFV, #Orchestration;
- their potentials (such as "#SmartCities", #serviceLevels, #surveillance);
- policy recommendations.
⸺
https://cdt.org/insights/slicing-the-network-maintaining-neutrality-protecting-privacy-and-promoting-competition/
by Nick Doty @npd and @mallory #Knodel for #CDT @CenDemTech
#neutrality #privacy #competition #netNeutrality #dataPrivacy #dataProtection #cybersecurity #infosec #standards #standardization #OpenInternet #internet #techEd #ISPs #networkPlanning #networkOperators #regulation -
The SDN / VXLAN Proxmox saga continues...
After posting this I noticed some strange behavior. I was getting ping packets fine and nmap was showing the https service for my new firewall. The problem was when I would navigate to my new firewall's management site it wouldn't work. I would get ssl_error_rx_record_too_long on Firefox and timeouts on Chrome.
I opened up Wireshark and noticed the return traffic for SSL was severely delayed and appeared malformed.
What I missed in my instructions is that VXLAN takes up 50 bytes for encapsulation, so for the endpoints within the internal network I had to set a custom MTU of 1450 so that the VXLAN encapsulation could happen within the 1500 limit of the interface on the Proxmox nodes.
After configuring this on one of the internal machines and it worked to get to the site I thought maybe I had to also configure the 1450 MTU on the firewall's internal interface. I did that and was immediately getting some rapid drop-connect-and-drops repeatedly on my home network so I reverted that change. I really don't know why changing the MTU on the internal interface of the firewall would cause that on my main network but it did, so I reverted it. It seems any device on that internal LAN will need the MTU change other than the firewall, for all the traffic to work properly.
Now it looks like the next thing to do is to start putting various machines behind the new routers to start segmenting my lab network, and get it off of the flat network for increased security and traffic isolation and control.
The Proxmox guide I linked earlier will give more details on the 50 byte allocation for VXLAN.
#homelab #proxmox #networking #sdn #vxlan #ovs #selfhosted #selfhostingmastodon #MTU
-
Ok quick update: I got Proxmox SDN working with VXLAN and Vnets across the cluster!
To reproduce:
1. Install SDN per instructions (about three easy steps per node). See docs: https://pve.proxmox.com/wiki/Software_Defined_Network
2. Add a Zone at the SDN datacenter level. Specify Zone name and Prox nodes to apply to.
3. Add a Vnet at the SDN datacenter level. Specify zone, Vnet name, and VXLAN ID.
4. Apply SDN configuration, this pushes the Vnet config to each Prox node.
5. Add/replace interface on target VM. In my case for testing I added an interface targeting the new Vnet and specified IPv4 statics on two VMs on separate prox nodes and pinged each other.#homelab #proxmox #networking #sdn #vxlan #ovs #selfhosted #selfhosting
-
Currently patching my Proxmox cluster to prep the experimental SDN functionality to enable me to do VXLAN across my cluster of nodes.
I want to test this so I can have virtual routers with devices on the same internal networks but spread across multiple physical nodes.
I'm familiar with doing this on VMware with dVSes and VLANs but trying to replicate it on Proxmox. If this doesn't work as expected I may end up trying some other options. Hope to solve this in software so I don't have to buy gear.
#homelab #proxmox #networking #sdn #vxlan #ovs #selfhosted #selfhosting