#ovn — Public Fediverse posts
Live and recent posts from across the Fediverse tagged #ovn, aggregated by home.social.
-
[Перевод] Не всё трафику одинаково: QoS в OpenStack Neutron
Привет, Хабр! Мы уже разбирали OVN в связке с OpenStack и трассировку пакетов. А сегодня предлагаем почитать перевод документации про Quality of Service (QoS) в Neutron: что это, какие правила поддерживаются, как настроить и как работать с политиками.
https://habr.com/ru/companies/runity/articles/1018408/
#neutron #qos #quality_of_service #openstack #ovn #рунити #управление_качеством #трафик #технологии #разработка
-
⚠️ Attention, si vous déployez @OpenStack après 2025.1 avec #OVN, par défaut le trafic entre vos hyperviseurs circule en clair !
La sécurité #ZeroTrust est essentielle pour les clouds privés modernes.
Dans notre dernier article de blog, nous vous montrons comment sécuriser votre #cloud OpenStack en protégeant votre trafic avec le chiffrement #IPsec. Nous construisons une chaîne automatisée robuste avec #FreeIPA #Certmonger et #Kayobe.
🥷 Lire l'article complet : https://www.worteks.com/blog/ovn-ipsec-miniwaas/
-
Ma première #kubecon! :yay:
Mon talk avec Nadia Pinaeva a été accepté \o/
"Let your network speak!" => on vous parlera notamment du boulot réalisé dans le kernel, ovs, ovn, ovn-kubernetes et netobserv pour rendre observables (et observés) divers événements réseau. Tout en open-source, évidemment ! -
[Перевод] Как трассировать пакеты в OVN
Привет, Хабр! На связи Кирилл Савин, я — архитектор SDN в Рег.облаке. В прошлой
https://habr.com/ru/companies/runity/articles/967932/
#iaas #paas #cloud #ovn #ovs #трассировка #трассировки #пакеты #данные #регоблако
-
All details on the journey to migrate #CERN's #OpenStack cloud from LinuxBridge to Open Virtual Network are now available in the follow-up posts!
On the OVN control plane: https://techblog.web.cern.ch/techblog/post/linuxbridge-ovn-migration-part-2/
On the cross-cell migration campaign:
https://techblog.web.cern.ch/techblog/post/linuxbridge-ovn-migration-part-3/On the live migration campaign:
https://techblog.web.cern.ch/techblog/post/linuxbridge-ovn-migration-part-4/ -
Поднимаем BGP в облаке: как мы запустили «матрешку» тоннелей и ушли от L2-ограничений в новой локации Рег.облака
Привет, Хабр! На связи Евгений Мартынов, CIO Рег.облака. Сегодня мы подключили вторую зону доступности облака в Москве на базе дата-центра «Медведково-2» . И вместе с новым запуском провели значительный апгрейд технологический базы: пересобрали сетевую архитектуру, ушли от большого L2, навели порядок в изоляции трафика и перевели API на BGP-анонсы. В статье расскажу про конкретные решения — как и что мы пробовали, какие процессы отложили и к каким выводам пришли.
https://habr.com/ru/companies/runity/articles/947912/
#датацентр #датацентры #облако #сетевая_инфраструктура #api #bgp #тоннели #трафик #vxlan #ovn
-
ovn-kubernetes v1.1 is out today!
Check out the summary: https://github.com/orgs/ovn-kubernetes/discussions/5476This is a very nice milestone for this Kubernetes CNI, with important features such as network segmention (UDN) and BGP support.
Current NetObserv (1.9) already supports UDN, and we're working to add more observability for BGP soon, stay tuned!
-
От идеи до продакшена: как мы строили SDN-слой для zVirt
Привет, Хабр! Меня зовут Дмитрий, я работаю в компании Orion soft. Преимущественно занимаюсь проектированием и разработкой бэкендов различного уровня от низкоуровневых сервисов до масштабируемых API. Сегодня мои основные инструменты — языки Python и Go. Так как ранее плотно работал с системным программированием, очень люблю *nix и всё, что с ними связано. В статье расскажу, почему классические подходы к сетям перестали работать в условиях масштабирования, как мы выбирали стек, с какими архитектурными и техническими ограничениями столкнулись на практике — и почему выгоднее доработать существующий Open Source, а не переписывать всё с нуля. Покажу, как мы шаг за шагом избавлялись от узких мест, оптимизировали работу с большими объёмами ACL, переносили критичные компоненты на Go, и что в итоге получилось в продуктивных инсталляциях. Если вам интересно, как реально эволюционирует инфраструктура и почему MVP — это не всегда «быстро и грязно», а зачастую — про осознанный выбор компромиссов — добро пожаловать под кат! Перед вами наш путь разработки программно-определяемой сети (SDN) для платформы виртуализации zVirt.
https://habr.com/ru/companies/orion_soft/articles/933164/
#sdn #ovn #devops #сетевая_инфраструктура #api #java #phyton #инфраструктура #сеть
-
Как переехать на OVN и не сломаться: пошаговый гайд
Привет, Хабр! На связи вновь Кирилл Савин, архитектор SDN в Облаке Рег.ру. Недавно мы с командой взвесили все риски и приняли волевое решение — переехать на OVN. В процессе думали над архитектурой, решали возникающие вопросы и набивали шишки. Я решил поделиться нашим опытом и подходами. В первой статье рассказали, как устроен OVN изнутри, рассмотрели особенности архитектуры. Теперь готовы перейти к практике! Во второй части опишу ручной подход для миграции облака с сетевым даунтаймом для перестроения сети, но без миграции, собственно, виртуальных машин. Для «переезда» я осознанно выбрал ручной подход — объясню, почему и что из этого получилось. Внутри — по шагам рассказываю о переезде и делюсь полезными конфигурациями, которые делают это возможным.
https://habr.com/ru/companies/runity/articles/924270/
#ovn #облако #миграция #openvswitch #neutron #control_plane #network #openflow #vm #облачные_технологии
-
OVN под капотом: как построить сеть в OpenStack
Привет, Хабр! На связи Кирилл Савин, я — архитектор SDN в Облаке Рег.ру. Недавно мы с командой начали большой переезд OpenStack облака на OVN, который идет и сейчас. Это непростое путешествие, в котором мы пробовали разные решения, извлекали уроки из ошибок и продолжали двигаться вперед. Так появилась идея рассказать о рабочих кейсах и идеях, которые мы почерпнули. Мыслей на этот счет получилось много, поэтому решил сделать серию статей об инструментах для сетевой виртуализации. В первой начнем с обзора OVN: об архитектуре, преимуществах и недостатках. Будет полезно тем, кто в контексте OpenStack работает с сетевой виртуализацией и уже «трогал» OVN.
https://habr.com/ru/companies/runity/articles/922172/
#ovn #ovs #openstack #сетевая_инфраструктура #виртуализация #openvswitch #облако #облачные_технологии #сети #архитектура_системы
-
The #OpenStack team in #CERN IT is moving its network control plane from LinuxBridge to #OVN, and documents the journey in a series of technical deep-dive blog posts. Part 1 covers the background and preparation: https://techblog.web.cern.ch/techblog/post/linuxbridge-ovn-migration-part-1/ #networking
-
One more thing, that isn't mentionned in the above article: the recent versions of ovn-kubernetes have a new feature called UDN for User Defined Network, which is basically segmentation. More about that here: https://developers.redhat.com/articles/2025/05/01/native-network-segmentation-virtualization-workloads#requirements
-
Как мы спроектировали и запустили собственную облачную платформу на 20К виртуальных машин — опыт Wildberries
Собственная облачная платформа помогает контролировать технологические процессы, обеспечивает безопасность и повышает эффективность продуктовых команд. Но спроектировать её — задача со звёздочкой. Привет, Хабр! Меня зовут Алексей Чуркин, я работаю в компании Wildberries, где строю приватное облако. В этой статье по мотивам моего доклада для Highload++ расскажу о том, как мы внутри компании построили облачную платформу, с какими сложностями столкнулись и как собираемся её развивать.
https://habr.com/ru/companies/oleg-bunin/articles/903552/
#cloud #wildberries #platform_engineering #облачная_платформа #ovn #kvm #виртуальные_машины #приватное_облако #openstack
-
От NSX к OVN: 4 года подготовки и успешная миграция облака «на лету»
Привет, Хабр! Меня зовут Владислав Одинцов, я — техлид в K2 Cloud (ex Облако КРОК) и работаю в облаке с 2013 года, администрирую Linux и сети в нём, коммичу в Open Source (Open vSwitch, OVN и другие проекты). С 2015 года занимаюсь облачными сетевыми сервисами. В этой статье по мотивам моего доклада для конференции Highload++ 2024 расскажу об истории смены SDN в публичном облаке с проприетарного VMware NSX на Open Source решение OVN. Ввиду того, что текст статьи, в отличие от выступления на конференции не ограничен по времени, я решил разобрать некоторые моменты более подробно. Таким образом, даже если вы присутствовали на конференции или смотрели доклад в записи, вы, вероятно, сможете найти для себя что-то новое.
https://habr.com/ru/companies/oleg-bunin/articles/885710/
#К2_Облако #highload++ #NSX #SDN #OVN #cloud #network_virtualization #open_vswitch #самописный_софт #K2_Cloud
-
Is there some #ebpf #linux #linuxkernel expert out there who can give advices on how it's possible to trace packets via TC hooks attached on all hosts interfaces, ie. being able to recognize that packet X seen on interface B was the same packet already seen on interface A previously?
I know there's the SKB "mark" field done in this purpose but unfortunately it's not reliable as it's too overloaded and sometimes erased (seen with #OVS/ #OVN)
-
Die Beschäftigten bei #Autokraft [auch Kielius und X85], DB Regio Bus Nord [SEV] und #Transdev [#Rendsburg] haben sich mit 98,6% für einen unbefristeten Streik ausgesprochen. Die Arbeitgeberseite hatte einen gültigen verhandelten Tarifvertrag einseitig gekündigt. Volle Solidarität mit den Streikenden! Den Streik hat die Arbeitgeberseite zu verantworten! Nicht betroffen vom Streik sind die KVG (Kiel) und die VKP (Plön [bei der allerdings am Donnerstag ein Warnstreik ansteht]). #Busstreik #SH #OVN
-
I have to say, ovn-trace is awesome! Helped me debug sdn issues more than once. The output may look terrible, but so does the Exim server log before you get used to it.
-
Got incus-deploy to a state where it can now reliably deploy #Ceph, #OVN and #Incus in just a few minutes, taking care of all the clustering bits and resulting in a fully functional environment!
https://asciinema.org/a/654385 -
Why I didn't think of this before. I currently have a couple of #ovn networks that are not connected to my internal network at all, just nating outbound in the #homelab . Most of my connections with #NetBird ( my overlay network) were being relayed because it couldn't establish a direct connection. #NetBird has a router function where you can have one of it's endpoints act as a way into that network. I did that and my response times went from 150ms to 1ms! shieeet!
-
One pretty shitty con to moving into SDN networks that are not routed and using a wiregaurd overlay. Because you physical network can not reach the SDN networks. All of the connections are relayed on the wiregaurd network. Between me and my services, not service to service as those have access to each other as they are networks can connect to each other in software. It all works just fine but instead of 1ms round trip, i'm looking at over 170ms.
-
I really am amazed at using a wiregaurd type service as an overlay network been so easy to move stuff around. I just moved my instances over to an software defined network with #ovn that is not routable at all. As long as you are on the wiregaurd network the things just keep on ticking. Before I would have to configure BGP for the network, make sure the router has all the config. Now, I just make sure things can get outbound and shits awesome.
-
Spent a good chunk of my day today trying to figure out why #incus cluster and #OVN weren't playing together just to find out there was a fucking typo in one of my configs. Yea.. fuck. I was able to successfully #zfs send/receive to incus and then incus recover all the instances. It is a bit cumbersome with all of the zfs commands you gotta .. but it does work. Don't think it's any better than just export and import into incus. Might be slower, but strait forward.
-
Been at it with the #homelab again! Was inspired by @technotim and stood up #hompage and it's pretty dope and highly customizable. I still need to attack this two legs in separate network thing. I have pretty locked up on #NetBird , but not on my physical network. Thinking of maybe going back to #OVN but then I need bgp to advertise shit. I wanted to keep all the acl in software.
Any Yall know how to firewall linux bridges?
-
Going to be streaming some #Incus work this afternoon, working on improving our #OVN TLS support!
https://www.youtube.com/watch?v=1dTOb4XrSNs -
#Canonical intros #Microcloud: Simple, free, #onpremises #Linux clustering
As #Ubuntu approaches its 20th anniversary, some more of its pieces may be Snapping together It uses its own #LXD containervisor to manage nodes and workloads, #Ceph for distributed storage, #OpenZFS for local storage, and #OVN to virtualize the cluster interconnect. All the tools are packaged as snaps. It supports both x86-64 and Arm64 nodes, including #RaspberryPi, and you can mix architectures! https://www.theregister.com/2023/11/16/canonical_microcloud/ -
I'm on a mission to get rid of shit in the #homelab #networking
I'm currently using #OVN with an #LXD cluster a great thing about this integration is I can create arbitrary networks in the cluster and they automatically nat out. Even cooler I can create peer connections within the cluster so they can route to each other in the #OVN data plan and never reach the physical networking stack ( for routing)!
I had some slowness with my #netbird network, peered networks in #OVN 💥 It speed.
-
I was able to make most of the #networking changes in the #homelab and now everything ( I think ) is running off of #NetBird.
I was able to get rid of 3 old routed networks, an intermediate dns service that transferred zones from #LXD to my primary dns server, the BGP that ran some of this, the virtual #VyOS router, and 3 dns zones that managed all of my #LXD instances.
I just have #OVN ( which I want to try to get rid of too) and my lxd cluster!
All the dns is handled within #nebird. -
I think I got the #dns part of switching to this #NetBird #WireGaurd implementation thing down in the #homelab . I do feel like it takes up a bit of headspace as this is not a very traditional way of doing #networking . I'm sure it will click at some point but right now it's still a bit magical!
I still need to move #LXD networks as it would seem that the gateway value only takes when you create a network using the #OVN integrations . I changed gateways, so yea thats a thing!
-
I'm really starting to not like the #ovn and #lxd integration. I'm trying to change out a gateway and the damn cluster just won't take and now I have this Asymmetric routing thing going on. However, with #netbrid ( wireguard thingy) I can actually get to things!!
I'm about to burn the whole #homelab down and start over! Baby and bath water shit people keep saying :)
-
I started moving ( or installing) wireguard-made-easy-service called #netbird ( #tailscale like just not as feature rich). I don't know how I got onto this thing but since i'm here, i'm thinking I should try the idea out. #wiregaurd overlay here I come. This has the potential to flatten my #ovn #sdn network as well. No need to BGP my stuff, just hop on the #network at least I think.
-
Anyone using these, "Wiregaurd made easy by some service" like #tailscale or #netbird as an overlay network? I have this #SDN network in place with #OVN and it's just one more thing I have to install on my #lxd nodes. I was wondering if I could just enable these containers with a #wiregaurd thingy and then they can just communicate with each other and I guess I can manage them through some hosted system they or 3rd party provide or is that any better than just cli'ing it
-
@ChrisUplus @travis I'm using #ovn with #OVS and it's great until you need to troubleshoot. Then it's a fucking mess.
-
#homelab it's become clear to me that I shouldn't be running something I really don't understand! I still haven't figured out why my #ovs / #OVN cluster won't work even though the cluster looks like it's up and has a leader! Can't really find support for it either. I ain't no chump! I'm ganna fix this!! But it's clear I shouldn't be running it.
-
I love the concept of overlay networks! They are dope... until they don't work. #OVN has been solid until i run into something crazy and troubleshooting it so so hard. I rebooted a node and now the networks won't come back up.
I'm thinking now of possibly moving my #homelab to a flat #WireGaurd solution like #NetBird or similar. Anyone running their whole lab on #WireGaurd / Overlay #network / #networks ?
-
Looks like this loadbalancer can query #lxd which seems super dope and going to try it instead of my #ovn loadbalancer as it doesn't have health checks.
Only down side... it's not really maintained anymore. Does that really matter tho 😜 😎
https://github.com/yyyar/gobetween
#lxd #homelab #selfhosting #selfhosted #networking #loadbalancers
-
I do networking too so maybe I can accomplish it but one of the things I wanted to do with Proxmox was use the capability of distributed virtual switches across nodes in my cluster. What I see in Proxmox is the ability to add bridges via OVS but they don't seem to have a higher-level abstraction across the multiple nodes. It looks like OVN can be that abstraction and communicate between the clustered nodes, but I'm not completely sure how it works.
Currently I don't have a managed switch behind my cluster so no VLANs, and only a single interface per node so I can't solve it with individual interface mappings. If OVN can handle that abstraction and still transport over my existing link and interface with the OVS bridge that would be great and solve my issue.
I know you're using lxd instead of Proxmox so it's not exactly apples-to-apples but I was hoping what you're doing is conceptually compatible with what I am looking to do.