Seite wählen

NETWAYS Blog

Proxmox Routed NAT für die NWS Openstack Cloud, Hetzner uva.

Warum Proxmox? Weil Du damit einen robusten AGPL3-Lizenz basierten, sicherheits- und privacy-technisch (Debian) unbedenklichen, KVM-Hypervisor bekommst, der Out-of-the-Box LXC kann, was extrem ressourcenfreundlich ist, und Du damit wie gewohnt Deine Linux-Befehle abfeuern und automatisieren kannst.

Unter Debian befinden sich die direkt greifenden Kern-Netzwerkkonfiguration unter /etc/network/interfaces und nachfolgender Teil basiert darauf. Auskommentierte Parameter werden wie gewohnt durch # dargestellt – an einigen Teilen habe ich Parameter auskommentiert gelassen, die aber zum Testen & Debuggen wichtig waren und die ich auch für Zukünftiges oder Nachzuschlagendes nicht verstecken möchte.

Bridged-Home

Eine default Proxmox Konfiguration für Zuhause sieht z.B so aus:

[bash language=“language“]
auto lo
iface lo inet loopback

iface ens3 inet manual

auto vmbr0
iface vmbr0 inet static
address 10.77.15.38/24
gateway 10.77.15.254
bridge-ports ens3
bridge-stp off
bridge-fd 0
[/bash]

Erklärung: Wie Du siehst läuft alles über einen virtuellen Netzwerkadapter vmbr0, der IP & Gateway behandelt: das eigentlich echte Interface ens3 wird hier nur auf manual geschalten, während das vmbr0 auf static gesetzt ist. Dieses vmbr0 Interface wirst Du auch pro VM / LXC -Container dann jeweils auswählen, und eine passende IP vergeben bzw. vergeben lassen. Beachte allerdings den Punkt bridge-ports ens3 , machst Du so etwas bei einem externen VPS/Bare-Metal Provider, musst Du eventuell zusätzlich eine gekaufte virtuelle MAC mitgeben – oder könntest offline genommen werden, da nun über mehrere MACs mehrere reelle IPS laufen würden, wo die Sicherheitsfeatures des Gateways des Providers Alarm schlagen sollten. Daher folgender Routed-NAT Ansatz:

Routed-NAT in der Cloud

Metadata

Hinweis: Nachfolgendes im OpenStack mit Metadaten ist minimal hacky, aber es „tut“, ob Du so etwas in der Production benutzen willst ist Dir überlassen. Bei LXC-Containern wirst Du genauso Performanz haben wie nativ in Deiner Instanz da diese CGroup basierend sind.

Willst du maximales Vertrauen und maximale Sicherheit nimmst Du Dir eine eigene Proxmox ISO und lädst diese hoch – was bei NWS kein Problem ist: Noch besser, Du lädst ein eigenes Debian 11 Bullseye hoch, installierst und verschlüsselst dieses, und installierst Proxmox on Top.

Nach dem Hochladen der ISO findest Du die Möglichkeit Metadata-informationen anzupassen, um die VM im Openstack Hypervisor auf  Virtualisierung einzustellen. Nachfolgende Flags zu setzen hat für mich funktioniert:

Du kannst nun Deinen Server hochfahren, und kannst danach nach dem Booten, über „Console“ die Installation starten. Du solltest im Anschluss das Boot-ISO unmounten, sonst kommst du nach dem Reboot wieder zur Installation, tust Du es nicht, kannst Du aber auch einfach über Rescue-Shell die Proxmox-Instanz starten. In meinen Tests wurden DHCP und Gateway automatisch angezogen und die Installation lief problemlos durch.

Proxmox Routed-NAT Konfiguration

[bash language=“language“]
auto lo
iface lo inet loopback

auto ens3
iface ens3 inet static
address 10.77.15.38/24
gateway 10.77.15.254
# pointopoint 10.77.15.254

auto vmbr0
iface vmbr0 inet static
address 10.77.15.38/24
netmask 255.255.255.0
gateway 10.77.15.254
bridge-ports none
bridge-stp off
bridge-fd 0
pre-up brctl addbr vmbr0
up route add 10.10.10.2/32 dev vmbr0
up route add 10.10.10.3/32 dev vmbr0

auto vmbr1
iface vmbr1 inet static
address 10.9.9.1
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
post-up iptables -t nat -A POSTROUTING -j MASQUERADE
post-up iptables -t nat -A POSTROUTING -s ‚10.9.9.0/24‘ -o vmbr0 -j MASQUERADE
post-down iptables -t nat -F

# post-up echo 1 > /proc/sys/net/ipv4/ip_forward
# post-down iptables -t nat -D POSTROUTING -s ‚10.9.9.0/24‘ -o vmbr0 -j MASQUERADE
# post-up iptables -t nat -A POSTROUTING -o eth0 -s ‚10.9.9.0/24‘ -j SNAT –to 10.9.9.1
# post-up iptables -t raw -I PREROUTING -i fwbr+ -j CT –zone 1
# post-down iptables -t raw -D PREROUTING -i fwbr+ -j CT –zone 1
[/bash]

Erklärung: Hier siehst Du im Vergleich Routed NAT, welches Du bei jedem VPS, auch bei uns bei NWS, nutzen könntest.
Hinweis: Für Bare-Metal-Instanzen bei Hetzner würdest Du nur noch pointtopoint einkommentieren müssen.
Im Vergleich zu einer Bridged-Konfiguration siehst Du nun bei vmbr0 bridge-ports none auch magst Du Dich wundern wieso denn genau address 10.77.15.38/24 sowie gateway 10.77.15.254 je in ens3 und vmbr0 vorkommen. Das liegt daran dass wir nun im Vergleich zu Bridged keine zweite MAC einholen, sondern alles über iface ens3 inet static durchgeben –  und vmbr0 und vmr1 praktisch routen. Du könntest nun auch vmbr0 benutzen, aber vmbr1 ist in dem Beispiel bequemer, und setzt Dir ein komplettes ‚10.9.9.0/24‘-Netz mit entsprechenden NAT-Regeln das mit dem 10.9.9.1 Gateway kommunizieren kann.
Wichtig: Obwohl Du auch hier den ipv4-Forward aktivieren könntest, habe ich es in der /etc/sysctl.conf gemacht via net.ipv4.ip_forward=1  bzw. respektive net.ipv6.conf.all.forwarding=1.
Tipp: Ich persönlich benutze ab dieser Stelle (wo auch immer möglich) Nested-Docker in LXC-Containern um Server-Performanz zu sparen, und lege bequem Wireguard Clients in die jeweiligen Container, um diese von überall aus anzusprechen. Guides zu Wireguard findest Du von Markus und mir hier unserem NETWAYS Blog.
Übrigens: Meine Chefs von NETWAYS Professional Services bieten bald im Portfolio auch Consulting zu Proxmox an, welches von Icinga 2 überwacht werden kann.

 

NETWAYS Managed Services – Alles im Flow

Den (zugegebenermaßen schon etwas weiter zurückliegenden ) Jahreswechsel möchte ich heute zum Anlass nehmen, um der treuen Leserschaft einen Überblick zu geben, was in letzter Zeit bei der NETWAYS Managed Services Abteilung alles so los war.  Und in meinem nächsten Blog wechsle ich dann von der Retro- in die Prospektive und gebe einen Ausblick auf die Projekte, die bei uns gerade in der Pipeline stehen – denn eines ist sicher: es hat sich viel getan und es wird noch viel mehr kommen – alles ist im stetigen Flow.

Zuerst einmal haben wir im Dezember unser neues Partnerprogramm ins Leben gerufen. Dieses richtet sich an alle Unternehmen, die ihren Kunden Services rund um das Thema Hosting-Umgebungen nicht selbst sondern durch uns zur Verfügung stellen möchten. Das vergüten wir mit einmaligen/ monatlichen Verkaufsprovisionen, kostenlosen Zugang zu unseren Trainings und Konferenzen, Präsenz auf unserer Webseite und Early-Access bei Updates und neuen Diensten. Wer es genauer wissen möchte, kann einfach noch mal auf den Blogpost „Werde NWS Partner“ von Leonie schauen oder uns unter sales@netways.de kontaktieren.

Pünktlich zu Weihnachten gab es für unsere OpenStack- und Kubernetes-Kunden noch ein besonders schönes Geschenk. Denn von nun an lassen sich neue VMs, Floating IPs und Keys direkt in unserem NWS-Webinterface in den Projekten hinzufügen. Das ist deutlich übersichtlicher, schneller und einfacher als über die bisherige OpenStack-API oder über cloud.netways.de ( diese beiden Wege stehen Expert:innen für die wesentlich detaillierteren Einstellungsmöglichkeiten aber selbstverständlich weiterhin zur Verfügung). Auch hierzu gibt es mit Ranias Blog „Neue OpenStack Integration im NWS Kundenportal“ eine super Anleitung, in der Schritt für Schritt die neuen Features vorgestellt und erläutert werden.

Aber nicht nur zum Jahresende ist viel passiert. Auch für 2022 können wir bereits Neueinführungen verkünden.

Wir haben noch einmal kräftig in neue Hardware investiert und sind stolz unseren Kunden nun auch GPU-gestützte Rechenleistung zur Verfügung stellen zu können. Alle, die also sehr große oder komplexe Datenmengen besonders schnell verarbeiten wollen, finden nun in unseren GPU-bestückten Servern die richtige Auswahl an VM-Modellen. Zum Einsatz kommen hier NVIDIA A10 Grafikprozessoren. Der A10 basiert auf der neuesten NVIDIA Ampere Architektur und kombiniert RT Cores der zweiten Generation, Tensor Cores der dritten Generation und neue Streaming-Mikroprozessoren mit 24 Gigabyte (GB) GDDR6-Speicher – das bringt optimale Grafik-, Rendering-, KI- und Rechenleistung. Einen ausführlicheren Artikel wird es hierzu in Kürze von Rania geben. Eine Übersicht über die neuen VM-Preismodelle g1 findet Ihr aber bereits hier: https://nws.netways.de/de/preise/

Die zweite Neuheit 2022 betrifft unser Jitsi: mit dem letzte Woche durchgeführten Jitsi Update ist es nun möglich in einem Call weitere Unterräume (sogenannte Breakout-Sessions) zu eröffnen. Ein Call in größerer Runde kann sich so in mehrere, kleine Gruppen aufteilen, um beispielsweise unterschiedliche Aufgaben parallel zu bearbeiten. Am Ende holt der Moderator alle Gruppen wieder in den Hauptcall, um die Ergebnisse noch einmal gemeinsam zu besprechen.

Dieses Feature haben viele bisher immer schmerzlich bei Jitsi vermisst – nun bekommen alle, die nach einer DSGVO-konformen Video-Call-Lösung mit Untergruppen-Funktion suchen, bei uns die neue Jitsi App – einfach das passende Paket auf https://nws.netways.de/de/apps/jitsi/ raussuchen und schon könnt Ihr mit Euren Meetings loslegen.

Unser Techniker Joshua hat das Feature auch noch mal ausführlich in dem Artikel „New Jitsi Break out room feature“ getestet und vorgestellt.

Ihr seht also, dass bei uns ständig alles im Fluss ist und wir stetig bemüht sind, mit unseren Managed Services am Puls der Zeit zu sein.

Das war also der Überblick der letzten Monate. In meinem nächsten Blog werde ich verraten, was künftig so alles von uns zu erwarten sein wird. Ihr dürft also schon gespannt sein.

Stefan Schneider
Stefan Schneider
Account Manager

Vor seiner Zeit bei NETWAYS hat Stefan als Projektmanager in einer Nürnberger Agentur dabei geholfen, Werbeprojekte auf die Straße zu bringen. Seit Juni 2017 ist er nun stolzes Mitglied der NETWAYS-Crew. Hier war er zuerst der Ansprechpartner für unserer Schulungen und kümmert sich aktuell um alle Anfragen rund um unser Hostingangebot. Die Freizeit vertreibt sich Stefan am liebsten mit Sport. Vom Joggen über Slacklining bis zum PennyBoard fahren ist er für alles zu haben.

Neue Openstack Integration im NWS Kundenportal

Pünktlich zu Weihnachten beschenken wir unsere NWS Kunden mit einer kleinen, aber feinen Neuerung im Kundenportal von nws.netways.de. Dort könnt ihr ab sofort mit den ersten OpenStack Objekten/Ressourcen aus dem NWS Webinterface interagieren! VMs, Floating IPs und Keys lassen sich jetzt direkt im Kundenportal übersichtlich, schnell und einfach erstellen, anzeigen oder löschen. Weitere OpenStack Objekte/Ressourcen werden konsequenterweise im neuen Jahr folgen.

Für unsere Kunden hat das den Vorteil, dass sie über die vereinfachte Maske unkompliziert neue virtuelle Maschinen anlegen können, ohne sich – wie bisher – durch ein detaillierteres Interface zu klicken. Der bisherige Zugriff über die Openstack API sowie über cloud.netways.de, bleibt aber natürlich für unsere IT-Expert:innen weiterhin bestehen.

Welche Vorteile bringt die neue OpenStack Integration?

Zusätzlich zur einfacheren Benutzerführung wurde zudem das neue Interface deutlich schneller und asynchron umgebaut. Aufgaben wie das Erstellen von VMs oder Kubernetes Clustern, die in der Regel mehrere Sekunden bis Minuten benötigen, werden ab heute im Hintergrund verarbeitet. Einsehen könnt ihr diese Aufgaben über das Zahnrad neben dem Nutzerprofil. Alle laufenden Aufgaben lassen sich dort jederzeit abrufen.

Somit lassen sich alle VMs einfach und übersichtlich steuern und die Prozesse laufen im Hintergrund ab, ohne dass ihr sie weiter im Auge behalten müsst. Das bedeutet, dass ab jetzt zusätzlich andere Aufgaben hinzugefügt werden können!

Was genau ist also jetzt neu?

Ebenso neu im OpenStack Interface sind die Punkte Servers, Key Pairs und Floating IPs:

  • Servers – Dies ist der wichtigste Abschnitt, unter dem die Erstellung der VMs stattfindet. Hier findet man zudem eine schnelle Übersicht über den Zustand aller aktiven Produkte.
  • Key Pairs die SSH-Schlüssel lassen sich hier einfach einsehen und verwalten
  • Floating IPs Server IP-Adressen lassen sich hier einsehen und löschen

Wie starte ich schnell und einfach diese VMs?

Bei der Erstellung eines neuen Servers hat man die Möglichkeit, den Server seinem Cluster zuzuordnen, ein Betriebssystem zu wählen, die benötigten Server Ressourcen festzulegen, einen SSH Schlüssel zu hinterlegen und die Port Freigabe festzulegen.

Im Interfacesieht sieht das dann wie folgt aus, wenn Du die einzelnen Optionen auswählst:

 

Und nicht vergessen einen Haken bei Terms of Service und Privacy Terms zu setzen! 🙂

Bearbeiten, während Du arbeitest!

Sobald alles ausgewählt ist und Du auf Create geklickt hast, geht’s direkt los. Du musst nicht auf die komplette Erstellung des Servers warten, sondern kannst direkt eine IP Adresse vergeben, die Ports nochmal abändern oder den Server auch direkt wieder löschen.

Parallel dazu kannst Du die einzelnen Aufgaben über das Zahnrad neben dem Login einsehen, während diese im Hintergrund ablaufen und wirst sofort benachrichtigt, sobald eine abgeschlossen ist.

 

In der Servers Übersicht, können die laufenden Server mit ihren eingestellten Ressourcen eingesehen werden. Ein Teil der Verwaltungsfunktionen sind direkt in der NWS Übersicht abrufbar. Funktionen die aktuell verfügbar sind:

 

  • Release/Associate Floating IP – Einsehen/Löschen
  • Edit Firewall Rules – Einstellungen Port Freigabe
  • Open Console – Direkter Zugriff auf die Server Console
  • Destroy – Löschen des Servers

 

 

Bei Problemen mit der Erstellung oder Verwaltung der VMs stehen unsere MyEngineers jederzeit gerne mit Rat und Tat zur Seite. Wir sind zum Beispiel über das Kontaktformular zu erreichen.

Ein frohes Fest und schöne Feiertage wünscht Euch NETWAYS Web Services!

4 Dinge, die neu sind bei NWS Kubernetes

Getreu dem Motto: „you answered – we listened“ hat unser NWS-Platform-Team diese Woche für unsere Kunden neue Optionen zum Erstellen von Managed Kubernetes Clustern eingeführt, die im folgenden kurz erläutert und vorgestellt werden:

 

1. Neue Kubernetes Versionen

Das neueste Kubernetes Major Release 1.21 ist jetzt – einen Monat nach dem offiziellem Release – auch für NWS Kunden einsatzbereit! Änderungen und Neuigkeiten findet man wie gewohnt im offiziellen Changelog.

Neben der aktuellen Version 1.21 gibt es weiterhin die Möglichkeit, Kubernetes Cluster in den Versionen 1.18, 1.19 und 1.20 zu erstellen. Die Version 1.18 ist  jedoch bereits „End of Life“ und deswegen nicht mehr unbedingt zu empfehlen.

 

Kubernetes Cluster erstellen

2. Private Cluster

Beim Erstellen eines Clusters kann man ab sofort zwischen einem „Private“ oder einem „Public“ Cluster wählen. Damit wird die Erreichbarkeit der Kubernetes-API des Clusters gesteuert. Ein privater Cluster hat nur eine interne IP und keine weitere öffentliche Floating-IP und ist dementsprechend nur von innerhalb der Kundenumgebung (OpenStack- oder Kubernetes-Projekt) erreichbar oder via VPN.

 

3. Individuelle Subnetze

Ebenso kann beim Erstellen eines neuen Clusters das Subnetz – in dem die Nodes kommunizieren – frei gewählt werden. Das ist insbesondere dann hilfreich, wenn man einen privaten Kubernetes Cluster per VPN mit einem bestehenden Firmennetz verbindet!

 

4. Rotate CA

Das Rotieren der Kubernetes CA kann jetzt über die Web-Oberfläche angestoßen werden. Es wird eine neue Cluster CA erzeugt und entsprechend neue Schlüssel und Zertifikate für Service-Accounts und Kubernetes-Nodes verteilt. Die bestehende kubeconfig-Datei des Administrators muss dann durch eine neue ausgetauscht werden.

 

Kubernetes Tutorials

Wer sich nochmal eine genaue Anleitung, wie man schnell und einfach sein Managed Kubernetes bei NWS aufsetzt, durchlesen möchte, der findet diese und viele weitere Kubernetes Tutorials auf unserer Website. Gerne mal vorbeischauen!

Sebastian Saemann
Sebastian Saemann
CEO Managed Services

Sebastian kam von einem großen deutschen Hostingprovider zu NETWAYS, weil ihm dort zu langweilig war. Bei uns kann er sich nun besser verwirklichen, denn er leitet das Managed Services Team. Wenn er nicht gerade Cloud-Komponenten patched, versucht er mit seinem Motorrad einen neuen Rundenrekord aufzustellen.

How To NWS: MyEngineer

MyEngineer

Heute möchte ich die Übersicht über unser NWS-Portfolio abschließen.

In den letzten Blogs habe ich all unsere technischen NWS-Dienste und deren Möglichkeiten vorgestellt. Du kannst Dir Deine passende App auf unserer Selfservice SaaS-Plattform raussuchen und direkt starten. Diese fährt automatisch hoch und ist innerhalb von weniger als fünf Minuten einsatzfähig. Auf unserer Netways Cloud based on OpenStack kannst Du Dir für Deine Projekte alle nötigen Compute-, Netzwerk und Storage-Ressourcen zusammenstellen, ohne dafür in eigene Hardware investieren zu müssen.  Und mit Kubernetes bekommen all unsere Kunden, die containerbasierte Apps einsetzten wollen, ein extrem performantes und voll gemanagtes Orchestrierungstool.

Komplettiert wird dieses ganze Angebot nun mit der letzten Säule: unserem MyEngineer Support Service.

Wer das nötige Knowhow und die Zeit hat, kann all die vorher genannten Dienste selbst über unser Portal https://my.nws.netways.de/ starten und komplett eigenständig betreiben. Eine Interaktion mit uns ist im Prinzip nicht notwendig. Es gibt aber diverse Situationen, in denen unsere Kunden gerne auf unseren MyEngineer Service zurückgreifen.

  1. Fokus auf die Kernaufgaben

Zum einen gibt es Unternehmen, die sich von der Last der Betreuung Ihrer Infrastruktur befreien wollen. Denn auch wenn man seine Dienste bei einem Hoster betreibt, müssen diese Anwendungen und die Infrastruktur drumherum ja gepflegt werden. Wer also den Kopf frei bekommen möchte, von den Problemen rund um Betrieb und Support und einfach nur eine stets einsatzfähige Anwendung nutzen möchte, der gibt die unliebsamen Arbeiten an den MyEngineer ab. Liegen für den Dienst beispielsweise Updates vor, melden sich die technischen Kollegen, sprechen die gewünschten Time-Slots ab und führen die Arbeiten dann so aus, dass der Arbeitsflow des Kunden möglichst wenig von dem Update-Prozess betroffen ist.

  1. Fehlendes Fachwissen

Der zweite Fall betrifft das umfangreiche Fachwissen, das für den Betrieb von OpenStack oder rund um die Anwendung von Kubernetes nötig ist. Beides sind hoch komplexe Themengebiete und nicht jedes Unternehmen hat die Ressourcen sich in diese tiefgreifend einzuarbeiten. Denn das bedeutet Zeit zu investieren, die die Mitarbeiter dann nicht mehr zur Verfügung haben, um sich um die Belange ihrer Kunden kümmern zu können. Das heißt aber nicht, dass diese Unternehmen die Vorteile von OpenStack und Kubernetes deswegen nicht nutzen können. Denn diese Lücken werden durch unseren MyEngineer-Service gefüllt. Wir haben in unserem Team für jeden Dienst unseres Portfolios diverse Spezialisten, die jahrelange Erfahrung gesammelt und bislang noch für jedes Problem die richtige Lösung gefunden haben. Unsere System Engineers stehen jederzeit (auch 24/7) für alle Probleme und Anliegen mit Rat und Tat zur Seite.

  1. Realisierung individueller Vorstellungen

Und zu guter Letzt kann es vorkommen, dass Du innerhalb Deiner Anwendung ein bestimmtes Feature brauchst, das bislang aber noch nicht realisiert wurde. In enger Absprache schauen wir auf Wunsch gerne, wie wir dieses Feature integrieren können. Einem unserer Kunden war es beispielsweise sehr wichtig, dass sich Mitarbeiter und Kunden auch telefonisch in ihre Jitsi-Videomeetings einwählen können. Dieses Feature gab es in Jitsi noch nicht und so machten wir uns auf die Suche. Innerhalb von kurzer Zeit konnten wir zusammen mit einen Partner die Telefoneinwahl via SIP Trunking bei unserem Kunden erfolgreich integrieren. Da unser Kunde so happy und zufrieden war, haben wir zu diesem Projekt noch eine Success Story machen können. Die gibt es hier:

https://www.netways.de/netways/kunden/thueringer-aufbaubank/

Funktionsweise

Generell funktioniert der MyEngineer folgendermaßen: Du klickst im NWS-Portal auf MyEngineer und schon bekommen wir die Info, dass Du gerne unsere Unterstützung in Anspruch nehmen möchtest. Hierbei buchst Du keine Pauschale, die dann monatlich abgerechnet wird – egal, ob Hilfe geleistet wurde oder nicht.  Nein, wir arbeiten hier auf Zuruf und nach Absprache. Du sagst uns, wo welche Unterstützung nötig ist, und wir setzen diese dann um. Das geht von der voll gemanagten Jitsi Cloud Umgebung (basierend auf OpenStack; inkl. Einrichtung, Wartung und Betrieb) bis hin zum Consulting für beispielsweise die Konzeption einer notwendigen CI-CD-Pipeline für den optimalen Einsatz von Kubernetes. Abgerechnet wird dabei stets nur die Zeit, die in Anspruch genommen wurde. Das Abrechnungsintervall beträgt 15 Minuten. Dabei kannst Du die geleisteten Stunden und die Tickets, mit den jeweiligen Absprachen, jederzeit über unser NWS-Dashboard einsehen. Das sorgt für Kostenübersicht, Transparenz und letztendlich für rundum zufriedene Kunden.  Die MyEngineers bilden somit also den wichtigsten Baustein für unser Rundum-Sorglos-Paket.

Für alle, die sich noch mal ein genaues Bild machen möchten, geht es hier zur MyEngineer-Übersicht: https://nws.netways.de/de/myengineer/

Stefan Schneider
Stefan Schneider
Account Manager

Vor seiner Zeit bei NETWAYS hat Stefan als Projektmanager in einer Nürnberger Agentur dabei geholfen, Werbeprojekte auf die Straße zu bringen. Seit Juni 2017 ist er nun stolzes Mitglied der NETWAYS-Crew. Hier war er zuerst der Ansprechpartner für unserer Schulungen und kümmert sich aktuell um alle Anfragen rund um unser Hostingangebot. Die Freizeit vertreibt sich Stefan am liebsten mit Sport. Vom Joggen über Slacklining bis zum PennyBoard fahren ist er für alles zu haben.