pixel
Seite wählen

NETWAYS Blog

Hier erfährst Du alles was uns bewegt. Technology, Hardware, das Leben bei NETWAYS, Events, Schulungen und vieles mehr.

NWS-ID for your Managed Kubernetes!

NWS-ID for your Managed Kubernetes!

First Cloud, now Kubernetes - the integration of NWS-ID with our portfolio continues! As a next step, we will merge your Managed Kubernetes clusters with NWS-ID. Credit goes to Justin for extending our cluster stack with OpenID-Connect (OIDC), the base for NWS-ID! How...

NETWAYS Winterseminar 2023

NETWAYS Winterseminar 2023

Nach langen Jahren Pause war es endlich wieder so weit: wir konnten unsere traditionelle Skifahrt antreten! Unser treuer Busfahrer Mario holte uns am Freitag im NETWAYS HQ in Nürnberg  ab und brachte uns sicher in den Bayerischen Wald zum Landhaus Frauenberg. Ein paar...

Beratung & Technology

NWS-ID for your Managed Kubernetes!

NWS-ID for your Managed Kubernetes!

First Cloud, now Kubernetes - the integration of NWS-ID with our portfolio continues! As a next step, we will merge your Managed Kubernetes clusters with NWS-ID. Credit goes to Justin for extending our cluster stack with OpenID-Connect (OIDC), the base for NWS-ID! How...

Foreman Birthday Event 2023 – Save the date

Foreman Birthday Event 2023 – Save the date

I can happily announce we will have a Birthday event on 27.07. this year again. I will be our host again, supported by my colleagues from NETWAYS, ATIX and the Foreman Project. When I talked to people at Cfgmgmtcamp, I was told by many that they really liked the...

Events & Trainings

Foreman Birthday Event 2023 – Save the date

Foreman Birthday Event 2023 – Save the date

I can happily announce we will have a Birthday event on 27.07. this year again. I will be our host again, supported by my colleagues from NETWAYS, ATIX and the Foreman Project. When I talked to people at Cfgmgmtcamp, I was told by many that they really liked the...

OSMC 2023 | Save the Date!

OSMC 2023 | Save the Date!

Are you in? Make sure to mark your calendars for the 17th edition of the Open Source Monitoring Conference. OSMC 2023 will take place form November 07 – 09 in Nuremberg, Germany. The three-day event comprises up to four workshops on the first conference day, followed...

Web Services

NWS-ID for your Managed Kubernetes!

NWS-ID for your Managed Kubernetes!

First Cloud, now Kubernetes - the integration of NWS-ID with our portfolio continues! As a next step, we will merge your Managed Kubernetes clusters with NWS-ID. Credit goes to Justin for extending our cluster stack with OpenID-Connect (OIDC), the base for NWS-ID! How...

New at NWS: Managed OpenSearch

New at NWS: Managed OpenSearch

We’re happy to announce our brand new product Managed OpenSearch, which we are offering due to our new partnership with Eliatra Suite. Eliatra is your go-to company for OpenSearch, the Elastic Stack and Big Data Solutions based on specialised IT security knowledge....

Sommer, Sonne, Software – Rückblick CIVO NAVIGATE 2023

Sommer, Sonne, Software – Rückblick CIVO NAVIGATE 2023

Anfang Februar durfte ich nach Tampa, Florida reisen, um auf der IT-Konferenz Civo Navigate zu sprechen, die in diesem Rahmen zum ersten Mal stattfand. Mit Beiträgen rund um Kubernetes, Edge Computing, Machine Learning, DevOps, GitOps, Observability, Security und...

Hardware

HWgroup: Firmeware Update Ares 12

Wir möchten Dich auf einen potentiell kritischen Fehler bei den Ares 10 / 12 Produkten (GSM und LTE Versionen) von HWgroup aufmerksam machen. Es kann vorkommen, dass Warnmeldungen (SMS oder E-Mail) nicht zugestellt werden. Die neueste Firmware behebt aber dieses...

HWgroup: Firmeware Update Ares 12

Wir möchten Dich auf einen potentiell kritischen Fehler bei den Ares 10 / 12 Produkten (GSM und LTE Versionen) von HWgroup aufmerksam machen. Es kann vorkommen, dass Warnmeldungen (SMS oder E-Mail) nicht zugestellt werden. Die neueste Firmware behebt aber dieses...

HWgroup: Firmeware Update Ares 12

HWgroup: Firmeware Update Ares 12

Wir möchten Dich auf einen potentiell kritischen Fehler bei den Ares 10 / 12 Produkten (GSM und LTE Versionen) von HWgroup aufmerksam machen. Es kann vorkommen, dass Warnmeldungen (SMS oder E-Mail) nicht zugestellt werden. Die neueste Firmware behebt aber dieses...

Das erste Shop-Webinar in 2023!

Das erste Shop-Webinar in 2023!

Dieses Jahr werden wir unseren Webinar-Kalender mit einem Thema beginnen, welches wir in 2023 aktiv weiter ausbauen werden - die Webinare rund um den NETWAYS Online-Store. Hier bieten wir nicht nur Hardware rund um Umweltüberwachung wie Temperatur- und...

Mit wenigen Clicks in die STARFACE-Cloud

Mit wenigen Clicks in die STARFACE-Cloud

Wir als NETWAYS sind bereits seit vielen Jahren STARFACE-Partner und bieten für unsere Kunden über den Online-Store Anlagen und Lizenzen zum Kauf an. Aber wusstet Ihr, dass man über uns auch Zugang zur STARFACE-Cloud erhält? Das Prinzip dahinter ist sehr einfach. Ihr...

SMSEagle: Neue Software Version 4.40

SMSEagle: Neue Software Version 4.40

SMSEagle hat vor zwei Wochen eine neue Software Version rausgebracht. Diese Version enthält neue Funktionen, verschiedene Verbesserungen und auch Fehlerbehebungen. Was enthält die neue Version 4.40? Hier findest Du eine Liste der wichtigsten Änderungen: Email to SMS...

Unternehmen

NETWAYS Winterseminar 2023

NETWAYS Winterseminar 2023

Nach langen Jahren Pause war es endlich wieder so weit: wir konnten unsere traditionelle Skifahrt antreten! Unser treuer Busfahrer Mario holte uns am Freitag im NETWAYS HQ in Nürnberg  ab und brachte uns sicher in den Bayerischen Wald zum Landhaus Frauenberg. Ein paar...

Alle Beiträge

Kubernetes 101: Architektur und API

This entry is part 2 of 2 in the series Alles rund um Kubernetes

Hi! Ich bin Daniel, Open Source IT Consultant und großer Kubernetes-Fan. Zukünftig nehme ich dich in meiner neuen Blogserie „Alles rund um Kubernetes“ mit auf eine Reise in die Welt von Kubernetes. Den Start dieser neuen Reihe macht eine Serie von Artikeln rund um das Thema „Kubernetes 101“. In deren Verlauf werde ich verschiedene Aspekte der Arbeit mit und auf Kubernetes beleuchten. Angefangen bei einer Vorstellung des Tools selbst und der dahinterstehenden Ideologie über die Installation auf unterschiedlichen Betriebssystemen in verschiedensten Umgebungen bis hin zum Betrieb und der Absicherung eines Kubernetes-Clusters werde ich auf viele Szenarien und Gesichtspunkte eingehen.
In diesem zweiten Artikel geht es um die Architektur und die API eines Kubernetes Clusters. „Welche Teile des Clusters greifen wie ineinander?“,  „Was sind grundlegende API-Ressourcen, die ich im Alltag brauche?“ Und  „Wie greife ich auf sie zu?“ Und nun viel Spaß bei deinem Einstieg in die Container-Orchestrierung!

 

In meinem ersten Blogpost ging es zuerst einmal darum zu klären, was Kubernetes denn eigentlich ist. Jetzt, wo wir ergründet haben, welche Ansätze und Ideen Kubernetes verfolgt und warum diese sinnvoll sein können, gehen wir einen Schritt weiter, und schauen uns an, wie Kubernetes diese umsetzt. Dafür wollen wir zwei Aspekte betrachten: Zum Einen der Aufbau eines Kubernetes-Clusters selbst, inklusive aller Teilbausteine, die für den reibungslosen Betrieb benötigt werden. Zum Anderen die im letzten Blogpost bereits mehrfach erwähnte API, die Kubernetes zur Verfügung stellt, und die uns eine ganze Bandbreite an API-Ressourcen anbietet, mit denen wir auf Kubernetes arbeiten können. Let’s get going!

Aufbau eines Kubernetes-Clusters

Beginnen wir mit einem sog. „Ten-Thousand Foot View„, um uns den groben Aufbau eines Kubernetes-Clusters auf Infrastrukturebene vor Augen zu führen:

Überblick eines Clusteraufbaus, bestehend aus Dataplane, Workernodes und Loadbalancer

Wir sehen hier ein Cluster bestehend aus 8 Nodes – drei sog. Leader-Nodes und fünf Follower-Nodes. Die Leader-Nodes bilden zusammen die sog. Controlplane des Clusters und stellen Dienste wie clusterinternes DNS und die Kubernetes-API bereit. Um die Kubernetes-API und damit letzten Endes das Cluster hochverfügbar zu machen, wird der Controlplane ein Loadbalancer vorgelagert. In Cloud-Umgebungen ist dies oft per Default die bereitgestellte Lösung des jeweiligen Providers, in eigenen Rechenzentren oder on-premise kann hierfür auf Lösungen wie HAProxy oder MetalLB zurückgegriffen werden. Best Practices diktieren, dass auf den Leader-Nodes möglichst keine Anwendungen deployed werden sollten, die nicht für den Betrieb des Kubernetes-Clusters selbst benötigt werden.

Hierfür sind die fünf Follower-Nodes gedacht, die mit der Kubernetes-API ebenfalls via Loadbalancer interagieren und die für den jeweiligen Node gescheduleten Anwendungen ausführen. Auf diesen Nodes können beliebige Anwendungen entsprechend der jeweils verfügbaren Ressourcen deployed werden. Die Kubernetes-API in der Controlplane kümmert sich hierbei um ein passendes Scheduling, damit Ressourcen auf den Follower-Nodes nicht erschöpft werden und angegebene Voraussetzungen wie bspw. spezielle benötigte Hardware (GPU, SSD, etc.) auf dem jeweiligen Node erfüllt werden.
Die letzte im Schaubild dargestellte Komponente stellt eine lokale Terminalsession auf Seiten eines Endnutzers dar. Dieser kommuniziert mit der Kubernetes-API via kubectl, dem de-facto Standardtool für Interaktion mit der Kubernetes-API von außerhalb des Clusters.

Doch welche Komponenten laufen denn nun auf den jeweiligen Node-Klassen? Gehen wir doch einmal etwas weiter ins Detail:

Wir sehen hier exemplarisch jeweils einen Leader und Follower-Node als VMs in der Detailansicht, mit all den Anwendungen, die auf den jeweiligen Node-Klassen typischerweise installiert sind. Gehen wir die verschiedenen Anwendungen doch einmal durch:

  • etcd – Key/Value-Store für den Zustand und die Historie der Kubernetes-API; Wird normalerweise auf den Leader-Nodes installiert, kann allerdings auch auf externe Maschinen ausgelagert werden
  • kube-apiserver – PI-Server des Kubernetes-Clusters; Wird für Hochverfügbarkeit auf allen Leader-Nodes installiert
  • kube-scheduler – Kümmert sich um das Scheduling der in das Cluster deployten Anwendungen; Wird auf Leader-Nodes installiert
  • kube-controller-manager – Ein Bündel an sog. Kubernetes-Controllern, das sich um die Verwaltung verschiedener Kubernetes-Ressourcen kümmert; Wird auf Leader-Nodes installiert
  • kubeletKommuniziert mit der Kubernetes-API und der lokalen Container-Runtime, um Container auf den Nodes auszuführen; Wird auf allen Nodes installiert
  • kube-proxyRoutet Netzwerk-Traffic zu Containern, sobald dieser auf den jeweiligen Nodes ankommt; Wird auf allen Nodes installiert
  • Container Runtime – Im Beispiel containerd; andere Implementierungen sind möglich, bspw. CRI-o; Wird auf allen Nodes installiert

Zu erwähnen ist, dass nicht alle Cluster so aussehen müssen. Beispielsweise ließe sich auch eine Controlplane umsetzen, auf der keinerlei Container ausgeführt werden – in diesem Fall könnte man auf die Installation von kubelet, kube-proxy und containerd auf Leader-Nodes verzichten (für eine Referenzinstallation s. Kubernetes the Hard Way auf GitHub). Auf Clustern in der Cloud wird man außerdem fast immer einen sog. cloud-controller-manager auf Leader-Nodes finden, der gewisse Funktionalitäten im Cloud-Bereich integriert, bspw. automatische Provisionierung benötigter Loadbalancer in der hostenden Cloud.

Auch können sich die genauen Ausprägungen einer Kubernetes-Installation je nach Kubernetes-Distribution unterscheiden – momentan listet die CNCF 59 zertifizierte Distributionen. K3s bspw. bündelt die verschiedenen Komponenten in eine Binary, was den Betrieb im Alltag etwas erleichtern kann und den Ressourcen-Fußabdruck des Clusters senkt.

Die Kubernetes‘ API – endlose Weiten

Haben wir unser Cluster nun wie oben skizziert (oder ganz anders) installiert, möchten wir natürlich mit ihm interagieren – hierfür gibt es verschiedene Möglichkeiten, angefangen bei cURL über das offizielle Kubernetes Dashboard bis zu Wrappern für das lokale Terminal. Letzteres ist der gängigste Weg – fast alle Tutorials und technische Dokumentationen rund um Kubernetes und darauf zu installierende Anwendungen erwähnen kubectl, was sich auf jedem gängigen Betriebssystem paketiert installieren lassen sollte. Haben wir kubectl lokal installiert und eingerichtet (wir benötigen eine sog. kubeconfig, die Verbindungsinformationen für unser(e) Cluster enthält), können wir uns zum ersten Mal die Kubernetes-API anschauen:

beispielhafter Aufruf von kubectl api-resources mit wordcount nach Zeilen: 70

Je nach Cluster (im Beispiel ein Rancher Desktop Cluster) scheint uns Kubernetes zwischen 60 und 70 verschiedene API-Objekte anzubieten! Wo also anfangen und wo aufhören? Oder gleich alle 70 behandeln? Fangen wir doch einfach mit der kleinsten Einheit an Workload an, die Kubernetes für uns bereit hält – dem Pod. Ein Pod kapselt einen oder mehrere Container in einem Bündel, das sich Netzwerk- und Speicherressourcen teilt.

Daraus folgt, dass alle Container eines Pods immer auf demselben Node gescheduled werden. Ein Pod alleine profitiert allerdings noch nicht von Kubernetes‘ Orchestrierungsmöglichkeiten – ist bspw. der hostende Node nicht erreichbar, können wir auch die in unserem Pod laufenden Anwendungen nicht mehr erreichen.

Wir benötigen also eine weitere Abstraktionsebene, die es uns erlaubt, mehrere identische Pods auf verschiedene Nodes zu schedulen: das sog. Deployment. Ein Deployment definiert ein Pod-Template, sowie eine Anzahl an gewünschten Repliken und weitere Konfiguration, die von Kubernetes zur Orchestrierung des Deployments genutzt wird. Unter der Haube wird dann vom API-Server ein ReplicaSet erzeugt, das die gerenderte Version des Pod-Templates enthält.

Auf diese Weise ermöglicht eine Deployment-Ressource uns nicht nur die Ausführung mehrerer Repliken eines einzelnen Pods, sondern auch eine Versionierung verschiedener ReplicaSets – wieviele genau von der Kubernetes-API gespeichert werden, hängt von den Einstellungen des API-Servers zusammen. Hier nochmal ein Schaubild zu den Zusammenhängen:

Ein Überblick der Zusammenhänge zwischen Deployments, ReplicaSets und Pods in Kubernetes

Zu sehen ist ein Deployment mit drei dazugehörigen ReplicaSets, die sich in der Anzahl der definierten Replicas unterscheiden (Kubernetes erstellt bei jeglicher Änderung eines Deployments ein neues ReplicaSet, nicht nur bei Änderung der Replicas). Das momentan aktive ReplicaSet wiederum verwaltet der Konfiguration entsprechend fünf Pods.

Möchte man seine deployten Anwendungen nun untereinander oder für Endnutzer außerhalb des Clusters verfügbar machen, kommen Services ins Spiel. Ein Service ist eine API-Ressource, die einen gewissen Pool an Pods als Endpoints definiert und für diese als Round-Robin Loadbalancer fungiert. Auf diese Weise benötigt man nur eine IP, um zuverlässig einen funktionalen Pod eines Deployments zu erreichen. Kubernetes kümmert sich hierbei automatisch darum, Traffic nur zu funktionalen Pods weiterzuleiten.
Es gibt drei Arten von Services:

  • ClusterIP – der Service erhält eine innerhalb des Clusters erreichbare IP-Adresse, ist von außerhalb des Clusters aber nicht ohne Weiteres zu erreichen
  • NodePort – der Service wird auf jedem Node auf einem zufälligen, hohen Port (ca. 30.000+) verfügbar gemacht
  • Loadbalancer – eine Erweiterung des NodePort-Typs, wobei den Ports ein Loadbalancer vorgelagert wird; funktioniert am reibungslosesten in Public Clouds

Zusätzlich gibt es die Möglichkeit, HTTP-Traffic anstatt mittels Loadbalancer auf L4 mit einem sog. Ingress auf L7 zu routen – die Konfiguration unterscheidet sich hierbei abhängig vom genutzten IngressController.

Weitere nennenswerte, grundlegende API-Ressourcen innerhalb von Kubernetes-Clustern wären bspw. Namespaces zur Trennung von anwendungslogisch zusammenhängenden Deployments etc. sowie zur Umsetzung von role-based access control (RBAC), Secrets zur Bereitstellung vertraulicher Daten wie bspw. Passwörtern, Zertifikaten, oder Token, und ConfigMaps für häufig genutzte Konfigurationssnippets. Wer mitgezählt hat wird merken, dass wir gerade erst bei 7 von den oben angezeigten 70 Ressourcentypen angekommen sind – und das ist noch lange nicht das Ende der Fahnenstange, da eine der Stärken der Kubernetes-API schließlich ihre Erweiterung durch sog. CustomResourceDefinitions (CRDs) ist. Für einen ersten Einblick soll der momentane Stand trotzdem fürs Erste genügen.

kubectl – das Schweizer Taschenmesser für Kubernetes

Bereits im letzten Absatz eingangs erwähnt, ist jetzt der Moment für kubectl gekommen, das offizielle Kommandozeilentool für den täglichen Umgang mit Kubernetes und seiner API. Ich könnte an dieser Stelle mehrere 1000 Wörter über den Gebrauch schreiben und trotzdem noch sehr viel unerwähnt lassen, und genau aus diesem Grund folgt nun gemäß dem Motto „Ein Bild sagt mehr als tausend Worte“ lediglich eine Auflistung einiger gängiger und oft genutzter kubectl Kommandos, um einen ersten Eindruck von der Nutzung des Tools zu bekommen.

Screenshot eines Terminals mit mehreren Ausgaben von kubectl

Hier zu sehen sind einige der häufigsten Kommandos, zu denen neben get und create wohl auch noch apply, logs und describe gehören dürften. Neben dem expliziten (imperativen) Erstellen von API-Ressourcen via CLI können mit kubectl auch bestehende Kubernetes-Manifeste (in YAML oder JSON) in das Cluster „gepusht“ werden, was einem deklarativen Ansatz entspricht und in der Praxis der gängigere Weg ist.

Für heute war das aber genug trockene Theorie rund um Architektur, API-Aufbau und Clusterkomponenten – im nächsten Teil der Serie werden wir uns genauer anschauen, wie wir uns denn nun basierend auf der in diesem Artikel erläuterten Architektur unser eigenes Cluster installieren können, entweder auf lokaler Infrastruktur, in der Cloud (z.B. Managed Kubernetes bei NMS), oder auf deinem persönlichen Rechner! Abonniere also gerne auch den RSS-Feed unseres Blogs und sei bereit für den nächsten Artikel der Kubernetes 101 Reihe!

Daniel Bodky
Daniel Bodky
Consultant

Daniel kam nach Abschluss seines Studiums im Oktober 2021 zu NETWAYS und berät nun Kunden zu den Themen Icinga2 und Kubernetes. Nebenher schreibt er in seiner Freizeit kleinere Tools für verschiedenste Einsatzgebiete, nimmt öfters mal ein Buch in die Hand oder widmet sich seinem viel zu großen Berg Lego. In der wärmeren Jahreszeit findet man ihn außerdem oft auf dem Fahrrad oder beim Wandern.

NWS-ID for your Managed Kubernetes!

First Cloud, now Kubernetes – the integration of NWS-ID with our portfolio continues! As a next step, we will merge your Managed Kubernetes clusters with NWS-ID. Credit goes to Justin for extending our cluster stack with OpenID-Connect (OIDC), the base for NWS-ID!

How can you use your Kubernetes Cluster with NWS-ID?

All you need is kubelogin, a plugin for kubectl, and a customized kubeconfig, which can be downloaded in the NWS Customer Interface. But: this applies to newly started clusters only. Older installations need some action from you! Let’s go and see, what other scenarios there are!

If you have a cluster running with a Kubernetes v1.23 or greater, just enable NWS-ID in the Customer Interface. This will restart the kube-apiserver with some new parameters which will authenticate your requests against NWS-ID using OpenID-Connect.

For clusters in version v1.22 or less you need to update your cluster at least to v1.23 and enable NWS-ID in the Customer Interface. After your cluster is ready for NWS-ID you need to pimp your kubectl for OpenID-Connect.

kubectl and kubelogin

kubelogin is a plugin for kubectl, which enables authentication via OIDC. It is easily installed with brew, krew, choco or Github Releases as described in the official documentation. After the installation, just download your kubeconfig for NWS-ID from the Customer Interface and start using kubectl as usual!

If you have multiple Managed Kubernetes clusters it is easy to switch the context with kubectl config use-context MyCluster.

Permissions and Roles

If you’re not an admin in your organization, they must authorize your NWS-ID. This happens as usual in the user group management in the Customer Interface. As admin you can grant two different roles to your colleagues. Choose between admin and reader which will be mapped the to corresponding Kubernetes cluster role.

If you need some more detailed help, just have a look into our docs for User and Groups and Permissons.

What are the advantages of integrating our Managed Kubernetes with NWS-ID?

Combining these two services makes your daily work easier, because now you can:

  1. use a single login for the NWS Customer Interface, the Cloud Interface and your Kubernetes clusters
  2. effortless switch between your Managed Kubernetes clusters with a single kubeconfig
  3. use two-factor authentication for your Kubernetes clusters
  4. authorise your colleagues to access your clusters in the NWS-ID group management

What happens to the existing certificate authentication?

The authentication with the X509 client certificate is still available for everybody with the appropriate permissions in your organization.

 

Thanks again to Justin for expanding our Kubernetes stack! If you have any questions along the way, please feel free to contact us – we’re always there to help answer any open questions.

Achim Ledermüller
Achim Ledermüller
Lead Systems Engineer

Der Exil Regensburger kam 2012 zu NETWAYS, nachdem er dort sein Wirtschaftsinformatik Studium beendet hatte. In der Managed Services Abteilung ist unter anderem für die Automatisierung des RZ-Betriebs und der Evaluierung und Einführung neuer Technologien zuständig.

NETWAYS Winterseminar 2023

Nach langen Jahren Pause war es endlich wieder so weit: wir konnten unsere traditionelle Skifahrt antreten! Unser treuer Busfahrer Mario holte uns am Freitag im NETWAYS HQ in Nürnberg  ab und brachte uns sicher in den Bayerischen Wald zum Landhaus Frauenberg.

Ein paar der Kolleg:innen waren nach der strapaziösen Anfahrt etwas erschöpft und sind sofort schlafen gegangen, während andere die verschiedenen Aktivitäten der Unterkunft austesteten: Whirlpool, Billiard, Tischtennis und Sauna. Zum Glück gab es auch ein paar Freiwillige, die für uns alle kochten, und bald duftete es im gesamten Haus nach einem sehr leckeren Chili.

 

 

Am Samstag früh haben wir uns mit einem guten Frühstück gestärkt, und dann ging es für eine große Gruppe nach Österreich zum Skifahren.

Andere gingen Wandern oder spielten gemeinsam Spiele.

 

 

Am Abend waren haben wir uns alle wieder in der Unterkunft versammelt, als Chefkoch Bernd mit einigen fleißigen Helfern leckeres Gulasch mit Spätzle und Salat servierte.

Dann mussten wir nur noch dafür sorgen, dass nicht allzu viele Getränke übrig bleiben. Wir haben alles gegeben und es ist uns zum Glück ganz gut gelungen. 😉

Catharina Celikel
Catharina Celikel
Office Manager

Catharina unterstützt seit März 2016 unsere Abteilung Finance & Administration. Die gebürtige Norwegerin ist Fremdsprachenkorrespondentin für Englisch. Als Office Manager kümmert sie sich deshalb nicht nur um das Tagesgeschäft sondern übernimmt nebenbei zusätzlich einen Großteil der Übersetzungen. Privat ist der bekennende Bücherwurm am liebsten mit dem Fahrrad unterwegs.

NETWAYS Professional Services – 360° oder: Was Dich bei uns erwartet

NETWAYS ist ein Dienstleister für Open Source IT Infrastruktur. Wir bieten Dir 360° IT Services an und versorgen Dich rund um Deine Open Source Software und Infrastruktur mit allem, was Du für einen reibungslosen und sorgenfreien IT-Betrieb brauchst. Bei uns bekommst Du die passende Unterstützung, zusätzliche Arbeitskraft und das notwendige Wissen, um Deine Projektziele zu erreichen. Wir bieten Consulting, Outsourcing, Support und Trainingsalles aus einer Hand.

Das hört sich super an! Aber was bedeutet das genau? Bei welchen Themen, kannst Du Dich an uns wenden und was erwartet Dich dann? Wichtige Fragen, die ich heute für Dich klären möchte.

Unser Portfolio – ein Überblick

Unser Portfolio kannst Du Dir grob gesagt wie eine Matrix vorstellen. Während auf der horizontalen Achse unsere Dienstleistungen Consulting, Outsourcing, Support und Trainings stehen, sind auf der vertikalen Achse Produkte aus dem Open Source Bereich zu finden. Für den Bereich Monitoring & Metrics sind das Icinga, Prometheus, Grafana und InfluxDB, für den Bereich DevOps & Container Kubernetes und GitLab, für den Bereich Logging & Security Elastic und Graylog und für Automation Ansible, Puppet, Foreman und Terraform.

Als Dienstleister mit Leidenschaft versuchen wir, möglichst viele Felder dieser Matrix zu füllen. Stets am Zahn der Zeit bilden wir uns selbst ständig weiter, um für Dich die neuesten Tools und Technologien im Angebot zu haben. Also, was darfs sein? Und wie geht es weiter, wenn Du Dich für eines unserer Angebote interessierst? Wir stellen uns das so vor:

Schritt 1 – Kontaktaufnahme

Zuallererst trittst Du mit uns in Kontakt. Eine kurze Mail an sales@netways.de oder ein Anruf unter +49 911 92885-44 genügt. Hinter diesen Kontaktdaten verbirgt sich, Du ahnst es, unter Sales-Team. An dieser Stelle möchte ich ausdrücklich erwähnen, dass unser Sales-Team technisch sehr versiert ist. Unser Sales-Profi Christian beispielsweise beantwortet gerne alle technischen Fragen zu Icinga.

Christian ist seit über 10 Jahren bei NETWAYS, präsentiert unseren Kunden die Vorteile von Open Source Lösungen und bespricht die Möglichkeiten der Integration mit ihnen. Er arbeitet selbst intensiv mit Tools wie Icinga und ist der leitende Entwickler für Icinga für Windows. Du willst die Überwachung von Windows-Umgebungen so einfach wie möglich gestalten? Call Christian! Nur um hier keinen falschen Eindruck zu hinterlassen: Alle anderen im Team sind genauso versiert und wir können Dir nicht nur zu Icinga, sondern zu allen weiteren Produkten in unserem Portfolio weiterhelfen.

Schritt 2 – Vom Auftrag zum Projekt

Nach dem Gespräch mit Sales, bekommst Du selbstverständlich ein Angebot zugesendet. Nachdem Eure Beauftragung bei uns eingegangen ist, landet diese in unserer Projektplanung. Grob gesagt werden hier die Projekte den Consultants zugeschlüsselt. Wir betrachten es als „technische Disposition“. Was sich erstmal wie eine 0815 Verwaltungstätigkeit anhört, ist… Verwaltung, klar, aber nicht nur und sicher nicht 0815. Hier arbeiten ausgebildete Informatiker:innen, die einen Überblick über unsere Ressourcen und euer Projekt haben. Sie verstehen euer Projekt sowohl technisch als auch organisatorisch und können unsere technischen Kolleg:innen in ihrem Fachwissen einschätzen. So finden wir die bestmögliche Lösung für Dein Projekt. Kein Problem!

  • Ihr benötigt jemanden für einen Tag, um ein Review eurer Installation durchzuführen? Kein Problem! (Consulting)
  • Ihr benötigt Unterstützung für ein größeres Projekt das Mona te oder gar Jahre dauern kann? Kein Problem! (Consulting, Outsourcing)
  • Ihr benötigt Hilfe beim Aufbau einer Proof-of-Concept Umgebung? Kein Problem! (Consulting)
  • Ihr hättet gerne eine Installation, ein Training und Support im Anschluss? Kein Problem! (Einmal alles – also Consulting, Trainings, Support)
  • Ihr benötigt kurzfristig einen Termin? Es klappt leider nicht immer, aber „Challenge accepted!“ (Was auch immer Du kurzfristig brauchst!)

Meine Kolleg:innen planen denjenigen ein, der oder die am besten zu euren Anforderungen passt. Wir finden die beste, organisatorische Lösung und die beste, technische Ansprechperson für Euch und euer Projekt.

Zudem versuchen wir immer wieder dieselben Kolleg:innen zu Dir zu schicken. Wenn ein Consultant einen Proof-of-Concept mit Dir erarbeitet, dann wird diese Person auch die produktive Installation und das dazu passende Training durchführen. Bei uns bekommst Du alles aus einer Hand – im wahrsten Sinne des Wortes! Und dennoch die Sicherheit, dass immer jemand da ist. Denn mit uns buchst Du nicht nur eine einzelne Person, sondern die Unterstützung und das Wissen einer ganzen IT-Firma.

Schritt 3 – Dein Projekt, Deine Lösung

Nun ist der Tag gekommen: Wir haben einen Termin und damit beginnt die Arbeit an Deinem Projekt. Virtuell aus dem Homeoffice, physisch bei euch im Büro oder in unserem Trainingszentrum, dem Kesselhaus. Nun bearbeiten wir euer Projekt, lösen konkrete Probleme, erstellen neue Konzepte, besprechen eure Themen und geben unser Wissen an euch weiter. Je nachdem, was ihr benötigt.

Consulting | Wir helfen Dir bei Konzeption, Installation, Integration und Betrieb Deiner Enterprise Open Source Umgebung. Wir empfehlen neue Wege und Lösungen für Deine Infrastruktur und geben Dir konkrete Handlungsanweisungen mit. Der Kickstart samt neuem Wissen für Deine Umgebung.

Outsourcing | Als externe IT-Abteilung übernehmen wir den vollständigen Betrieb ganzer IT-Umgebungen auf Basis von Linux und Open Source. Hier kriegst Du dauerhaft Management von IT-Prozessen nach Best Practices. Eine Welt, in der Du ruhig schlafen kannst und Deine business-kritischen Anwendungen und Systeme bestens betreut sind, ist möglich!

Support | Wir halten Dir den Rücken frei, damit Du dich um Dein Business kümmern kannst. Mit telefonischer Beratung und Remote-Support. 24 Stunden am Tag, 7 Tage die Woche.

Trainings | Unsere Consultants arbeiten auch als Trainer und geben ihr weitreichendes und profundes Praxiswissen in verschiedenen Schulungen und Workshops gerne an Dich weiter.

Schritt 4 – Wir sind weiterhin für Dich da

Und was passiert danach? Sobald das Projekt beendet ist, bieten wir gerne weiterhin Unterstützung. In Form von Consulting-Terminen, falls ihr eure Umgebung projektweise weiterentwickeln wollt. In der Form von Support für die schnelle Hilfe oder Outsourcing für kontinuierliche Zusammenarbeit. Unsere Supportverträge decken den Fehlerfall ab, beim Outsourcing darf es jegliche Art der permanenten Betreuung eurer Umgebung sein. Natürlich passen wir unsere Verträge im Laufe der Zeit entsprechend an, damit ihr immer genau die richtige Leistung bekommt.

Ich hoffe, ich konnte hiermit ein wenig Transparenz in unsere Philosophie und Arbeitsweise bringen. Solltest Du Fragen haben, kannst Du diese selbstverständlich bei mir und meinen Kolleg:innen anbringen. Unabhängig davon, ob ihr gerade jemanden aus dem Sales-Team, dem Consulting, dem Support oder den Trainer „an der Strippe“ habt. Euer Anliegen findet intern den richtigen Weg!

In den kommenden Wochen und Monaten wollen wir Dir und Euch hier im Blog unsere Open Source Dienstleistungen im Einzelnen näherbringen. Wir werden Best Practices teilen und aus dem Nähkästchen plaudern. Bleib dran! Es bleibt spannend.

Tobias Redel
Tobias Redel
Head of Professional Services

Tobias hat nach seiner Ausbildung als Fachinformatiker bei der Deutschen Telekom bei T-Systems gearbeitet. Seit August 2008 ist er bei NETWAYS, wo er in der Consulting-Truppe unsere Kunden in Sachen Open Source, Monitoring und Systems Management unterstützt. Insgeheim führt er jedoch ein Doppelleben als Travel-Hacker und renoviert, baut und bastelt als Heimwerker an allem was er finden kann.

stackconf 2022 | Data pipelines powered by Open source and fun

This entry is part 3 of 3 in the series stackconf 2022

How about taking a walk down memory lane and seeing which insights stackconf 2022 has brought? Let’s continue this blog series with Sayantika’s talk “Data pipelines powered by Open source and fun”.

 

What to Expect

The world of data is ever-growing. There are ample technologies out in the market. In her talk Sayantika will show you some beautiful open source tools in action. Well knowing tools is often the first step, but indeed an important one.

This session is best suited for beginners, keen to dive into data world.

 

Enjoy his valuable Expert Know-How and watch the Video!

YouTube player

 

You’re convinced by our top-level speaker and want to gain even more knowledge from our open source experts? Then you should definitely join this year’s edition of the event. stackconf 2023 takes place from September 13 – 14, 2023 in Berlin. Save your Early Bird ticket until April 30 and you’re in!

In case you also want to share some know-how about several topics around the whole DevOps lifecycle, feel free to submit your proposal until May 31.

We’re looking forward to hearing from you!

Katja Kotschenreuther
Katja Kotschenreuther
Marketing Manager

Katja ist seit Oktober 2020 Teil des Marketing Teams. Als Online Marketing Managerin kümmert sie sich neben der Optimierung unserer Websites und Social Media Kampagnen hauptsächlich um die Bewerbung unserer Konferenzen und Trainings. In ihrer Freizeit ist sie immer auf der Suche nach neuen Geocaches, bereist gern die Welt, knuddelt alle Tierkinder, die ihr über den Weg laufen und stattet ihrer niederbayrischen Heimat Passau regelmäßig Besuche ab.