Are you in? Make sure to mark your calendars for the 17th edition of the Open Source Monitoring Conference. OSMC 2023 will take place form November 07 – 09 in Nuremberg, Germany. The three-day event comprises up to four workshops on the first conference day, followed...
NETWAYS Blog
Here you can find out everything that moves us. Technology, hardware, life at NETWAYS, events, training and much more.
OSMC 2023 | Save the Date!
Are you in? Make sure to mark your calendars for the 17th edition of the Open Source Monitoring Conference. OSMC 2023 will take place form November 07 – 09 in Nuremberg, Germany. The three-day event comprises up to four workshops on the first conference day, followed...
OSMC 2023 | Save the Date!
Are you in? Make sure to mark your calendars for the 17th edition of the Open Source Monitoring Conference. OSMC 2023 will take place form November 07 – 09 in Nuremberg, Germany. The three-day event comprises up to four workshops on the first conference day, followed...
Die Migration von IDO zu Icinga DB – so geht’s kinderleicht!
Letzte Woche hatten wir ein sehr erfolgreiches NETWAYS Webinar, in dem ich demonstriert habe, wie einfach die Installation der Icinga DB auf einem bestehenden System ist. In diesem Blogpost möchte ich auf einige Aspekte und Anleitungsschritte aus dem Webinar eingehen....
Unsere Abteilungswoche 2023
Die diesjährige Abteilungswoche für uns Azubis hat mit dem alljährlichen Jahresmeeting begonnen. Hier hat unser CEO Bernd Erk einen Rückblick auf das Jahr 2022 und die Aufgaben, mit denen sich die einzelnen Abteilungen beschäftigt haben, gegeben. Außerdem wurden...
State-of-the-art Icinga-Installation – Teil 1: Plattform und Betriebssystem
Consulting & Technology
Die Migration von IDO zu Icinga DB – so geht’s kinderleicht!
Letzte Woche hatten wir ein sehr erfolgreiches NETWAYS Webinar, in dem ich demonstriert habe, wie einfach die Installation der Icinga DB auf einem bestehenden System ist. In diesem Blogpost möchte ich auf einige Aspekte und Anleitungsschritte aus dem Webinar eingehen....
Die Migration von IDO zu Icinga DB – so geht’s kinderleicht!
Letzte Woche hatten wir ein sehr erfolgreiches NETWAYS Webinar, in dem ich demonstriert habe, wie einfach die Installation der Icinga DB auf einem bestehenden System ist. In diesem Blogpost möchte ich auf einige Aspekte und Anleitungsschritte aus dem Webinar eingehen....
Die Migration von IDO zu Icinga DB – so geht’s kinderleicht!
Letzte Woche hatten wir ein sehr erfolgreiches NETWAYS Webinar, in dem ich demonstriert habe, wie einfach die Installation der Icinga DB auf einem bestehenden System ist. In diesem Blogpost möchte ich auf einige Aspekte und Anleitungsschritte aus dem Webinar eingehen....
State-of-the-art Icinga-Installation – Teil 1: Plattform und Betriebssystem
Kubernetes 101: Was ist Kubernetes und warum brauche ich es?
Sommer, Sonne, Software – Rückblick CIVO NAVIGATE 2023
Anfang Februar durfte ich nach Tampa, Florida reisen, um auf der IT-Konferenz Civo Navigate zu sprechen, die in diesem Rahmen zum ersten Mal stattfand. Mit Beiträgen rund um Kubernetes, Edge Computing, Machine Learning, DevOps, GitOps, Observability, Security und...
Events & Trainings
OSMC 2023 | Save the Date!
Are you in? Make sure to mark your calendars for the 17th edition of the Open Source Monitoring Conference. OSMC 2023 will take place form November 07 – 09 in Nuremberg, Germany. The three-day event comprises up to four workshops on the first conference day, followed...
OSMC 2023 | Save the Date!
Are you in? Make sure to mark your calendars for the 17th edition of the Open Source Monitoring Conference. OSMC 2023 will take place form November 07 – 09 in Nuremberg, Germany. The three-day event comprises up to four workshops on the first conference day, followed...
OSMC 2023 | Save the Date!
Are you in? Make sure to mark your calendars for the 17th edition of the Open Source Monitoring Conference. OSMC 2023 will take place form November 07 – 09 in Nuremberg, Germany. The three-day event comprises up to four workshops on the first conference day, followed...
OSMC 2022 | Monitoring multiple Kubernetes Clusters with Thanos
By now, Prometheus has become the defacto standard for monitoring containerised applications, especially when you are using orchestration tools like Kubernetes or Consul. However, when it comes to monitoring multiple Kubernetes clusters through a single plane of...
OSMC 2022 | OpenTelemetry 101
OSMC 2022 | Unifying Observability: Weaving Prometheus, Jaeger, and Open Source Together to Win
In his talk at the Open Source Monitoring Conference 2022 (OSMC) Jonah Kowall - having more than 15 years of experience in the fields Ops, network, security, and performance engineering under his belt - tells us a lot about observability in the open source market. He...
Web Services
New at NWS: Managed OpenSearch
We’re happy to announce our brand new product Managed OpenSearch, which we are offering due to our new partnership with Eliatra Suite. Eliatra is your go-to company for OpenSearch, the Elastic Stack and Big Data Solutions based on specialised IT security knowledge....
New at NWS: Managed OpenSearch
We’re happy to announce our brand new product Managed OpenSearch, which we are offering due to our new partnership with Eliatra Suite. Eliatra is your go-to company for OpenSearch, the Elastic Stack and Big Data Solutions based on specialised IT security knowledge....
New at NWS: Managed OpenSearch
We’re happy to announce our brand new product Managed OpenSearch, which we are offering due to our new partnership with Eliatra Suite. Eliatra is your go-to company for OpenSearch, the Elastic Stack and Big Data Solutions based on specialised IT security knowledge....
Sommer, Sonne, Software – Rückblick CIVO NAVIGATE 2023
Anfang Februar durfte ich nach Tampa, Florida reisen, um auf der IT-Konferenz Civo Navigate zu sprechen, die in diesem Rahmen zum ersten Mal stattfand. Mit Beiträgen rund um Kubernetes, Edge Computing, Machine Learning, DevOps, GitOps, Observability, Security und...
How I met your C2 : Basic Operational Security for Defense and Offense
Throughout this blogpost I want to share some awareness on search engines and current trends of fingerprinting. Some parts have tags for defense and offense. In the following Black Hats are considered evil and destructive, whereas Red Teams simulate Black Hats,...
Cloud Services and NWS-ID – It’s a match!
We're starting the new year with a new integration for you! As announced last year, the integration of further products with NWS-ID will continue in 2023! From now on the NWS Cloud Services are integrated with NWS-ID. What are the advantages of integrating our Cloud...
Hardware
HWgroup: Firmeware Update Ares 12
Wir möchten Dich auf einen potentiell kritischen Fehler bei den Ares 10 / 12 Produkten (GSM und LTE Versionen) von HWgroup aufmerksam machen. Es kann vorkommen, dass Warnmeldungen (SMS oder E-Mail) nicht zugestellt werden. Die neueste Firmware behebt aber dieses...
HWgroup: Firmeware Update Ares 12
Wir möchten Dich auf einen potentiell kritischen Fehler bei den Ares 10 / 12 Produkten (GSM und LTE Versionen) von HWgroup aufmerksam machen. Es kann vorkommen, dass Warnmeldungen (SMS oder E-Mail) nicht zugestellt werden. Die neueste Firmware behebt aber dieses...
HWgroup: Firmeware Update Ares 12
Wir möchten Dich auf einen potentiell kritischen Fehler bei den Ares 10 / 12 Produkten (GSM und LTE Versionen) von HWgroup aufmerksam machen. Es kann vorkommen, dass Warnmeldungen (SMS oder E-Mail) nicht zugestellt werden. Die neueste Firmware behebt aber dieses...
Das erste Shop-Webinar in 2023!
Dieses Jahr werden wir unseren Webinar-Kalender mit einem Thema beginnen, welches wir in 2023 aktiv weiter ausbauen werden - die Webinare rund um den NETWAYS Online-Store. Hier bieten wir nicht nur Hardware rund um Umweltüberwachung wie Temperatur- und...
Mit wenigen Clicks in die STARFACE-Cloud
Wir als NETWAYS sind bereits seit vielen Jahren STARFACE-Partner und bieten für unsere Kunden über den Online-Store Anlagen und Lizenzen zum Kauf an. Aber wusstet Ihr, dass man über uns auch Zugang zur STARFACE-Cloud erhält? Das Prinzip dahinter ist sehr einfach. Ihr...
SMSEagle: Neue Software Version 4.40
SMSEagle hat vor zwei Wochen eine neue Software Version rausgebracht. Diese Version enthält neue Funktionen, verschiedene Verbesserungen und auch Fehlerbehebungen. Was enthält die neue Version 4.40? Hier findest Du eine Liste der wichtigsten Änderungen: Email to SMS...
Company
Unsere Abteilungswoche 2023
Die diesjährige Abteilungswoche für uns Azubis hat mit dem alljährlichen Jahresmeeting begonnen. Hier hat unser CEO Bernd Erk einen Rückblick auf das Jahr 2022 und die Aufgaben, mit denen sich die einzelnen Abteilungen beschäftigt haben, gegeben. Außerdem wurden...
Unsere Abteilungswoche 2023
Die diesjährige Abteilungswoche für uns Azubis hat mit dem alljährlichen Jahresmeeting begonnen. Hier hat unser CEO Bernd Erk einen Rückblick auf das Jahr 2022 und die Aufgaben, mit denen sich die einzelnen Abteilungen beschäftigt haben, gegeben. Außerdem wurden...
Unsere Abteilungswoche 2023
Die diesjährige Abteilungswoche für uns Azubis hat mit dem alljährlichen Jahresmeeting begonnen. Hier hat unser CEO Bernd Erk einen Rückblick auf das Jahr 2022 und die Aufgaben, mit denen sich die einzelnen Abteilungen beschäftigt haben, gegeben. Außerdem wurden...
All Posts
OSMC 2023 | Save the Date!
Are you in?
Make sure to mark your calendars for the 17th edition of the Open Source Monitoring Conference. OSMC 2023 will take place form November 07 – 09 in Nuremberg, Germany. The three-day event comprises up to four workshops on the first conference day, followed by two technical tracks on the second and third day. Take a look into our archives and see what’s awaiting you.
What are you waiting for?
The ticket sale is already running and we’re ready for our early birds! Get your tickets now and join OSMC 2023 for the best price. Discounted Tickets are available until June 30.
Get the OSMC feeling!
Whether you haven’t joined OSMC yet or were part of last years’ edition – we have a cool surprise for you. Check out the OSMC image video and get an impression of what OSMC is all about!
Enjoy!
Die Migration von IDO zu Icinga DB – so geht’s kinderleicht!
Letzte Woche hatten wir ein sehr erfolgreiches NETWAYS Webinar, in dem ich demonstriert habe, wie einfach die Installation der Icinga DB auf einem bestehenden System ist. In diesem Blogpost möchte ich auf einige Aspekte und Anleitungsschritte aus dem Webinar eingehen. Ich werde Dir zunächst die Vorteile der Icinga DB und ein paar Unterschiede zwischen IDO und Icinga DB erklären, bevor wir dann in Kürze die notwendigen Schritte auf dem Weg zu Deiner laufenden Icinga DB durchgehen.
Was ist die Icinga DB eigentlich?
“Was ist die Icinga DB?” Auf dieses Thema bin ich letztes Jahr im gleichnamigen Webinar eingegangen. Bei der Icinga DB handelt es sich um ein vollständig neues Backend für Icinga, um Informationen zu speichern und in Icinga Web verfügbar zu machen. IDO und Icinga DB unterscheiden sich maßgeblich in ihrer Architektur. Diesen Unterschied merkt man vor allem in sehr großen oder sehr Check-Intensiven Umgebungen.
Was ist der Unterschied zwischen IDO und Icinga DB?
Alles in die Datenbank
In der bisherigen IDO werden alle Statusinformationen direkt in der MySQL/MariaDB oder PostgreSQL Datenbank gespeichert. Das bedeutet, dass jeder einzelne Check, der von Icinga ausgeführt wird, als Ergebnis in die Datenbank geschrieben wird. Dabei reden wir aber noch nicht von historischen Daten oder Statusänderungen von einem Host/Service. Jeder einzelne Output, der von einem Plugin generiert wird, egal ob es eine Statusänderung gibt oder nicht, wird in die Datenbank geschrieben. Schließlich möchte man im Webinterface den aktuellen Plugin Output sehen.
Werden Checks nun in einem sehr häufigen Intervall ausgeführt oder es handelt sich um eine sehr große Umgebung, steigt die Last auf der Datenbank exponentiell. Das sorgt für Mehrkosten bei der Datenbank, aber auch für mehr Aufwand zum Fine-Tuning.
Aufteilung von volatilen und persistenten Daten
Hier kommt der Vorteil der neuen Icinga DB zum Einsatz. Anders als bei der IDO, werden die Informationen nach Ihrer “Lebensdauer” sinnvoll verteilt. Bei volatilen Daten sprechen wir beispielsweise von den oben bereits erwähnten Check-Ergebnissen, die keine Auswirkungen auf Statusinformationen haben, sondern rein für den Output relevant sind. Mit der Icinga DB werden diese Daten in einen Redis geschrieben. Dieses Tool erlaubt das Ablegen von Informationen über eine entsprechende API direkt im Memory des Servers, ohne dass eine Schreibaktion auf die Festplatte oder in einer Datenbank notwendig sind. Über die vorhandene API werden die Informationen dann später wieder ausgelesen, aktualisiert oder gelöscht.
In der MySQL/MariaDB/PostgreSQL Datenbank, landen dann nur historische Daten, Statusinformationen oder andere wichtige persistente Daten. Damit reduziert sich die Schreib- und Lese-Last auf der Datenbank enorm. Icinga Web liest die notwendigen Inhalte der jeweiligen Objekte dann sowohl aus dem Redis, als auch aus der Datenbank und stellt diese im neuen Icinga DB Webfrontend dar.
Installation der Icinga DB
Die Installation der notwendigen Komponenten für die Icinga DB ist spielend einfach. Sehr praktisch ist, dass ein Parallelbetrieb zwischen IDO und Icinga DB möglich ist. Somit kannst Du die Icinga DB testen und beide Backends parallel verwenden.
Ja nach Linux Distribution sind die Befehle für die Installation ein wenig anders. Die notwendigen Pakete sind jedoch überall gleich. Du benötigst die Folgenden:
- icingadb
- icingadb-redis
- icingadb-web
Im Webinar sind wir ab 7:58 dabei, die Pakete zu installieren und die Konfigurationen einzustellen. Wichtig ist dabei zu beachten, dass die Icinga DB eine eigene Konfigurationsdatei unter
/etc/icingadb/config.yml
besitzt, die im Vorfeld editiert werden muss. Bei einem klassischen Setup von lokalen Redis und externer Datenbank, sind nur die IP und die Authentifizierungs-Daten für die Datenbank wichtig.
Icinga DB Web
Sind alle Schritte wie in den Anleitungen und im Webinar aufgezeigt durchgeführt worden, hast Du einen sauberen Parallelbetrieb zwischen IDO und Icinga DB verfügbar. Die Unterschiede der Web UI sind bemerkenswert!
In den YouTube Kommentaren kam die Frage auf, wieso wir auf das Paket icingadb-web nicht weiter eingegangen sind, obwohl es installiert wurde. Das liegt daran, dass in der Modulansicht in Icinga Web das Paket als icingadb und nicht als icingadb-web angezeigt wird. Alle Schritte und Konfigurationen innerhalb von Icinga Web, die sich auf das icingadb Modul beziehen, beziehen sich also auf das installierte Paket icingadb-web.
Migration von IDO zu Icinga DB
Zu guter Letzt fehlt nur noch die Migration von IDO auf Icinga DB, um alle historischen Informationen, Ereignisse, etc. im neuen Datenbackend verfügbar zu haben. Damit steht Deinem Parallelbetrieb mit allen Informationen nichts mehr im Wege, Du kannst Dich an das neue Interface gewöhnen, bevor Du die IDO und das alte Monitoring Modul abschaltest. Im Webinar sind wir auf diesen Punkt zwar eingegangen, durch eine Fehlkonfiguration lief es jedoch nicht wie gewünscht durch.
Wer eine vollständige Datenübernahme wünscht, kann dies wie folgt tun. Bitte beachte, dass je nachdem wie große eure Datenbank ist, der Task mehrere Stunden oder Tage in Anspruch nehmen kann. In diesem Fall empfehle ich Dir, das Migrationsskript mehrmals auszuführen und die Zeiträume unterschiedlich zu splitten. Das Skript erkennt, ob Daten bereits übernommen wurden und führt keine doppelten Aktionen aus, auch wenn sich Zeiträume von einem Durchlauf zum nächsten überschreiten.
Als erstes brauchst Du Deine Environment Id für die Icinga DB. Diese erhältst Du wie folgt:
# cat /var/lib/icinga2/icingadb.env
Anschließend generierest Du eine .yml Datei mit folgendem Inhalt – damit werden alle Daten aus der IDO in die Icinga DB migriert:
icinga2: # Content of /var/lib/icinga2/icingadb.env env: .... # IDO database ido: type: mysql # or "pgsql" for PostgreSQL host: 127.0.0.1 #port: 3306 database: ido_db user: dbuser password: dbpass # Input time range #from: 0 #to: 2147483647 # Icinga DB database icingadb: type: mysql # or "pgsql" for PostgreSQL host: 127.0.0.1 #port: 3306 database: icingadb user: icingadb_user password: icingadb_pass
Ist alles konfiguriert, kannst Du das Skript starten, welches direkt mit dem icingadb Paket installiert wird.
# icingadb-migrate -c icingadbmigrate.yml -t ~/icingadb-migration.cache
In diesem Fall befindest Du Dich direkt in dem Ordner, in welchem Du die .yml Datei abgelegt hast – bei mir heißt diese icingadbmigrate.yml. Das Skript schreibt nun zunächst alle Informationen aus der IDO in die icingadb-migration.cache Datei. Ist dies erledigt, werden die Daten aus dem Cache in die Icinga DB geschrieben. Bricht aus irgendeinem Grund der Vorgang ab oder das System muss neu gestartet werden, ist dies kein Problem. Solange die Konfiguration und die Cache-Datei unverändert bleiben, macht das Skript an der Stelle weiter, wo es aufgehört hat, nachdem Du es erneut aufrufst.
Professionelle Unterstützung
Wer diesen Vorgang nicht allein durchführen möchte, in Probleme läuft oder eine Beratung zur Architektur und dem genauen Vorgehen zur Umstellung wünscht, kann natürlich über uns direkt professionelle Unterstützung in Form von Consulting für euer zeitlich begrenztes Projekt oder Outsourcing für langfristige Unterstützung erhalten.
Beim Outsourcing bieten wir drei unterschiedliche Modelle für Dienstleistungen an und können schnell sowie zielgerichtet auf Themen eingehen. Die Zeitbuchung erfolgt immer im 15 Minuten Intervall und wird von einem vorhandenen Kontingent abgebucht oder über einen Vertrag monatlich abgerechnet. Das ist vor allem hilfreich, wenn kontinuierliche Unterstützung bei kleinen Themen gewünscht ist oder der tägliche Betrieb abgegeben werden soll.
Im Consulting können wir darüber hinaus zielgerichtet auf alle Details zur Architekturplanung, Umstellung oder dem Aufbau/Ausbau eingehen und bei der Konzeptionierung sowie der eigentlichen Umsetzung unterstützen. In Kombination mit dem Outsourcing, bietet das ein starkes und flexibles Paket.
Wer mehr dazu wissen möchte, kann sich über unser Kontaktformular mit uns in Verbindung setzen. Wir stehen beratend zur Seite und stimmen gemeinsam die beste Vorgehensweise ab!
Ich freue mich auf eure Anfragen!
Unsere Abteilungswoche 2023
Die diesjährige Abteilungswoche für uns Azubis hat mit dem alljährlichen Jahresmeeting begonnen. Hier hat unser CEO Bernd Erk einen Rückblick auf das Jahr 2022 und die Aufgaben, mit denen sich die einzelnen Abteilungen beschäftigt haben, gegeben. Außerdem wurden zukünftig anstehende Projekte angekündigt und nochmals eine Übersicht über alle Sozialleistungen, die NETWAYS bietet aufgezeigt.
Im Anschluss sollten wir Azubis aus dem ersten Lehrjahr Videos aufnehmen, welche wir am Dienstag beim Auftakt unserer Abteilungswoche benötigen werden. Das Thema für die Videos war „10 Types of Colleagues“. Zuerst haben wir als Team eine Ideensammlung gemacht, was für Typen uns so vorschweben und wie wir die Videos gestalten wollen. Im Anschluss wurden wir in Zweierteams aufgeteilt und sollten Kollegen finden, die bereit sind, bei unserem Projekt mitzumachen. Das hat sich als relativ schwierig herausgestellt, da obwohl sich der ein oder andere gefunden hat, der Großteil doch nicht mitmachen wollte.
Tag 1 – Marketing
Am Dienstag haben wir uns mit Katja und Julia aus unserer Marketing-Abteilung getroffen. Zusammen haben wir uns die am Vortag aufgenommenen Videos angeschaut und bei Szenen, bei denen wir mehr als einen Take aufgenommen haben, entschieden, welchen wir nehmen. Außerdem haben wir uns dazu entschlossen, dass wir zwei verschiedene Videos aus den Aufnahmen machen wollen. Wir haben die Clips aufgeteilt und zwei Teams gebildet, die jeweils ein Video geschnitten haben. Zum Schneiden haben wir iMovie, das hauseigene Schnittprogramm von Apple verwendet. Nachdem wir die einzelnen Clips zusammengeführt, mit Übergängen versehen und mit Effekten belegt haben, wurden die fertigen Videos exportiert. Diese werden in naher Zukunft auf unserer Instagram-Seite zu sehen sein.
Tag 2 – Finance & Administration
Mittwoch Vormittag haben uns Nadja und Luxshana aus der Abteilung Finance & Administration einen genaueren Einblick in ihre Arbeit gewährt. Zuerst in Form einer Präsentation über die Tätigkeiten unseres Frontoffice, später aber auch mit praktischen Aufgaben. Wir durften das Flaschenlager aufräumen, den Kühlschrank mit Getränken auffüllen und den Bestand im Lager prüfen. Im Anschluss ging die Präsentation weiter über in die Aufgaben des Backoffice. Unsere praktischen Aufgaben dazu bestanden darin, die Vorsteuer zu prüfen, Mahnungen zu verschicken und Rechnungen zu buchen. Zum Tagesabschluss durften wir noch bei der Reinigung der Kaffeemaschine helfen.
Tag 3 – Events & Training
Am dritten Tag haben sich Markus und Lukas vom Events & Trainings-Team bei uns vorgestellt. Die beiden haben uns erklärt, wie sie Konferenzen wie beispielsweise die OSMC oder stackconf planen, organisieren und durchführen. Auch Trainings für externe Kunden werden von den beiden arrangiert. Als Aufgabe sollten wir uns einmal Team überlegen, was alles zur Planung, Durchführung und Nachbereitung einer Konferenz dazugehört. Wir haben einige Bilder von vergangenen Events gezeigt bekommen und Geschichten dazu erzählt bekommen. Zum Schluss der Präsentation wurden uns die Tools gezeigt, mit denen in der Abteilung so gearbeitet wird. Wir durften selbst auch praktisch welche davon ausprobieren. Am Ende haben wir noch ein Quiz gemacht, um zu schauen, was wir so alles gelernt haben.
Tag 4 – Sales
Abgeschlossen hat die Abteilungswoche mit unserer Sales-Abteilung. Hier haben wir einen Einblick in die Arbeit von Christian und Chantal bekommen. Uns wurde gezeigt, was alles passiert bis ein Artikel verkauft werden kann. Als Aufgabe sollten wir Kundendaten in unserem System eintragen. Als Programm nutzen wir hierfür Sugar. Außerdem haben wir uns das Icinga Partnerportal angeschaut und gesehen, wie Kunden per Livechat direkten Kontakt zu unseren Mitarbeitern aufnehmen können.
Alles in allem habe ich durch die Abteilungswoche einen sehr guten Einblick in die Arbeit der nicht technischen Abteilungen unserer Firma bekommen und viel dazugelernt. Ich finde es sehr wichtig, über den eigenen Tellerrand hinaus zu schauen, da man die Arbeit der anderen so noch mehr zu schätzen weiß und ein besseres Gesamtbild über das eigene Unternehmen bekommt.
State-of-the-art Icinga-Installation – Teil 1: Plattform und Betriebssystem
In unserer Blogserie „Icinga. Einfach. Erklärt.“ entführen wir Dich ins Icinga-Universum. In diesem und zukünftigen Beiträgen behandeln wir viele spannende Themen, die Dir bei Deiner Arbeit mit Icinga helfen können.
Unsere erfahrenen Consultants nehmen Dich mit und teilen ihre Expertise und Sichtweise, wägen Vor- und Nachteile ab und berichten aus ihrer täglichen Arbeit mit dem Open-Source-Enterprise-Monitoring-Tool Icinga.
Den Anfang macht unser Principal Consultant Dirk Götz mit dem ersten Teil seiner Tipps für eine state-of-the-art Icinga-Installation. Darin geht er auf die Hardware- oder Containerlösung ein und welches Betriebssystem für Dich und Dein Team am besten geeignet sein könnte.
Aus zahlreichen Kundenprojekten, die ich im Laufe meiner Zeit bei NETWAYS durchgeführt habe, haben sich für mich einige Best Practices bei der Einrichtung und Konfiguration von Icinga ergeben. Um diese state-of-the-art Icinga-Installation zu beschreiben, dachte ich mir, ich gehe hier im Blog so vor wie ich es im Consulting auch würde. Das heißt, als Erstes gehe ich auf die richtige Plattform ein also primär das Betriebssystem, aber auch ob Hardware, virtuelle Maschine oder gar Container. Im zweiten Teil beantworte ich dann die Frage “Pet or Cattle”, gehe darauf ein, welche Icinga-Komponenten für mich einfach dazu gehören und beantworte nebenbei hoffentlich noch die Frage nach der Icinga-Repository-Subscription.
Hardware, virtuelle Maschine oder gar Container?
Starten wir also einmal ganz am Anfang und überlegen uns, welche Vor- und Nachteile wir von einer Hardware-Lösung hätten. Für mich gibt es hier immer noch einen großen Vorteil und zwar, dass man mit Hardware eine Icinga-Monitoring-Lösung aufbauen kann, die unabhängig von der zu überwachenden Umgebung ist. Leider ist dies in der Praxis in den meisten Fällen nicht so gegeben, wie man sich das als Consultant erhofft. Oder es ist mit viel Planung und weiteren Komponenten verbunden. Denn schon allein so etwas wie der Alarmierungsweg per Mail verkompliziert dies ungemein.
Daher überwiegen für mich in den meisten Fällen die Vorteile virtueller Maschinen und die damit verbundenen komfortablen Managementmöglichkeiten. Man muss sich nur bewusst machen, wovon dann das Monitoring abhängt, was davon vielleicht zu kompensieren ist und was einen Ausfall auslöst, der im schlimmsten Fall einen Blindflug bedeutet.
Wenn virtuelle Maschinen aus meiner Sicht die meisten Vorteile bieten, sind Container dann der nächste logische Schritt? Das Icinga-Projekt bietet auf jeden Fall eigene Container an, hat den Icinga-Prozess container-freundlich gebaut und einige Kunden laufen sehr erfolgreich mit diesem Konzept. Aber wenn ich mir die Plugin-Fähigkeit von Icinga und Modularität von Icinga Web so anschaue, so stehen diese Eigenschaften, die ich als Vorteile ansehe, dem Container-Ansatz doch etwas im Weg. Vor allem wenn dann ein Plugin durch ein Icinga-Web-Modul zur Verfügung gestellt wird, welches ohne Agent im Container nicht aufrufbar ist.
Wahl des Betriebssystems
Bei der Wahl des Betriebssystems bin ich ein großer Fan davon, besonders auf bestehendes Know-how zu setzen. Daher rate ich meinen Kunden Icinga auf der gewohnten Linux-Plattform zu installieren. Da aber jede Distribution ihre Eigenheiten sowie Vor- und Nachteile hat, müssen wir das Thema Betriebssystem etwas detaillierter betrachten. Und da sie direkt mit der Wahl der Distribution zusammenhängen, gibt es einen kleinen Exkurs in Richtung Monitoring-Plugins.
Debian-Familie
Hier ist es relativ einfach, denn für Debian und Ubuntu stellt das Icinga-Projekt Pakete frei zur Verfügung. Diese gibt es für jede bekannte Version, auch für einen ARM-Build in Raspberry Pi OS ist gesorgt.
Einzige kleine Einschränkung: Support gibt es im Falle von Ubuntu nur für LTS-Releases.
Damit Icinga nicht nur schön aussieht, sondern auch die gewünschte Überwachung liefert, werden Plugins benötigt. Monitoring-Plugins ist in der Debian-Familie die Quelle für die gleichnamigen Pakete. Hier bekommen wir eine paketierte und gut supportete Standard-Plugin-Sammlung, die zudem noch einfach zu installieren und gut gepflegt ist.
Etwas verwirrend ist der Benutzer “nagios“, der im weiteren Verlauf von den Icinga-Paketen weiterverwendet wird, die Nagios-/Icinga-1-Konfiguration, die durch die Plugins abgelegt wird, und die grobe Aufteilung auf Pakete.
Dass hier statt mit setuid mit Filesystem-Capability gearbeitet wird, finde ich persönlich sehr gut. Heißt, wir haben bei den Plugins Vor- und Nachteile, die aber vor allem dann eine Rolle spielen, wenn wir verschiedene Distributionen im Einsatz haben.
Einzig meine persönlichen teils negativen Erfahrungen mit Ubuntu lassen mich eher ein Debian empfehlen, Stichwort „Sonderwege“.
Red-Hat-Familie
Bei der Red-Hat-Familie wird es aus meiner Sicht komplizierter. Fangen wir mit Red Hat Enterprise Linux (RHEL) an. Hier gibt es die Pakete vom Icinga-Projekt auf Basis einer Repository-Subscription. Nachdem hier explizit auf RHEL gebaut wird, Partnerverträge bestehen etc. finde ich das ein berechtigtes Vorgehen!
Nächste in der Familie wären eigentlich CentOS Linux bzw. CentOS Stream. Ich sage hier eigentlich, denn CentOS Stream wird zukünftig nicht mehr aktiv unterstützt. Was heißt das für aktuelle Nutzer von CentOS? Es wird (Stand heute) keine Pakete für CentOS Stream 8 und 9 geben. Da es sich bei diesen Distributionen um den Upstream zu RHEL handelt, könnten theoretisch die RHEL-Pakete genutzt werden.
Leider werden auch die RHEL-Derivate Rocky Linux, AlmaLinux und Oracle Linux nicht aktiv als Icinga-Systeme unterstützt. Hier findet sich auf der Icinga-Homepage jedoch der Hinweis, dass die RHEL-Pakete bei Systemen, die zu 100-Prozent binär-kompatibel sind, genutzt werden können. Das ist zumindest bei Rocky Linux und AlmaLinux der Fall. Ob es sich dabei um eine gute Lösung für den Einzelfall handelt, muss man selbst entscheiden.
Erfreulicher sieht es dahingehend bei Amazon Linux aus. Im Rahmen der Icinga-Subscription bekommt man Zugriff auf die entsprechenden Pakete.
Alternativ kann mit Fedora auf Community-Support gesetzt werden.
Kommen wir zu den Plugins für Red-Hat. Hier befinden sich die Nagios-Plugins in einem zusätzlichen Repository, den „Extra Packages for Enterprise Linux“ oder im Fall von Fedora in den normalen Repos des Fedora-Projekts. Es handelt sich also um eine andere Quelle als diejenige, die bei Debian-basierten Systemen zum Einsatz kommt. Wie bei Debian wird aus „historischen Gründen“ die Gruppe „nagios“ verwendet und mit setgid gearbeitet, um Plugins höhere Rechte zu geben.
Man merkt, dass die Situation bei Red-Hat-Derivaten deutlich komplexer ist als bei Debian. Und besonders CentOS-Nutzer müssen sich aktuell nach Alternativen umsehen, was innerhalb der Community zu der einen oder anderen kritischen Stimme geführt hat.
Um der Komplexität etwas entgegenzuwirken, bauen wir bei NETWAYS wieder selbst Pakete. Unsere Buildplattform orientiert sich am Icinga-Projekt, daher bauen wir auf CentOS Linux 7, RHEL 8 und 9. Unsere Buildziele orientieren sich an unseren Kunden. Wir bauen und testen also für CentOS und RHEL, gehen von Funktion auf Rocky Linux und AlmaLinux aus, aber betrachten nicht Fedora, Oracle Linux und Amazon Linux.
SUSE-Familie
Bleibt noch SUSE Linux Enterprise Server (SLES). Diese Pakete sind ebenfalls nur für Subscription-Kunden zugänglich. Eine Alternative für alle SUSE-Fans wäre openSUSE, welches ich persönlich ebenso wie Fedora normalerweise nicht in einem Unternehmensumfeld sehe. Es soll jedoch ab 15 SP 3 zu 100-Prozent binär-kompatibel mit SLES sein, wodurch es vielleicht für den einen oder anderen in Frage kommt. Hier gibt es direkt Monitoring-Plugins über das Packagehub-Repository und da wir als NETWAYS bisher wenig Anfragen in dem Bereich hatten, bauen wir aktuell noch nicht standardmäßig für SLES.
Andere Systeme kommen nicht als Plattform für das zentrale System infrage, aber als Agent wird auch noch Windows supportet und bauen lässt sich die Software selbst auf weiteren Plattformen. Im Fall von FreeBSD und Alpine Linux werden sogar Pakete von der Community bereitgestellt.
Zusammenfassung
Welche Distribution kann ich nun empfehlen? Debian ist sinnvoll für all diejenigen, denen der Community-Support ausreicht. Wer eh schon auf Enterprise-Support beim Betriebssystem setzt, für den lohnen sich die RHEL-Pakete, auch wenn diese mit einer Icinga-Subscription verbunden sind. Alle anderen Optionen sind auch valide, aber fühlen sich einfach nicht optimal an.
Wer eine heterogene Umgebung zu überwachen hat, findet im Icinga-Umfeld neben der Verfügbarkeit, wie man oben raus lesen konnte, ein paar kleinere Baustellen, die mit Erfahrung aber leicht zu handhaben sind. Für diese kann aber das Icinga-Projekt recht wenig, denn auch wenn man versucht hat, in der Vergangenheit in Zusammenarbeit mit allen Distributionen einen gemeinsamen Kurs zu finden, ist dies leider nicht immer gelungen.
Damit sind wir am Ende des ersten Teils meiner Vorstellung einer state-of-the-art Icinga-Installation. Ich hoffe Dir damit weiterhelfen zu können!
Falls Du bereits jetzt Interesse an Icinga gefunden hast und es auch in Deinem Unternehmen vorschlagen oder sogar einführen willst, führen ich oder ein:e Kolleg:in gerne eine individuelle Betrachtung der vorhanden IT-Umgebung durch. Im Rahmen eines solchen Consultingtermins erstellen wir gerne zunächst ein Proof of Concept. Natürlich können wir auch gleich mit der Implementierung von Icinga beginnen.
OSMC 2022 | Monitoring multiple Kubernetes Clusters with Thanos
By now, Prometheus has become the defacto standard for monitoring containerised applications, especially when you are using orchestration tools like Kubernetes or Consul. However, when it comes to monitoring multiple Kubernetes clusters through a single plane of glass, additional tools are required. In his talk at the Open Source Monitoring Conference 2022 (OSMC), Pascal Fries showed how to set up a production monitoring landscape based on Prometheus and Thanos, spanning several Kubernetes clusters. Focussing on examples and best practices. He also elaborates on how to securely communicate between the individual components.
Pascal Fries works as a IT Consultant at the ATIX AG in Garching (near Munich) in Germany. As a specialist for Cloud Native technologies, among his main fields of expertise are configuration and administration of multi cluster Kubernetes environments. Including their monitoring with Prometheus and Thanos.
As an introduction, Paul asked the audience if they were using Kubernetes (in a single or multi cluster setup) or Prometheus. Prometheus works very well at monitoring multiple Kubernetes Clusters. But there are several problem areas that you should be aware of, like long term storage, high availability and redundancy. To illustrate this with an example, he mentioned a customer story about Kubernetes usage where multiple teams use Kubernetes, in sum over 20 clusters. There are shared, managed and owned clusters all together in that environment, and all teams need to have a single endpoint for getting their metrics. Other requirements are long term storage, high availability and push based monitoring. How can we make yure to meet all there requirements with our monitoring setup?
Thanos, a storage layer for Prometheus
To solve these requirements, he introduced us to Thanos. It is basically a storage layer for Prometheus.
To set it up, you can use sample configurations. Its also more secure, as gRPC and TLS auth are being used instead of REST and basic authentication. When Thanos is communicating with Thanos, they use TLS auth – otherwise of course basic auth.
The long term storage is realized by saving the data in an S3, which can be self hosted or on a cloud service like NETWAYS Web Services. For realizing a push-based monitoring, Thanos can act as a receiver and compactor. The receiver is a short term DB and shards/replicates the timeseries by labels. Unfortunately, the results are duplicates in the S3. The compactor on the other side deduplicates in the S3, and downsamples the data for faster queries.
All in all, Thanos is a great tool for a redundant and highly available long term storage for Prometheus Monitoring.
And the OSMC is a great conference with many interesting talks every year! Especially if you want to learn more about everything related to Open Source Monitoring. There were talks about monitoring, automation and open source in general. And many interesting talks with the attendees. Hearing and discussing the different opinions and use cases of and about technology is exciting for me. I have been working at NETWAYS as a Junior Consultant for 2 years now, and it was the second OSMC. I am looking forward to next year already!
The recording and slides of this talk and all other OSMC talks can be found in our Archives. The next OSMC takes place from November 7 – 9, 2023 in Nuremberg. Early Bird tickets are already on sale!