Seite wählen

NETWAYS Blog

End of Life von CentOS Linux 7 – Was bedeutet das für mich?

Der ein oder andere Admin wird sich vermutlich schon lange den 30. Juni 2024 im Kalender vorgemerkt haben, denn dann ist für CentOS Linux 7 das „End of Life“ erreicht. Aber auch Benutzer von Red Hat Enterprise Linux 7 sollten sich Gedanken machen, denn auch dieses verlässt an dem Tag die „Maintenance Support 2 Phase“ und geht in den „Extended life cycle“ über.

Was bedeutet das nun?

„End of Life“ ist relativ einfach erklärt, ab diesem Termin wird die Unterstützung für das Produkt eingestellt und somit gibt es hier keine Updates mehr. Insbesondere das Fehlen von Sicherheitsupdates spricht dann ganz klar gegen einen Weiterbetrieb.

„Extended life cycle“ ist dagegen etwas komplizierter. Auf der einen Seite stellt auch Red Hat hiermit das Updaten ein, supported bestehende Systeme aber weiter und bietet auch Migrationsunterstützung. Auf der anderen Seite ermöglicht es bei Red Hat hier ein Support-Addon hinzu zu kaufen, welches dann Zugriff auf kritische und schwerwiegende Sicherheitsupdates und ausgewählte Bugfixes sowie andere Supportbedingungen gibt. Wer also aus irgendwelchen Gründen darauf angewiesen ist, kann für einen nicht gerade kleinen Betrag einen sicheren Weiterbetrieb sicherstellen und damit die Migration weiter hinauszögern. Für die meisten Nutzer dürfte es aber gleichbedeutend mit dem „End of Life“ sein.

Was soll ich nun tun?

Der übliche Weg bei Software ist der Weg nach vorne, also ein Upgrade auf die nächste Version des Betriebssystems. Hier wird es allerdings in diesem Fall deutlich komplizierter denn mit der Einstellung von CentOS Linux gibt es den klaren Weg nach vorne nicht mehr, sondern einen echt verzwickte Weggabelung!

Wer weiterhin dem CentOS-Projekt sein Vertrauen schenkt, hat als direkten Nachfolger CentOS Stream 8. Dieses ist aber nicht länger ein Downstream von Red Hat Enterprise Linux und auch nicht mehr den kompletten Support-Lifecycle unterstützt, sondern EoL bereits am Ende des „Full support“ was dem Release der Minorversion 10 und somit 5 Jahren statt 10 entspricht! Damit ist das EoL für CentOS Stream 8 allerdings bereits am 31. Mai 2024, also vor dem von CentOS Linux 7. Somit sollte der Weg schnell beschritten werden und dann direkt weiter zu CentOS Stream 9.

Der ein oder andere sollte auch überlegen ob die eigenen Anforderungen nicht den Wechsel zum Enterprise-Support rechtfertigen. Red Hat supportet den Wechsel hier nicht nur, sondern stellt auch entsprechende Werkzeuge zur Verfügung. Damit lässt sich auch das Upgrade bei Bedarf raus zögern, auch wenn ich nach dem Wechsel eigentlich direkt den Schritt zu RHEL 8 empfehlen würde bzw. man auch hier direkt mit Version 9 überlegen kann.

Eine andere Alternative mit direktem Enterprise-Support aber auch unbegrenzter freier Verfügbarkeit ist Oracle Linux. Hierbei lässt sich quasi das gleiche bezüglich Migration sagen. Aber bei diesem Wechsel empfehle ich sich mit den Besonderheiten von Oracle Linux ausführlich auseinander zu setzen. Ich habe da in der Vergangenheit durchwachsene Erfahrungen gesammelt. Zum einen haben wir Kunden, die mit teils recht großen Umgebungen komplett auf Oracle Linux sehr gut fahren. Zum anderen hatte ich mit zusätzlichen Repositories und dort enthaltener Software teils Probleme, da Oracle teilweise andere Kompiler-Flags setzt und auch EPEL (Extra Packages for Enterprise Linux) nachbaut, aber dies nicht im vollen Umfang.

Dann gibt noch die Forks, die aufgrund der Einstellung von CentOS Linux entstanden sind. Hier müssen für mich alle noch beweisen wie ihnen der veränderte Umgang von Red Hat mit den Quellen gelingt und wie das ganze nach dem EoL von CentOS Stream aussieht. Da sehe ich aktuell bei AlmaLinux, dass das Projekt sehr vieles richtig macht, sowohl technisch als auch in anderen Bereichen. Rocky Linux wirkt hier auch sehr solide. Alle anderen habe ich quasi aus den Augen verloren, da sie weder bei uns im Kundenstamm relevant geworden sind noch mein persönliches Interesse durch etwas geweckt wurde. Das Schöne hier ist, dass sowohl Werkzeuge zur Migration in Version 7, als auch direkt von 7 zu 8 existieren.

Den kompletten Distributionswechsel lasse ich in der Betrachtung mal außen vor, da hier dann deutlich mehr Planung notwendig ist. Auch dieser Aufwand ist zu stemmen, aber dann doch eher keine Lösung für einen Zeitraum von etwa 3 Monaten.

Wie gehe ich nun vor?

Nachdem die Entscheidung für das Ziel gefallen ist, stellt sich als nächste Frage üblicherweise ob man das System überhaupt upgraden oder lieber direkt neu erstellen will. Hier habe ich mich mittlerweile tatsächlich zu einem Befürworter von In-Place-Upgrades entwickelt, was auch an dem Tool Leapp bzw. ELevate liegt. Mit diesem und den Möglichkeiten wie ich es auch in größeren Umgebungen sinnvoll nutze, habe ich mich schon vor einer Weile in meinem Artikel „Leap(p) to Red Hat Enterprise Linux 9“ beschäftigt.

Worauf ich damals nur am Beispiel von Foreman eingegangen bin, sind hier der Umgang mit zusätzlicher Software. Foreman war für den Artikel ein gutes Beispiel, da hier extra Migrationen für Leapp gebaut wurden. Bei anderer Software ist dies nicht der Fall. Also müssen wir hier von zwei Szenarios ausgehen. Zum einen von Software, die aus einem zusätzlichen Repository in Form von Paketen installiert wurde, und zum anderen solcher die manuell installiert wurde. Software in Containern oder ähnlichem können außen vor lassen, da diese unabhängig vom Betriebssystem sind.

Software aus zusätzlichen Repositories sollte mit Leapp/ELevate kein Problem darstellen, solang ein Repository für die neuere Version verfügbar ist. In diesen Fällen muss nur das zusätzliche Repository während des Upgrades verfügbar gemacht werden. Dass es auch hier Stolpersteine gibt ist klar, ein Beispiel wäre hier Icinga wo ab EL8 nur noch Subscription-pflichtige Repositories zur Verfügung stehen. Also auch hier sollte etwas Zeit in Planung und Tests investiert werden bevor es an produktive Systeme geht.

Bei manuell installierter Software ist nach dem Betriebssystem-Upgrade sehr wahrscheinlich einmal neu kompilieren angesagt, damit die Software mit neueren Version der Systembibliotheken läuft. In manchen Fällen wird auch ein Update der Software notwendig sein, wenn die Kompatibilität sonst nicht mehr gegeben ist. Das gilt auch in vielen Fällen für nicht zu kompilierende Software, da sich auch Perl-, Python-, Ruby- oder ähnliche Laufzeitumgebungen ändern. Da hier ein Vorteil des In-Place-Upgrades weg fällt und eh ein manueller Schritt übrig bleibt, ist hier ein paralleler Neuaufbau schon eher verlockend. Was am Ende sinnvoller ist, entscheidet sich meist je nach Menge der Laufzeitdaten.

Ist damit alles getan?

In vielen Umgebungen wird hier gerne noch vergessen wo das Betriebssystem noch so eine Rolle spielt und auch hier ist die Migration wichtig. Zum einen ist es sinnvoll sich bei Containern oder Images wie beispielsweise bei Vagrant die Basis anzuschauen und hier auf neuere Versionen zu wechseln. Und dann haben wir zum anderen CI/CD-Pipelines, hier kann im Vorfeld über eine Erweiterung der Matrix schon oft eine Kompatibilität sichergestellt werden und nach abgeschlossenem Upgrade können dann die alten Systeme entfernt und damit verbundene Restriktionen gelockert werden, was sicher einige Entwickler freut.

Fazit

Wie hoffentlich jeder sieht, hier steht uns allen Arbeit bevor und zwar nicht nur beim eigentlichen Doing. Aber es kann auch als Chance für Innovation gesehen werden. Beispielsweise hat beim Foreman-Projekt ein regelrechter Frühjahrsputz eingesetzt nachdem mit dem Wegfall des Supports für EL7 und damit dem Bedarf an Support für EL9 der ganze Technologie-Stack modernisiert werden kann. Wenn ich nun jemand aufgeschreckt habe oder allgemein jemand bei dem Thema Hilfe benötigt gerne unterstützen unsere Consultants bei der Planung egal ob es um das richtige Vorgehen oder den Einsatz der Tools geht. Über ein Outsourcing-Kontingent unterstützen die Kollegen auch gerne beim eigentlich Upgrade. Und auch wegen einer Icinga-Subcription darf sich bei Bedarf an unser Vertriebsteam gewendet werden.

Dirk Götz
Dirk Götz
Principal Consultant

Dirk ist Red Hat Spezialist und arbeitet bei NETWAYS im Bereich Consulting für Icinga, Puppet, Ansible, Foreman und andere Systems-Management-Lösungen. Früher war er bei einem Träger der gesetzlichen Rentenversicherung als Senior Administrator beschäftigt und auch für die Ausbildung der Azubis verantwortlich wie nun bei NETWAYS.

Kritischer Fehler in Puppet Version 7.29.0 und 8.5.0

Eine Warnung an alle Nutzer von Puppet, aber auch Foreman oder dem Icinga-Installer, die Version 7.29.0 und 8.5.0 von Puppet enthält einen kritischen Fehler, der die Erstellung eines Katalogs und somit die Anwendung der Konfiguration verhindert. Daher stellt bitte sicher diese Version nicht bei euch einzuspielen!

Was genau ist das Problem?

Durch eine Änderung in den Versionen werden Klassenparameter mit einem Integer mit negativem Minimum nicht mehr als solche erkannt und stattdessen kommt es zu dem Fehler „The parameter ‚$parameter_name‘ must be a literal type, not a Puppet::Pops::Model::AccessExpression“. Da viele Module diesen Default verwenden, um den Wert „-1“ nutzen zu können wenn etwas unlimitiert sein soll, ist es sehr wahrscheinlich, dass eine Umgebung davon betroffen ist.

Ein Beispiel hierfür ist das Puppet-Modul zum Management von Redis, welches auch zu dem öffentlich einsehbaren Issue „puppet 7.29.0 sinks my arithmetic battleship!“ geführt hat. Tatsächlich ist auch bereits ein möglicher Fix dafür als Pull-Request „Accept UnaryMinusExpression as class parameter type“ in Arbeit, so dass hoffentlich bald eine Bugfix-Version releast werden kann.

Bis zu dem Bugfix-Release sind aber nicht nur direkte Puppet-Nutzer betroffen! Auch wenn ein Installer darauf aufbaut wie dies bei Foreman oder dem Icinga-Installer der Fall ist und ein entsprechendes Modul hierbei benötigt wird, ist es wichtig diese Versionen nicht einzuspielen!

Wie verhindere ich nun am sinnvollsten, dass diese Version eingespielt wird?

In einem geeigneten Softwaremanagement wie Katello lässt sich die fehlerhafte Version herausfiltern und somit gar nicht erst den Systemen zur Verfügung zu stellen. Ohne diese Möglichkeit muss mit den Mitteln des Paketmanagers unter Linux gearbeitet werden.

Bei DNF in der Betriebssystemfamilie „Red Hat“ lässt sich bei manuellen Updates --excludepkgs puppet-agent* angeben, um das Paket temporär auszuschließen. Wenn dies längerfristig benötigt wird oder gar ein automatische Update das Paket mitbringen könnte, lässt sich in der Haupt-Konfiguration oder im Puppet-Repository eine Zeile excludepkgs=puppet-agent-7.29.0*,puppet-agent-8.5.0* hinzufügen. Hierbei ist die genauere Versionsangabe wichtig, denn so kann die Konfiguration auch langfristig so verbleiben, ohne dass man daran denken muss die Zeile wieder zu entfernen. Wer noch ältere Versionen mit YUM nutzt kann dies genauso nutzen.

Auf der Betriebssystemfamilie „Debian“ kann mittels apt-mark hold puppet-agent kurzfristig das Update des Paktes blockiert werden. Dieses muss dann mit apt-mark unhold puppet-agent wieder aufgehoben werden, was mittels apt-mark showhold sichtbar wird. Auch hier empfiehlt sich bei Bedarf eine Lösung über die Konfiguration. Dafür muss innerhalb der Präferenzen von APT eine Konfiguration im folgenden Format angelegt werden.

Package: puppet-agent
Pin: version 1:7.29.0*
Pin-Priority: -1

Package: puppet-agent
Pin: version 1:8.5.0*
Pin-Priority: -1

Für Zypper auf SUSE-Systemen ist mir leider keine so elegante Lösung bekannt. Hier hilft temporär auch der Parameter --exclude puppet-agent oder zypper addlock puppet-agent.

Für den oder die zentralen Puppetserver bitte auch das Paket „puppetserver“ so behandeln.

Was wenn die Version schon installiert ist?

Der Agent aber auch der Puppetserver sollten sich problemlos über das Paketmanagement downgraden lassen. Zumindest hatte ich damit in der Vergangenheit keine Probleme. Also hilft hier dnf downgrade puppet-agent, apt install puppet-agent=VERSION oder zypper install --oldpackage puppet-agent=VERSION wobei man die letzte getestete Version angeben sollte.

Ich hoffe wie in solchen Fällen immer die Warnung wurde rechtzeitig gelesen und wir konnten euch damit ein paar Probleme ersparen!

Das Beitragsbild besteht aus dem Bild „Insects Collection 11“ von Openclipart-User GDJ sowie dem offiziellen Puppet-Logo.

Dirk Götz
Dirk Götz
Principal Consultant

Dirk ist Red Hat Spezialist und arbeitet bei NETWAYS im Bereich Consulting für Icinga, Puppet, Ansible, Foreman und andere Systems-Management-Lösungen. Früher war er bei einem Träger der gesetzlichen Rentenversicherung als Senior Administrator beschäftigt und auch für die Ausbildung der Azubis verantwortlich wie nun bei NETWAYS.

OSMC 2023 | What’s new with Grafana Labs’s Open Source Observability stack

I already mentioned in my recap of this year’s OSMC that I will go into more details about Sebastian Schubert’s talk giving an update on Grafana Labs’s Open Source Observability stack. In fact, I was so interested in the topic I volunteered for this blog post and made our Event team assign me the talk.
You may ask why, so you very likely are one of those who know Grafana very well but have not heard of all the other tools Grafana Labs has added to their stack over the last years. I myself just started a while ago digging deeper into it, and it feels like I can find some gold nugget down there. So I want to spread the word and perhaps cause a gold rush! 😉

 

Grafana

Sebastian started with a short introduction of him and by asking the audience who knows Grafana Logo Grafana. He was excited for sure that everyone in crowd did know about Grafana. So let’s start with the updates on Grafana. With Grafana being around for quite a while and having become the dashboard solution to go for most people it does not wonder that the most improvements are small but helpful convenience features. His examples were how the empty dashboard and panel editor were improved to help users to get the best representation of their data. Another improvement was the UI helping specifically with writing TraceQL queries instead of just taking an already existing statement which could be hard to come up with.

A completely new thing is the Visual Studio Code integration for editing and previewing dashboards. Looking at the number of colleagues using it, seeing integrating in many other tools as their Web IDE (integrated development environment) and personally thinking it is the best solution developed by Microsoft, having such an integration will make many people happy and grow the user base further.

But Grafana Labs does not only want to grow the user base, they also want to make developer’s life easier by working on a Developer Portal which combines all related information in one place. Please learn a lesson from this if working on a project where it is hard to get all the information needed to get into it!

Screencapture of the talk at the beginning

Mimir

While Mimir Logo Mimir is also around for some time, the metric solution of the stack needs some introduction especially compared to its more well-known competitors. Mimir is the (or one) successor of Cortex and the equivalent to Grafana Enterprise Metrics as an Open Source solution. Something Grafana Labs did with the complete stack, providing an equivalent to its Enterprise solution for the community as true Open Source.

Mimir was extended and improved over the last year. Most improvements I would summarize as performance enhancement in some way. But there were also new features added like allowing for alerts being sent to Webex or support for Redis as caching solution and Hashicorp Vault for more secure credential storage.

 

Loki

Loki Logo Loki has a similar problem like Mimir. It has more established competitors as log management solutions so it is not known by so many people, but I think it has some advantages you should be aware of. Sebastian did compare it more to Prometheus than its competitors as it uses a similar label-based design. On his format slide he explained this very well that an entry for Loki consists of a timestamp in nanoseconds and labels which get indexed to speed up queries and the not indexed content allowing for post-processing where all other solutions require you to optimize your data for the expected queries already before storing them.

Loki format

As you may guess post-processing could be the bottleneck in such a design, but Loki has solved this already quite well and Grafana Labs is constantly reducing the resource consumption what made me happy to hear.

 

Tempo and all the other components

Speaking about Tempo Logo Tempo Sebastian had to increase his at this point of the talk recognizing he can barely fit all the updates from one year for the complete stack in one talk. So starting with the solution for traces he got less into details. Tempo is comparable to the other solutions mentioned earlier but for traces and for this it needs many data.

Beyla Logo Beyla is another tool for tracing with a release pending and very likely to be shown in detail to the public in the near future.

Faro Logo Faro adds Frontend/Browser monitoring to the stack allowing to get details on the real user experience.

And last but not least Pyroscope Logo Pyroscope adds profiling which makes the stack cover a very big amount of data. All of those being visualized in the end as a dashboard in Grafana.

Screencapture of the talk at the end

So I really recommend at least having a look into the stack and watching the recording of Sebastian Schubert’s talk „What’s new with Grafana Labs’s Open Source Observability stack“ is a good starting point for this! Another starting point could be our training on InfluxDB & Grafana.

We hope to see you around at OSMC 2024! Stay in touch and subscribe to our Newsletter!

Dirk Götz
Dirk Götz
Principal Consultant

Dirk ist Red Hat Spezialist und arbeitet bei NETWAYS im Bereich Consulting für Icinga, Puppet, Ansible, Foreman und andere Systems-Management-Lösungen. Früher war er bei einem Träger der gesetzlichen Rentenversicherung als Senior Administrator beschäftigt und auch für die Ausbildung der Azubis verantwortlich wie nun bei NETWAYS.

NETWAYS Chefs | Azubis grillen – Teil 2

This entry is part 17 of 17 in the series NETWAYS Chefs

Im ersten Teil ging es um das Grillgut und die Salate, in diesem zweiten Teil zeigen wir Dir Rezepte für Ciabatta und Foccacia, Tzatziki und Hummus sowie den Nachtisch, den wir gereicht haben.

 

Focaccia von Dirk Götz

Tatsächlich bin ich durch den Lockdown dazu übergegangen, relativ häufig Brot selbst zu backen. Da ich privat meist nicht so weit vorplane wie dienstlich, werden gerade schnelle Rezepte dabei öfter gebacken. Das Focaccia-Rezept von Chefkoch ist so eines, da in gut anderthalb Stunden zwei Fladen essbereit sind. Auch lässt sich das Rezept leicht verdoppeln oder, wie bei diesem Grillen, gleich vervierfachen. Zusätzlich zu den Originalzutaten belege ich es gerne mit Tomaten und Oliven.

Du brauchst (für zwei Fladen):
Focaccia im Ofen
400g Mehl
1 Päckchen Trockenhefe
250ml Milch
75ml Olivenöl
1 TL Salz (gehäuft)
1 TL Knoblauchgranulat (gestrichen)
2 TL Oregano
Olivenöl zum Bestreichen
Salz zum Bestreuen
Oregano zum Bestreuen
3 Zehen Knoblauch zum Bestreuen
Ein paar Kirschtomaten, grüne Oliven, Kalmata-Oliven

So geht’s:

Aus den ersten 7 Zutaten einen Teig kneten und in einer verschlossenen Schüssel gehen lassen. Je nach Temperatur empfiehlt sich ein Warm-Wasserbad. Der Teig geht dabei deutlich auf. Nebenbei den Knoblauch hacken.

Den Teig dann nach ca. 45 Minuten halbieren und zu zwei Fladen formen. Diesen mit den Fingerspitzen eindrücken, mit Öl einpinseln, salzen, mit Oregano und dem gehackten Knoblauch bestreuen. Die Tomaten und Oliven in Scheiben schneiden und leicht in den Teig drücken.

Nun 20 Minuten bei 175°C Umluft backen bis es leicht gebräunt ist.

 

Ciabatta von Valeria Thiele

Natürlich darf ein leckeres Ciabatta bei einer Grillparty nicht fehlen. Hier komme ich ins Spiel.
Daheim hatte ich schon ein paar mal mit meinem Freund zusammen Ciabatta gebacken. Na gut, eigentlich habe ich eher assistiert :D. Dies ist immer sehr gut geworden und daher wollte ich es für NETWAYS nachbacken. Das Rezept, an dem ich mich orientiert habe, könnt ihr bei Thomas kocht nachlesen.

Du brauchst:
Ciabatta
400g Mehl (Typ 550), sowie Mehl für die Arbeitsfläche
4g frische Hefe
8g Salz
300ml Wasser
Öl zum Einfetten
Außerdem wird hierfür eine Schüssel benötigt worin der Teig gehen kann, sowie eine große Schale worin man den Teig falten kann, im besten Fall eine Teigwanne.

Insgesamt haben wir 8 Ciabatta gebacken.

So geht`s:
Schritt 1

Begonnen habe ich am Vorabend, damit der Teig über Nacht gehen konnte.

Ich habe jeweils den Teig für 2 Ciabatta in einer Schüssel gemacht:
Wasser in eine Schale geben und die Hefe darin gut auflösen. Salz und Mehl in einer Schüssel vermischen. Das Hefewasser zugeben und so lange vermischen, bis alles Mehl gebunden ist.

Insgesamt brauchte ich also 4 Schüsseln, da ich keine 8 Ciabatta gleichzeitig händeln kann. So konnte ich die Teige nach und nach abarbeiten. Gebacken haben wir 4 normale Ciabatta und 4 mit mediterranen Gewürzen.

Für das mediterrane Ciabatta habe ich noch nach Belieben Thymian, Rosmarin, Oregano und getrocknete Tomaten hinzugefügt.

Schritt 2

Am nächsten Morgen habe ich zunächst 2 Schüsseln aus dem Kühlschrank genommen, um den Teig bei Zimmertemperatur gehen zu lassen.
Nach ca. 1 Stunde habe ich dann auch die nächsten 2 Schüsseln aus dem Kühlschrank genommen. Der Teig kann verarbeitet werden, wenn er viele Blasen wirft, er sollte jedoch mind. 2 Stunden bei Zimmertemperatur gehen.

Schritt 3

Den Teig aus einer Schüssel auf ein gut geöltes Blech legen. Danach hieß es eigentlich nur noch, den wabbeligen Teig zu falten und 15 min warten, wieder falten und warten, immer und immer wieder, 4-6 mal für alle Ciabattas. In den Ruhezeiten sollten der Teig mit einem feuchten Tuch abgedeckt werden. Insbesondere das Falten ist für jemanden, der das noch nicht gemacht hat, schwierig und man sollte sich vorher unbedingt das Originalrezept und das Video dazu anschauen. Auch für mich war es hier schwierig, da der Teig etwas zu ölig wurde und dadurch der Teig sich beim Falten immer wieder öffnete.
Hat man das jedoch geschafft ist der schwerste Teil überstanden.

Schritt 4

Der Teig kann nun halbiert werden und zu einem Baguette geformt werden. Bevor es in den Ofen kann, muss der Teig noch einmal 30 min gehen.

Schritt 4

Ofen vorheizen auf 240 C° Ober-Unterhitze und für ca. 20 Minuten ohne Dampfzugabe backen. Die Zeit kann natürlich je nach Ofen und Größe der Ciabatta variieren.

Fazit

Wer es schon mal gemacht hat, weis, dass der Teig nicht einfach zu händeln ist. Es war eine äußerst wabbelige Angelegenheit.

Das Endergebnis war ein super luftiger Teig, doch ganz zufrieden war ich nicht. Die krosse Kruste habe ich nicht hinbekommen. Dennoch wurde es von allen gern gegessen, was mich sehr gefreut hat.

 

 

Hummus von Valeria Thiele

Was passt gut zu Ciabatta? Richtig, Hummus! Und hier ist mein persönliches Hummus-Rezept:

Du brauchst (für eine große Schüssel):

3 Dosen Kichererbsen (265 g)
300 ml eiskaltes Wasser
Saft von 3 Zitronen
1-2 TL Salz
1-2 TL Kreuzkümmel
ggf. Kurkuma
360g Tahin
3 Knoblauchzehen

So geht`s:

Zunächst wird der Zitronensaft, der Knoblauch und das Salz in einer Schüssel mit dem Mixer püriert. Danach wird das Tahin in die Schüssel gegeben. Alles durchmixen und gleichzeitig das kalte Wasser beim Mixen zugießen, so wird der Hummus besonders luftig.

Zum Schluss noch das Olivenöl und die Gewürze hinzufügen und nochmals durch mixen. Und fertig!

Ein 5-Minuten-Rezept, welches am besten zu frischem Brot passt.

 

Tzatziki von Apostolos Pliakos

Als Grieche war es für mich eine Selbstverständlichkeit, den Tzatziki zuzubereiten. Das Geheimnis eines hervorragenden Tzatzikis liegt zweifellos im hochwertigen griechischen Joghurt. Daher habe ich mir die Zeit genommen, zu einem authentischen griechischen Großhändler zu fahren, um nur das Beste für meine Kollegen zu besorgen. Das Rezept kommt von akispetretzikis.com

Du brauchst:

300g Joghurt
1 Gurke
1/3 Knoblauchzehe
3 EL Weißweinessig
1/4 Bund Dill
2 EL Olivenöl
1 Prise Salz
Pfeffer

So geht`s:

Die Zubereitung beginnt mit dem Schälen der Gurke und dem groben Reiben mit einer Käsereibe. Die Gurke wird dann in eine Schüssel gegeben, in der sie mit einer Prise Salz und einem Esslöffel Weißweinessig vermischt wird. Anschließend ist es wichtig, die Gurke gründlich auszudrücken, um jegliche überschüssige Flüssigkeit zu entfernen. Dies kann man am besten mit einem Geschirrtuch erledigen. Als nächstes wird der Joghurt zusammen mit der fein zerkleinerten Knoblauchzehe, zwei Esslöffeln Weißweinessig und zwei Esslöffeln Olivenöl vermischt.

Nachdem die Gurke ausreichend entwässert wurde, wird sie zur Joghurtmischung gegeben. Das ganze wird sorgfältig verrührt, bis sie eine samtige Konsistenz erreicht. Schließlich wird die Mischung nach Geschmack mit Pfeffer und Salz gewürzt und durch die Zugabe von fein gehacktem Dill verfeinert.

 

Nachtisch von Dirk Götz

Der Nachtisch sollte etwas Einfaches werden, aber dennoch zum Grillen passen. Daher war mein Vorschlag die gegrillte Ananas, Valeria schlug Schokobanane vor und zu beidem passt Vanilleeis super dazu. Also planten wir für jeden mit zwei Stückchen Ananas, einer halben Schokobanane und einer Kugel Eis.

Nachtisch vor dem Grill

Du brauchst:
Frische, reife Ananas
Bananen und Zartbitterschokolade
Vanilleeis

So geht`s:

Erst das obere und untere Ende von der Ananas abschneiden und die Schale abschneiden. Jetzt die Ananas vierteln und den Strunk entfernen. Nun in Scheiben oder Spalten von 2-3 cm Dicke schneiden. Diese dann grillen bis sie leicht gebräunt sind und Linien vom Grillrost zu sehen sind. Ist die Ananas nicht reif genug kann man auch mit etwas Rohrzucker für zusätzliche Süße sorgen, der karamellisiert zusätzlich beim Grillen. Eine andere Option ist, die Ananas mit etwas gutem Rum einzulegen, was ihr auch nochmal ein anderes Aroma gibt.

Nachtisch am Platz des Kollegen

 

Für die  Schokobananen einfach die Banane samt Schale einschneiden, etwa zwei Reihen von der Schokolade abbrechen und in den Einschnitt stecken. Anschließend auf den Grill legen, bis die Schokolade geschmolzen ist. Danach am besten mit einem scharfen Messer halbieren, so dass sie leichter aus der Schale gegessen werden kann.

Das Vanilleeis einfach portionieren und neben Ananas und Schokobanane anrichten.

 

Schlusswort von Christoph Breit

Abschließend bleibt zu sagen, dass jeder satt geworden ist und die Bewertungen durchweg positiv ausgefallen sind. Das Daniel-Bodky-Zitat „Azubis sind einfach die besseren Kollegen“ war des Öfteren zu hören. Aber am wortgewandtesten war unser Tobias Redel mit „Vielen, vielen Dank! Das Essen war sehr geil! Frisch gebackenes Brot und der Nachtisch vom Grill ist dabei „Next Level“. Das hat man beim Grillen selten.“

Es waren coole Erfahrungen, die man normalerweise so nicht hat und wir hatten beim Vor- und Nachbereiten jede Menge Spaß. Außerdem hoffen wir, dass wir bald auch einmal den Komfort haben werden, uns von den Kollegen bekochen zu lassen.

 

Dirk Götz
Dirk Götz
Principal Consultant

Dirk ist Red Hat Spezialist und arbeitet bei NETWAYS im Bereich Consulting für Icinga, Puppet, Ansible, Foreman und andere Systems-Management-Lösungen. Früher war er bei einem Träger der gesetzlichen Rentenversicherung als Senior Administrator beschäftigt und auch für die Ausbildung der Azubis verantwortlich wie nun bei NETWAYS.

OSMC 2023 | Recap Day 2

SNMP Monitoring at scale

After a warm welcome by Bernd and the sponsor Eliatra the talks started. The first talk I was interested in was „SNMP Monitoring at scale“ by Rocco Pezzani from Würth Phoenix and Thomas Gelf from NETWAYS Professional Services. They teamed up to modernize SNMP monitoring and I was curious if the managed to do so. The talk started with anice summary of the problems you face in realtiy when using SNMP, and I think everyone using it practically known how complicated MIBs can be and how many of them are faulty. Their entry into the topic was to develop a MIB browser to be integrated into NetEye. One thing shown by this was the need of a new MIB parser, they plan for the future to relaxe parsing and compensate for errors as the number of faulty MIBs was too high. But they postponed this for the „funny“ part, a module to collect and inventarise SNMP data of an environment. They directly solved challenges other modules still have to solve like decentraled collection of data or other SNMP monitoring solutions face based on performance. In addition to active polling, they already created a first prototype for a trap reciever. Believing their explanations and shown error, I think they could really have managed the targeted modernisation, but decide by yourself as the first release will come soon.

 

Will ChatGPT take over my job?

The second talk I visited was the buzzword filled „Will ChatGPT take over my job?“ by Philipp Krenn. Of course, this was only his way to get people introduced to the topic. His main goal was to show the AI assitance integrated in the Elastic stack. While his demo was very nicely done and showed some great ideas, my personal feeling is that we are only at an early start, and it needs still needs improvement. This could be because it is a tech preview, or because of the exploratory mode of the AI used here. On the other hand, Philipp preferred this mode in contrast to the conservative mode which is used for the integration when it comes to security. But very important is still his warning that AI is just a tool you should learn to use, but not to trust at the current state. Based on the question of the audience, there was a big interest in the topic.

 

Icinga for Windows

Before the lunch break, Christian Stein gave his update on Icinga for Windows. He started with the things fixed and improved with the latest release and by giving a quick overview of Icinga for Windows. One big improvement was the introduction of the REST API, which limits concurrent checks and increases the execution performance while consume less resources. This requires the latest Icinga 2 version, as the required check command is integrated there for an easy integration for a good user experience. As a person interested in Security, I am also quite happy about his work on the JEA profiles. JEA stands for Just Enough Administration and is the Windows way of improving security. But this was only the current state, he also showed his visions for the future. The demo was about the improved management capabilities integrated in the console, allowing to remotely install on other servers. Other plans are a rewrite of some core features and to improve cluster monitoring, which will result in the next version being 2.0 next year. But there will be a 1.12 in between as preparation and for bug fixing.

 

The Ignite Talks

After everyone had his portion of the great lunch as desert, there were the Ignite talks. This format is perhaps well-known nowadays, but I always look up to those brave people who can do 20 slides with a fixed number of seconds each on automatic mode. In the first one „Honeypot Flavors: Open-Source Honeypots and their Use in the Automotive Industry“ Niclas Ilg gave a quick look inside Bosch, how they use Honeypots and how they participate in development. The second one was our Daniel Bodky with „Metrics, Margins, Mutiny – How to make your SREs (not) run away“ introducing the concept of Site Reliability Engineer to the audience. And last but not to least Felix Frank who always has the courage to tackle important but unpopular topics talked about „Your business isn’t Green enough„.

 

Impact assessment with Netbox Path

After those, I visited „Impact assessment with Netbox Path“ by Dave Kempe from the Australian Icinga partner Sol1. He shortly introduced NetBox, an Open Source CMDB, and the Icinga Business Process Module and what challenge they solve with it in a monitoring environment. NetBox Path is a plugin to manage dependencies between objects in the CMDB in a graphical way, but also via API. This plugin they utilized to close the gap by adding a notification plugin which shows the path to users to provide them context.

 

What’s new with Grafana Labs’s Open Source Observability stack

Really interested I was in „What’s new with Grafana Labs’s Open Source Observability stack“ by Sebastian Schubert from Grafana Labs. And it seemed that I am not the only one as the room was full and when asked if someone does not know Grafana anyone spoke up. He started with the improvements to Grafana which did not need any introduction. The second tool covered was Mimir, the metrics solution from Grafana Labs. After a short introduction, he showed the performance improvements and new features coming to in the last year. Next was the Log management solution Loki which works similar to Prometheus but for logs instead of metrics, again he introduced it shortly and show the improvements. He did the same for Tempo – the tracing solution, Beyla – another tracing solution which will be released in the near future, Faro – Browser or End User monitoring, and Pyroscope – the solution for profiling. I kept this summary quite short, as I plan to do another blogpost going into detail when the conference archive is online, so stay tuned.

 

Newest developments in Checkmk Raw – the open-source monitoring solution

It is always a good sign if you can not decide between talks as you want to be in both rooms, but as I had to decide I joined Lars Michelsen from Checkmk with „Newest developments in Checkmk Raw – the open-source monitoring solution“ because I have not had a look on it for a while. The focus of the talk was on the raw edition, which is the community edition. There is also a enterprise edition with performance improvements and convenience features, and a cloud edition for those who want the enterprise solution in a hosted version. The web interface was improved to be a more modernized version of the same design goal and looks quite nice, especially with the graphing solution switched to the one from the enterprise edition. Also, communication with the agent is now more secure and also security is active by default. API for the web and plugins were improved, too. And these were only the changes before the last version, in this release more UI improvements and improvements on graphing integration of Grafana are included with many more small things. Numbers and Tools developed by the community shown by Lars show the Checkmk ecosystem being wealthy and growing. The same goes for the numbers from behind the scene like growth of the company. A nice tool he showed was Robotmk which integrates the Robot Framework into Checkmk for End-to-End-monitoring.

 

Current state of Icinga

And as always Bernd finished with „Current state of Icinga“ the day. He started with a very short introduction, including some new and interesting success stories. Afterwards, he walked the audience through all the new module releases and the improvements which came with it. As this would be quite much, I will focus on the two new things.
Icinga Notifications will move the notification from the core to a new module, which will give you a much more granular control over notifications and escalations by incorporating schedules and giving all modules and in the future external solutions an endpoint to send notifications to. A usability test for it is going on during OSMC, a prerelease should happen later this year with the first release being planned for next year.
Icinga K8s Monitoring will replace all the current approaches to get Kubernetes to fit in Icinga’s data model with a much more fitting solution. This should be really helpful for users to get a much better look inside their environment. And it should be also available as a prerelease later in the year, with a final release next year.
He ended his talk with an outlook at upcoming events, just 15 minutes late, but right in the time for the evening event.

Dirk Götz
Dirk Götz
Principal Consultant

Dirk ist Red Hat Spezialist und arbeitet bei NETWAYS im Bereich Consulting für Icinga, Puppet, Ansible, Foreman und andere Systems-Management-Lösungen. Früher war er bei einem Träger der gesetzlichen Rentenversicherung als Senior Administrator beschäftigt und auch für die Ausbildung der Azubis verantwortlich wie nun bei NETWAYS.