Die Zeit ist reif!


Viele unserer Trainer werden sich bald in den verdienten Sommerurlaub verabschieden und auch unser Schulungsprogramm pausiert in den heißen Sommermonaten. Im September starten wir dann wieder voll durch mit neuen Trainings, noch mehr Wissen und viel Raum und Zeit zum Lernen und Ausprobieren. Mit der Erfahrung aus über 300 Open Source Projekten, wissen wir genau, worauf es ankommt und freuen uns darauf, dieses Wissen mit Ihnen zu teilen. Sichern Sie sich jetzt Ihren Platz und planen Sie sich im Herbst ein wenig Abwechslung und neuen Input ein! Die Zeit ist reif!
Alle Schulungen im Überblick finden Sie hier.

Das bietet unser Schulungsprogramm im Herbst:

 

  1. Elastic Stack | 2 Tage | 12.09. – 13.09.2018

Sie erhalten eine detaillierte Einführung in die, auf Open Source basierenden Logmanagement Tools Elasticsearch, Logstash und Kibana. Darüber hinaus werden Techniken der Logübertragung, -auswertung und -analyse vermittelt.

  1. Icinga 2 Advanced | 3 Tage | 18.09. – 20.09.2018

In diesem Lehrgang für Fortgeschrittene erfahren Sie alles, was für den Betrieb von größeren und komplexeren Umgebungen notwendig ist: über das Icinga 2 Setup, distributed Monitoring und Hochverfügbarkeit, Performancegraphing und vieles mehr.

  1. GitLab | 2 Tage | 18.09. – 19.09.2018

GitLab ist mittlerweile das Tool zur verteilten Versionsverwaltung und erfreut sich immer größerer Beliebtheit, nicht nur unter Entwicklern, auch in der DevOps-Bewegung. In unserer Schulung erfahren Sie, wie Git und GitLab die tägliche Arbeit erleichtern.

  1. Advanced Puppet | 3 Tage | 25.09. – 27.09.2018

Lernen Sie den Umgang mit systemübergreifender Konfiguration mit Puppet, Module um Komponenten zu erweitern und die Qualität ihrer Module mit Tests zu verbessern. Außerdem im Programm: Module-Design und Troubleshooting.

  1. Graphite + Grafana | 2 Tage | 25.09. – 26.09.2018

Ihre Schulung für erfolgreiches Performance-Monitoring, vom Sammeln und Auswerten von Werten mit Graphite, bis zum Darstellen und Analysieren mit Grafana und weiteren Tools für den Aufbau eines individuellen, integrierbaren Stacks.

  1. Icinga 2 Fundamentals | 4 Tage | 09.10. – 12.10.2018

In diesem Training erhalten Sie Basiswissen zur Installation von Icinga 2 und Icinga Web 2 garniert mit Praxisbeispielen und Best Practices für Icinga 2 Konfiguration, Integration von Remote Clients und PNP4Nagios und weiteren nützlichen Inhalten.

  1. Fundamentals for Puppet | 3 Tage | 16.10 – 18.10.2018

Lernen Sie die grundsätzliche Funktionsweise hinter der Abstraktionsschicht von Puppet kennen, den Aufbau von Puppet-Modulen und deren Entwicklung vom lokalen Prototyp zum Deployment auf dem Puppet-Master.

  1. Ansible | 2 Tage | 23.10. – 24.10.2018

Nebst Installation und Umgang mit Ansible geht das Training auf die Konfiguration von Linux/Unix Systemen, den Umgang mit Playbooks und Rollen ein und gibt Hinweise zur Erstellung eigener Module.
9. Ansible AWX (Tower) | 1 Tag | 25.10.2018
Ansible AWX und Ansible Tower begleiten Unternehmen bei der Automatisierung. In diesem Kurs geben wir Ihnen einen umfassenden Überblick über deren Einsatzmöglichkeiten.
10. Jenkins | 1 Tag | 25.10.2018
Erfahren Sie alles über Jenkins, ein erweiterbares, webbasiertes Continuous Integration System zur Automatisierung von Integration, Tests und Paketbau.
 
Die NETWAYS Schulungen bestehen aus einer Kombination von Vortrag und praktischen Übungen. Unsere kompetenten Trainer arbeiten – wie Sie – als Praktiker tagtäglich mit den entsprechenden Open Source Anwendungen. Im Preis enthalten sind umfangreiche Schulungsunterlagen und volle Verpflegung. Notebooks und Wifi stellen wir.
Alle hier gelisteten Schulungen finden im NETWAYS Headquarter in Nürnberg statt, Deutschherrnstraße 15-19. Gerne sind wir Ihnen bei der Buchung eines Hotels behilflich. Melden Sie sich einfach bei uns.
Weitere Infos und Anmeldung unter: netways.de/schulungen

Julia Hornung
Julia Hornung
Senior Marketing Manager

Julia ist seit Juni 2018 Mitglied der NETWAYS Family. Vor ihrer Zeit in unserem Marketing Team hat sie als Journalistin und in der freien Theaterszene gearbeitet. Ihre Leidenschaft gilt gutem Storytelling, klarer Sprache und ausgefeilten Texten. Privat widmet sie sich dem Klettern und ihrer Ausbildung zur Yogalehrerin.

E-Mails und Bereitschaft nach der Arbeitszeit – “Just fit – Just awesome”

This entry is part 10 of 10 in the series Just fit – Just awesome

Heute möchte ich unsere Blogserie “Just fit – Just awesome” fortführen und mich dem Thema “E-Mails und Bereitschaft nach der Arbeitszeit” widmen.

E-Mails sind heutzutage ein “notwendiges Übel” und stellen bei durchschnittlichen Büroarbeitern den häufigsten Grund für Unterbrechungen dar. Im Schnitt werden wir während der Arbeitszeit alle 11 Minuten unterbrochen. Eine 2005 vom King’s College in London dazu durchgeführte Studie bestand aus 3 Gruppen:

  • Gruppe A: Probanden, die nicht unterbrochen wurden
  • Gruppe B: Probanden, die unterbrochen wurden
  • Gruppe C: Probanden, die Marihuana geraucht hatten

Das Ergebnis der Studie macht es relativ deutlich: Die Personen der Gruppe B, die während der Tätigkeiten unterbrochen wurden, benötigten ca. 50 % länger für ihre Aufgaben als die Personen der Gruppe A. Das ließe sich vielleicht noch durch Mehrarbeit auffangen. Was noch viel schwerer wiegt, ist allerdings auch die um ca. 50 % erhöhte Fehlerquote im Gegensatz zur Vergleichsgruppe A. Selbst Gruppe C unter Einfluss von Marihuana, schnitt besser ab als Gruppe B, aber auch deutlich schlechter als Gruppe A.

Als Erkenntnis daraus sollte man sich also Gedanken machen, um die Unterbrechungen möglichst zu minimieren. Beim Thema E-Mail gibt es da verschiedene Ansätze: Beispielsweise lässt sich die automatische Benachrichtigung des Mailpostfachs für neu eintreffende Nachrichten abschalten, um Ablenkungen zu vermeiden. Für Microsoft Outlook findet sich hier eine Anleitung. Je nach Aufgabengebiet macht es dann natürlich trotzdem Sinn, zu gewissen Zeiten einen Blick ins Postfach zu werfen, um die angefallenen Nachrichten gezielt abzuarbeiten. Dafür sollten allerdings fixe Zeiten eingeplant werden. In der Praxis kommt es sehr häufig vor, dass auch diese fest eingeplanten Zeiten nicht eingehalten werden und vielleicht aufgrund von vermeintlich zu niedriger Priorität gegenüber anderen Aufgaben verschoben werden. Abhilfe schafft hier, diese Zeiten wie Meetings mit anderen Personen zu behandeln und vielleicht auch strikt in den Kalender einzutragen. Kommen trotzdem Unterbrechungen zustande, ist es sehr effektiv, wenn man sich angewöhnt, in dem Moment Notizen zu machen, um schnell den Wiedereinstig zu finden.

Quelle: https://stockata.de/

Ein weiterer Ansatz ist, die erhaltenen E-Mails grundsätzlich in Frage zu stellen: Viele E-Mails sind nur informativer Natur und ziehen keinen Handlungsschritt nach sich. So kann man sich beispielsweise von einigen Mailverteilern austragen (lassen) und teilweise gegen alternative Methoden wie Übersichtsseiten à la GitHub), RSS-Feader (z.B. für den NETWAYS Blog) und eigene Suchen im Ticketsystem ersetzen. Auch hier sollte man sich den Interessensgebieten dann zu festen Zeiten widmen und die angefallenen Meldungen sichten. Somit lässt sich auch die “Mailflut” nach dem zweiwöchigen Sommerurlaub eindämmen und die Urlaubsstimmung hält vielleicht doch noch ein oder zwei Tage länger an ;-).

In der Regel ist es sowieso meistens so, dass wirklich wichtige Nachrichten auch ohne permanenten Zugriff auf das Mailpostfach ankommen. Zugegeben verschafft der zeitliche Informationsvorsprung manchmal schon Vorteile, verglichen mit den Massen an Mails, die dazu sofort gelesen werden müssen, heben sich diese aber auch schnell wieder auf.

Gerade im IT-Bereich fühlen sich viele auch in der Freizeit verpflichtet, ständig und überall erreichbar zu sein. Neben dem Zugriff auf E-Mails ist das v.a. auch die telefonische Erreichbarkeit. Können wirklich Störungen oder Kundenanfragen auftreten, die sofort behandelt werden müssen, sollte es dafür einen offiziell geregelten (und bezahlten) Bereitschaftsdienst mit wechselnder Belegschaft geben. Wenn sich das Ganze mal “eingeschlichen” hat, ist die Hemmschwelle, dem Kollegen auf dem Privathandy anzurufen, sonst deutlich geringer. Aus meiner Zeit als Systemadministrator weiß ich nur zu gut, dass man sich für sein “Baby” irgendwo auch verantwortlich fühlt und schon alleine aus Gründen der Arbeitsplatzerhaltung manchmal doch außerhalb der Reihe eingreifen muss, das sollte jedoch die große Ausnahme bleiben.

Ein etwas schwammiges Thema ist noch die Arbeit im “HomeOffice”. Hier hilft v.a. eins: Selbstdisziplin! So ist es sehr hilfreich, die normalen Gewohnheiten beizubehalten und sich beispielsweise in “Berufskleidung” zu festen Zeiten an den Schreibtisch zu begeben. Umso besser, wenn dieser in einem eigens dafür vorgesehen Raum steht und so die Trennung zwischen privat und beruflich genutztem Bereich leichter fällt. Auch private Tätigkeiten wie Einkaufen, Abholen von Paketen oder die tägliche Wäsche sollte auf die Pausen- bzw. Feierabendzeiten verlegt werden. Somit gibt es eine klare Trennung zwischen Arbeits- und Freizeit.

Als Fazit lässt sich also sagen, dass weniger manchmal mehr ist bzw. besser formuliert: Umso geordneter die Abläufe sind, desto besser! Damit lassen sich viele Reibungsverluste vermeiden und insgesamt auch effizienter, fehlerfreier und stressfreier arbeiten. Ich wünsche dabei auf jeden Fall viel Erfolg bei der Umsetzung!

Markus Waldmüller
Markus Waldmüller
Lead Senior Consultant

Markus war bereits mehrere Jahre als Sysadmin in Neumarkt i.d.OPf. und Regensburg tätig. Nach Technikerschule und Selbständigkeit ist er nun Anfang 2013 bei NETWAYS als Lead Senior Consultant gelandet. Wenn er nicht gerade die Welt bereist, ist der sportbegeisterte Neumarkter mit an Sicherheit grenzender Wahrscheinlichkeit auf dem Mountainbike oder am Baggersee zu finden.

Zeiterfassung mit Rachota


Neulich musste ich mich nach Jahren wieder einmal nach einer Lösung für die tägliche Zeiterfassung umsehen, da ich mittlerweile während des Tages öfter wie zuvor Tasks für unterschiedliche Kunden, bzw. auch Änderungen an unserer internen Infrastruktur zu erledigen habe.
Bei der Recherche ist mir sofort das TimeTracking Tool Rachota aufgefallen, das zunächst als Java Anwendung einfach plattformübergreifend ist und somit auch ohne Umgewöhnung auf diversen Betriebssystemen in meinen VMs oder auch auf dem Netbook läuft.
Nebenbei bemerkt sogar auf einem USB Stick, sehr gut falls jemand oft an unterschiedlichen Arbeitsplätzen ohne Notebook etc. arbeitet.
Das Interface sieht auf den ersten Blick sehr schlicht aus, bietet aber nach etwas Einarbeitung und Anpassung der Default Konfiguration alle Funktionen, die ich brauche. Wichtig war mir in dem Fall, dass man eine beliebige Anzahl einzelner Projekte anlegen und priorisieren kann, und auch wiederkehrende Aufgaben definiert werden können.
Weniger ging es darum die tägliche Gesamt-Arbeitszeit auf die Sekunde genau erfassen zu können, was aber durchaus mit entsprechendem Aufwand auch ein Ziel der Anwendung sein kann wenn man möchte.
Dem interessierten Anwender liefert es z.B. auch eine „Analytics“ Funktion, mit der man seinen Arbeitsablauf optimieren kann.
Die erstellten Reports lassen sich sowohl im HTML und Textformat, als auch zur Weiterverarbeitung als CSV ausgeben.
In der kurzen Zeit konnte ich sicherlich nicht alles was die Software bietet perfekt ausnutzen, aber mir hat die tägliche Arbeit damit jedenfalls bisher gut gefallen, einen Blick ist das Programm auf jeden Fall wert.

Stefan Gundel
Stefan Gundel
Senior Systems Engineer

Stefan ist ein Urgestein bei NETWAYS und arbeitet im Managed Services Team. Der internationale Durchbruch gelang Stefan als Fotomodel für den K+K Warenkorb. Nachdem er einige Jahre exklusiv für unseren Kunden StayFriends gearbeitet hat, darf er nun endlich auch wieder in anderen Projekten mitarbeiten.

Monthly Snap July – Sommermeeting & Grillfeier | Icinga Releases | Neuerungen, Updates, #lifeatnetways


Während der Monat Juli zu Ende geht, klettern die Temperaturen auf ihren diesjährigen Höchststand: Dienstag, 31. Juli | 36 Grad! Jeder geht mit der Hitze ja anders um. In einem solchen Monat lernt man seine Kollegen nochmal ganz anders kennen – und schätzen! Mit Nicole und Markus etwa werden Stieleis-Kindheitsträume wahr ?
Sommer, Sonne, Sommermeeting

Highlight des Monats ist der 20. Juli: Sommermeeting und Grillfeier! Vormittags versammelt sich die gesamte NETWAYS Familie im Kesselhaus, wo die Teamleads das Abteilungsgeschehen präsentieren und CEO Bernd eine motivierende Rede hält, wie sie nur Bernd halten kann und einen Ausblick auf große Veränderungen gibt: Wir werden umziehen – physisch in neue Räumlichkeiten, virtuell auf eine neue Webseite. Das muss natürlich gefeiert werden: Am späten Nachmittag ziehen immer mehr Kollegen auf die Dachterrasse zu BBQ, DJ Alexander und Gin&Tonic-Bar.
Gefeiert hat die NETWAYS Familie im Juli so einiges  – auch den #SysadminDay, zu dem es ein großes Frühstücksbuffet gab.
Neuerungen und Updates
Aber wir waren auch abseits der Tanzfläche fleißig! Eine ganze Reihe NWS | Neuerungen und Updates stellt Marius in seinem Blogpost vor. Alexander hat SSL geknackt! Naja, fast. Markus sieht sich ReaR mal anders an und Georg erklärt, wie man einen verschlüsselten File-Container mittels cryptsetup und LUKS erstellen kann. Consultant Markus verrät, wie wir dienstlich Reisen. Marius hat einen anderen Ansatz gefunden: Let’s Encrypt HTTP Proxy: Another approach und Webinar-Meister Christian präsentiert die NETWAYS Webinare: Icinga 2 Serie.
Überhaupt Icinga! Hier hagelts Releases
Mitte Juli präsentieren die Icinga Entwickler ihr Icinga 2.9.0 Release! 2.9.0 bringt Neuerungen wie Elasticsearch 6-Unterstützung, eine einfachere Client-Installation und Bugfixes in punkto Windows-Reload, Speicherprobleme, geplante Downtimes und Benachrichtigungsreihenfolge. Kurz darauf folgt das Release von Icinga Web 2 2.6.0 mit zusätzlichen Dashboard-Widgets, einer neuen Hostgruppen-Übersicht und erweitertem Audit-Logging. Dank aufmerksamer Community Mitglieder, die einen weiteren Bug melden, kann die Icinga Crew letzte Woche gleich noch eins drauf setzen: Icinga 2.9.1.
Auch unsere Buchautoren Lennart und Thomas setzen eins drauf: Icinga 2 Buch, 2nd Edition. Dank Gunnar gibt es in unserem Blog einen Überblick über den Icinga Config Compiler. (Und dank @noledge eine lustige Icinga-Integration. ;))
Let it grow!
Am 1. August wird der erste von 7 (!) neuen Azubis in diesem Jahr kommen. Ja, auch deswegen werden wir umziehen: Wir wachsen! Unsere derzeitigen Auszubildenden kennt ihr ja schon. Afeef hat sich im Juli aber noch einmal genauer vorgestellt (Serie: NETWAYS stellt sich vor). Und worüber zerbrechen sich die anderen so den Kopf? Philipp beschäftigt sich mit der i-doit API, Killian mit AI – Artificial Intelligence (Was ist das? Ist das Gefährlich?) und Nicole gibt einen Einblick in ihre Projektwoche in der Berufsschule.
Und sonst so?
Nach dem einen Event, ist vor dem anderen: Von der OSDC gibt es Fotos, Slides und Videos im Archiv, für die OSBConf steht das Programm. Check it out! Niemals zuvor hatten wir so vielen Anfragen von Menschen, die unser Kesselhaus mieten wollen. Nie zuvor so früh im Jahr so viele Anmeldungen für die OSMC und so viele neue Speaker. Freut euch auf den Herbst! Dann gibt’s auch wieder viele interessante und lehrreiche Schulungen. Guckt doch mal in unseren Kalender: Die Zeit ist reif!
In diesem Sinne: Schönen Sommer!

Julia Hornung
Julia Hornung
Senior Marketing Manager

Julia ist seit Juni 2018 Mitglied der NETWAYS Family. Vor ihrer Zeit in unserem Marketing Team hat sie als Journalistin und in der freien Theaterszene gearbeitet. Ihre Leidenschaft gilt gutem Storytelling, klarer Sprache und ausgefeilten Texten. Privat widmet sie sich dem Klettern und ihrer Ausbildung zur Yogalehrerin.

HW group: Alarm Escalation mit dem SensDesk Portal

HW group bietet mit dem SensDesk Portal eine einfache Möglichkeit, nicht nur Alarme von den Geräten versenden zu lassen, sondern Alarme auch eskalieren zu können. Eine Alarmeskalation kann mit den HW group Produkten auf folgende Arten realisiert werden:

  • Erneutes Senden der Alarmmeldung
  • Weiterleitung der Alarmmeldung an einen anderen Benutzer
  • Eine Erinnerung senden, wenn sich die Situation verschlechtert

 

Erneutes Sende einer Alarmmeldung

Die meisten ausgereiften Geräte, wie z.B. Poseidon2, Damocles2, Ares, HWg-WLD oder WLD2, können Alarmmeldungen erneut senden. Diese Funktion wird als periodischer Alarm bezeichnet. Gebt einfach eine Zeit in Minuten oder Sekunden (je nach Gerätetyp) an. Dauert der Alarm länger als die angegebene Zeit an, werden die Alarmmeldungen erneut gesendet. Geräte, die für den Heimgebrauch bestimmt sind, wie HWg-STE-, STE2- oder SD-Geräte, unterstützen diese Funktion nicht direkt; die Funktion ist jedoch über das Portal Sensdesk.com verfügbar. Das Portal unterstützt die Funktion sowohl für den SafeRange- als auch für alle Notice-Bereiche:

 

Weiterleitung der Alarmmeldung an einen anderen Benutzer

Häufig ist es erforderlich, Alarme an einen anderen Benutzer oder an einen Vorgesetzten zu eskalieren. Diese Funktion wäre innerhalb eines Geräts nur schwer zu definieren, daher ist sie in ihrer Gesamtheit im SensDesk.com-Portal implementiert. Auf diese Weise ist es möglich, die Eskalation benutzerfreundlich zu konfigurieren, eine Übersicht über alle Alarmmeldungen zu präsentieren und eine zentrale Verwaltung bereitzustellen. Die Eskalation verwendet die Funktion Notice range und deren Parameter Delay. Richtet einfach einen neuen Benachrichtigungsbereich ein, dessen Grenzwerte einem vorhandenen Bereich entsprechen, und stellt die Verzögerung auf die gewünschte Eskalationsverzögerung ein. Erstellt am jeweiligen Sensor oder Gerät eine neue Aktion, legt deren Ziel für die Person fest, die die Eskalation behandelt, und wählt den Bereich mit der Verzögerung. Es ist möglich, mehrere Bereiche und Aktionen für mehrere Eskalationsstufen zu definieren, z.B. einen Alarm sofort an den diensthabenden Techniker, eine Stunde später an den Backup-Techniker und nach zwei Stunden an den Betriebsleiter zu senden.

Hinweis: Denkt bei bei der Definition von Benachrichtigungsbereichen daran, dass die PushPeriod die Verzögerung verlängern kann. Wenn die Verspätung z.B. 3600s (60 Minuten = 1 Stunde) beträgt, kann die Eskalation bis zu 4200s dauern, d.h. 75 Minuten (1 Stunde und 15 Minuten). Wenn die Eskalation nach höchstens 60 Minuten erfolgen muss, stellen Sie eine kürzere Verzögerung ein, z.B. 55 Minuten (3300s).

Eskalation, wenn sich die Situation verschlechtert

Diese Art der Eskalation gilt nur für Sensoren, d.h. Analogwerte. Sie kann nicht für binäre Ein- und Ausgänge definiert werden. Sie ähnelt der Eskalation an einen anderen Benutzer wie oben beschrieben: Statt einer Verzögerung gebt Ihr einen anderen Wertebereich an. So kann z.B. bei der Überwachung der Temperatur in einem Rack eine Aktion die Notstromversorgung bei 35°C einschalten, eine andere Aktion benachrichtigt die Hausverwaltung bei 45°C, eine weitere Aktion schaltet die Server bei 55°C ab und eine weitere Aktion benachrichtigt die Feuerwehr bei 85°C.

Nützliche Tipps

  • Immer eine Hysterese einstellen – Genau wie bei den SafeRange-Einstellungen im Gerät ist dies auch für die Notice Ranges sehr zu empfehlen.
  • Gebt den Bereichen und Aktionen beschreibende Namen – Wenn Ihr einen neuen Bereich oder eine Aktion erstellen, muss ein Name angegeben werden. Wählt Namen, die leicht verständlich sind. Dadurch wird es einfacher, Bereiche und Aktionen zu bearbeiten und neue zu erstellen. Beim Erstellen einer Aktion ist es erforderlich, einen vorhandenen Bereich auszuwählen. In diesem Moment sind Bereiche mit den Namen “Bereich1” und “Bereich2” nicht wirklich hilfreich. Auf der anderen Seite sind Bereiche mit den Namen “20-40C” oder “20-40C 60min” leicht zu unterscheiden.

 

Ihr habt Fragen zu SensDesk oder den Produkten von HW group? Ihr habt Interesse an Lizenzen für SensDesk? Wir sind jederzeit für Euch erreichbar per Mail: shop@netways.de oder telefonisch unter der 0911 92885-44. Wer uns gerne bei der Arbeit ein bisschen über die Schulter schauen oder den Shop und die angebotenen Produkte verfolgen möchte, kann uns auch auf Twitter folgen – über @NetwaysShop twittert das NETWAYS Shop Team. Bleibt gesund – wir freuen uns auf Euch!

Nicole Frosch
Nicole Frosch
Sales Engineer

Ihr Interesse für die IT kam bei Nicole in ihrer Zeit als Übersetzerin mit dem Fachgebiet Technik. Seit 2010 sammelt sie bereits Erfahrungen im Support und der Administration von Storagesystemen beim ZDF in Mainz. Ab September 2016 startete Sie Ihre Ausbildung zur Fachinformatikerin für Systemintegration bei NETWAYS, wo sie vor allem das Arbeiten mit Linux und freier Software reizt. In ihrer Freizeit überschüttet Sie Ihren Hund mit Liebe, kocht viel Gesundes, werkelt im Garten, liest...
Daily business: der Editor vim

Daily business: der Editor vim

Es ist unerfreulich lange her, dass ich das erste Mal mit vim in Berührung kam — anno 1997, um genau zu sein, während meiner ersten verzweifelten Gehversuche in Sachen S.u.S.E. Linux. Oder war das noch vi? So irgendwie habe ich das Tool über die Jahre dann hinter mir her geschleift wie eine altmodische Handtasche, mich aber viel zu spät erst ernsthafter damit befasst — ein blöder Fehler, vor dem ich einige von euch ja vielleicht bewahren kann. Denn was viele (und gerade auch Neueinsteiger) gar nicht zu ahnen scheinen: vim ist üblicherweise auf Systemen vorhanden, kann viel, ist ziemlich cool und in der Handhabung auch gar nicht so widerlich, wenn man sich erst leidlich eingearbeitet hat.

Die Konfiguration des Editors erfolgt in einer Textdatei namens .vimrc, welche im $HOME-Verzeichnis des jeweiligen Nutzers liegen muss. Beginnen wir diese Datei mit nocompatible: denn ein compatible vim ist lediglich noch ein vi, sprich alle nützlichen Erweiterungen und Errungenschaften der letzten 20 Jahre würden abgeschaltet — und wer will das schon?

set nocompatible " Using vim settings and not vi

Widmen wir uns also einigen kleinen Kniffen, die mir für die tägliche Arbeit inzwischen unverzichtbar geworden sind: naturgemäß (und da ich gerade einen Haufen müffelnden Puppet-Codes in Richtung Ansible transportieren darf) editiere ich aktuell häufig an YAML-Dateien herum, und da ist das Thema „Einrückungen“ beispielsweise sehr relevant: YAML kennt, plump gesagt, keine Tabs, und so bewährt es sich sehr in der persönlichen .vimrc bereits festzuhalten, dass ein Tab beispielsweise durch zwei Leerzeichen ersetzt wird und Einrückungen ebenfalls zwei Leerzeichen betragen sollen. Protipp: Lasst außerdem über existierende Dateien ein :retab laufen, so dass alle eventuell vorhandenen Tabs gemäß eurer Konfiguration in Leerzeichen umgesetzt werden — die Einstellungen greifen nicht automatisch bei bereits bestehendem Text. Und: möchtet ihr YAML anders einrücken als beispielsweise C oder PHP, so beschäftigt euch mit den Möglichkeiten, die autocmd bietet!

set autoindent " Guess what?
filetype plugin indent on " Enable indenting for files
set backspace=indent,eol,start " Allow backspacing over indention/ line breaks/ insertion start
set softtabstop=2 " Indent 2 spaces when hitting TAB
set shiftwidth=2 " Indend 2 spaces when autoindent
set tabstop=2 " Show existing tab with 2 spaces width
set expandtab " Convert tabs into spaces

Gerade bei YAML hilft es mir häufig sehr wenn ich sehe, an welcher Stelle im Dokument ich mich gerade befinde; deshalb lasse ich mir die Zeilen durchnummerieren und mittels Unterstreichung die aktuelle Position anzeigen. Syntax Highlighting ist natürlich großartig, das will ich unbedingt, und durch eine einfache Anweisung sorgt zukünftig für die visuelle Hervorhebung zusammengehörender Klammern. Protipp: während number die Zeilen aufsteigend durchnummeriert, stellt relativenumber die Zeilennummern relativ zur aktuellen Position dar.

set number " Enable line numbers
syntax on " Set syntax highlighting
set showmatch " Show matching brackets
set cursorline " Highlight line under cursor
set cursorcolumn " Highlight column

Was bei der täglichen Arbeit hilft: eine Statuszeile, die mit genau jenen Informationen aufwartet, die persönlich hilfreich sind. In meinem Fall sind das Angaben wie Dateiname, beispielsweise, Dateityp oder an welcher Stelle — prozentual gesehen — ich mich innerhalb meiner Datei gerade befinde. Für euch sind hier vielleicht ganz andere Informationen wichtig, weshalb ich euch die Lektüre der entsprechenden Dokumentation ans Herz legen möchte.

set laststatus=2 " Show status line
set statusline=%t " tail of filename
set statusline+=\ %{&ff} " File format
set statusline+=\ %y " Filetype
set statusline+=\ %c, " Cursor column
set statusline+=%l/%L " Cursor line/ total lines
set statusline+=\ %P " Percent through file

Was ich wirklich zu lieben lernte: undo und redo. Die Basics kennen noch die meisten: u macht die letzte Änderung rückgängig, uuu die letzten drei und 5u die letzten fünf. Wirklich interessant wird das allerdings, wenn man es mit Zeiträumen verbindet: so macht earlier 2m (alternativ: ea 2m) die Änderungen der letzten zwei Minuten rückgängig, wohingegen later 5m (alternativ: lat 5m) alle Änderungen der letzten fünf Minuten wiederherstellt. Die Sache hat nur einen Haken: wie fast überall sind diese Statements nur innerhalb der laufenden Sitzung möglich; wird der Editor beendet und die gleiche Datei später erneut editiert, ist keine History der bisherigen Änderungen verfügbar.
Wenig überraschend lässt sich auch das anpassen: über set undofile weisen wir vim an, die Änderungen jeder Datei zu persistieren; vim tut das dann jeweils in Form eines hidden file an gleicher Stelle, was auf Dauer etwas unübersichtlich werden könnte. Erstellen wir mittels mkdir ~/.vim/undo ein eigenes Verzeichnis für Dateien dieser Art, können wir vim aber auch instruieren all diese Änderunsdateien dort vorzuhalten. Das erlaubt dann auch umfangreiche Zeitsprünge: ea 3d wird die Änderungen der letzten drei Tage rückgängig machen.

set undofile " Undo history even between sessions
set undodir=~/.vim/undo " All undo files in one directory

Zuguterletzt verpassen wir unserem vim ein hübsches colorscheme — eine Auswahl solch vordefinierter Farbschemata findet sich, in Abhängigkeit verwendeter Version und Distribution, üblicherweise in /usr/share/vim/vim$VERSION/colors/ in Form von .txt-Dateien. Ich entscheide mich für desert, ihr könnt euch aussuchen was euch am besten gefällt und versiertere Nutzer erstellen sich ihre colorschemes später dann ohnehin selber… Und wenn wir ohnehin gerade mit Farbgebungen spielen lassen wir uns die Zeilennummer spaßeshalber rot hinterlegen, während die Hervorhebung der Spalte in einem aufdringlichen hellen Magenta erfolgen soll. Einschub: eine Liste verfügbarer Farben lässt sich aus vim heraus unkompliziert mit dem Kommando :h cterm-color abrufen.

colorscheme desert " Setting nice colors
highlight CursorLineNR ctermbg=red
highlight CursorColumn ctermbg=LightMagenta

Es gäbe noch So! Viel! Mehr! Belassen wir es für heute mal dabei. Eine einsatzbereite exemplarische vimrc-demo findet ihr auf GitHub; sie ist nicht als „finale Fassung“ zu verstehen sondern vielmehr als Ausgangspunkt für die Erarbeitung einer persönlichen und über die Zeit immer perfekteren Version. Und vielleicht wollt ihr über die Kommentare verraten, ob Artikel dieser Art hilfreich für euch sind — und welche Einstellung, welches Plugin, welcher Kniff für euch unverzichtbar ist?

Marianne Spiller
Marianne Spiller
Senior Consultant

Nachdem sie über Jahre immer wieder für eine NETWAYS Mitarbeiterin gehalten wurde, hat sie im März 2020 ernst gemacht und wurde eine. Als Senior Consultant unterstützt sie fortan Professional Services. Ihre Freizeit widmet sie in weiten Teilen dem Schreiben, man findet sie aber auch häufig mit Kamera und Stativ auf unwegsamem Gelände.

Computer Viren in der Cloud

Verschiedene Anbieter von Anti-Virus Produkten bieten mittlerweile SaaS Platformen an um eine zentrale Übersicht über den Status aller Systeme zu bekommen. Dort wird dann neben allen Details eine Übersicht von Alarmen bzw. Bedrohungen verfügbar.

Ein Kunde stellte mich vor die Herausforderung aus diesen Platformen per API die aktuellen Alarme und Probleme abzufragen, daraus sind zwei neue Plugins entstanden.

Hinweis: Wir machen hier keine Werbung für die Produkte, nur unsere Plugins. Wir stehen aktuell in keiner Geschäftsbeziehung zu beiden Anbietern.

(mehr …)

Markus Frosch
Markus Frosch
Principal Consultant

Markus arbeitet bei NETWAYS als Principal Consultant und unterstützt Kunden bei der Implementierung von Nagios, Icinga und anderen Open Source Systems Management Tools. Neben seiner beruflichen Tätigkeit ist Markus aktiver Mitarbeiter im Debian Projekt.

GTD ohne Equipment

Hallo Miteinand !

Ich wollte eigentlich aus dem Homeoffice nicht einen üblichen Home Office Blogpost veröffentlichen aber ich wollte euch kurz daran teilhaben lassen, wie man mit minimalsten Gegebenheiten doch noch sein Arbeitspensum ggf. durch die Tür bekommt.

Ich hatte das grosse Pech das mein privates Macbook Pro aus dem Jahr 2016 den Weg allen irdischen gegangen ist und sich mit einer kombi aus exhausted Battery und Display/Grafikkarten Fehler + Wlan Modul Tod verabschiedet hat. Die Batterie ist ersetzbar, aber die anderen Sachen wären aktuell nicht mehr rechtfertigbar. So kurz vor dem Release neuer Hardware.

Ich musste also 2 Tage bis mein Firmenersatzlaptop kam etwas Zeit überbrücken. Das funkionierte sogar besser als geplant und an einigen Stellen schlechter.

Als Ersatz hatte ich nicht viel zur Hand. Ich hatte mein privat genutztes IPad Pro (IOs 13.x) eine Tastatur + Maus der Marke Logitech. IOs 13 wegen dem Maussupport welcher brauchbar ist als OS auf dem IPad. Alternativ läge hier auch noch ein Kindle Fire 7 rum welcher auch seinen Dienst getan hätte.

Keyboard

Keyboard


Das Keyboard ist das K380 in weiss + eine M171 Funkmaus. Man kann das ganze wenn man einen aktuellen Screen hat gemütlich per USB-C verbinden damit wenigstens von der Bildschirmgrösse etwas mehr sichtbar ist. Das ist aber schon purer Luxus.

Das Tablet kann man aber auch durch ein beliebiges Android Tablet der Marke X austauschen. Ich versuche hier Software bzw. Hardware Agnostisch zu sein. Für Office schreibsachen bin ich auf Office 365 Web zurückgefallen. Was Datenschutztechnisch für eine menge Leute nicht in Frage kommt. Es gibt aber auch die dedizierten Apps für IOs und Android somit muss nichts in die Cloud geladen werden.

Kommen wir zum Codehacking Part. Nun da man schlecht direkt auf dem IPad eine virtuelle Maschine mit Vagrant hochziehen kann musste ich wohl oder übel auf gehostete Services zurückgreifen. Zum einen unser einges (https://cloud.netways.de) welches es mir ermöglichte per Openstack Teststellungen zu bauen und testen. Als auch Azure (Terraform) und Bernds Schmuddelkind Nummer eins (AWS). Keines machte grossartig Zicken per Safari. Dies sollte auch per Android (Chrome) keine Probleme darstellen. Es braucht aber einen Sinnvollen SSH Client für das jeweilige Tablett damit man sich in der gehosteten VM zumindest Anmelden kann Ich benutze Termius (https://www.termius.com/) auf IOs. Es hat auch bezahl Features welche ich eigentlich aber gar nicht brauche (SFTP). Die funktionale Alternative auf Android ist Juice (https://juicessh.com/).

Termius Screenshot


Oh natürlich kommt nun die Frage auf wie man nun denn Code editiert. Klar ich muss mir von der VM die Sachen nochmal ziehen oder auf den virtuellen Desktop was aber per dedizierter VNC Viewer App (IOs/Android) (https://www.realvnc.com/en/connect/download/viewer/ios/) oder dem Microsoft Remote Desktop gut gelingt. (https://apps.apple.com/de/app/microsoft-remote-desktop/id714464092?l=en) 
Auch die anderen Remote Desktop Tools sind vertreten wie der bei uns benutzte Anydesk Client (https://anydesk.com/en/downloads/ios) und das nicht Todzubekommende Webex ist am Start (https://apps.apple.com/de/app/cisco-webex-meetings/id298844386?l=en). Beide Tools sind natürlich auch in einer Android Version erhältlich.

Aber zurück zu dem Editor. Ich muss gestehen das ist der Part welcher mich am meisten begrenzt hat. Mit Begrenzt meine ich nicht das es keine Auzwahl gibt. Ich bin eher ein barebones Nutzer der nicht viele Ansprüche hat. Ich brauch keine Codeergänzung, keine Autokorrektur usw. Ich gestehe ich bin mit Vim auf den VMs vollkommen zufrieden gewesen. Auch mit git welches in den VMs installiert war.

Ich würde aber zu cloud9 tendieren (Bernd ist sicher begeistert 🙂 ) (https://aws.amazon.com/cloud9/). Die alten Hasen von Panic Software haben noch Coda 2 zur Hand. (https://www.panic.com/coda/). Wobei mir deren Preisgestaltung bitter aufstösst.

Last But not least gibt es sicher auch noch für Selbsthoster Eclipse CHE. (https://www.eclipse.org/che/). Zu der kann ich leider nichts sagen, keinerlei Erfahrung meinerseits im Handling.
Gitlab hat auch eine Web IDE welche aber einen seltsamen Workflow hat. Man muss die einzelnen Files nach änderung mergen :S.

Die üblichen Kollaborationstools wie Slack, Rocketchat, Microsoft Teams gibt es auch bzw. Funktionieren auch auf mobile Geräten relativ Problemlos. Wenn alles versagt muss man halt sich per Handy in die Online Telko einwählen was manchmal doch erstaunliche Sprachqualitaet zu Tage fördert. (NO More VBR in VOIP).

Fazit:
So bin ich bis mein Arbeitslaptop da war per UPS gut durch die Zeit gekommen und konnte meinen Aufgaben gerecht werden.
Ich würde einen nativen USB-C Monitor favorisieren und ggf. Im Nachblick mir einen Browser wünschen welcher an einem externen Monitor die seitlichen schwarzen 4:3 Balken verschwinden lässt. (IOs Problem)(Lost Screen Estate) und eine IDE welche entweder als App mit frei einhängbaren Online Speicher funktioniert oder eine simpel funktionierende Web IDE.

Ich freue mich wenn ihr mir Sagen würdet  wie ihr so etwas überbrückt.

Gruss

David

Nachtrag:
Just als ich den Blogpost fertig hatte fand ich die folgende App.
Shiftscreen (https://apps.apple.com/de/app/shiftscreen/id1498683180?l=en) scheint zumindest teilweise das Black Bars Problem (IOs) zu beheben.

David Okon
David Okon
Support Engineer

Weltenbummler David hat aus Berlin fast den direkten Weg zu uns nach Nürnberg genommen. Bevor er hier anheuerte, gab es einen kleinen Schlenker nach Irland, England, Frankreich und in die Niederlande. Alles nur, damit er sein Know How als IHK Geprüfter DOSenöffner so sehr vertiefen konnte, dass er vom Apple Consultant den Sprung in unser Professional Services-Team wagen konnte. Er ist stolzer Papa eines Sohnemanns und bei uns mit der Mission unterwegs, unsere Kunden zu...

Logging mit Loki und Grafana in Kubernetes

This entry is part 8 of 8 in the series Kubernetes - so startest Du durch!

Die wichtigsten Bausteine zum Starten deiner Anwendung kennst du bereits aus unserer Blogserie. Für den Betrieb fehlen dir noch Metriken und Logs deiner Anwendungen? Nach diesem Blogpost kannst du letzteres abhaken.

Logging mit Loki und Grafana in Kubernetes – ein Überblick

Zum Sammeln und Verwalten deiner Logs bieten sich auch für Kubernetes eine der wohl bekanntesten, schwergewichtigen Lösungen an. Diese bestehen in der Regel aus Logstash oder Fluentd zum Sammeln, gepaart mit Elasticsearch zum Speichern und Kibana bzw. Graylog zur Visualisierung deiner Logs.

Neben dieser klassischen Kombination gibt es seit wenigen Jahren mit Loki und Grafana einen neuen, leichtgewichtigeren Stack! Die grundlegende Architektur unterscheidet sich kaum zu den bekannten Setups.

Promtail sammelt auf jedem Kubernetes Node die Logs aller Container und sendet diese an eine zentrale Loki-Instanz. Diese aggregiert alle Logs und schreibt diese in ein Storage-Backend. Zur Visualisierung wird Grafana verwendet, welches sich die Logs direkt von der Loki-Instanz holt.

Der größte Unterschied zu den bekannten Stacks liegt wohl im Verzicht auf Elasticsearch. Dies spart Ressourcen und Aufwand, da somit auch kein dreifach replizierter Volltext-Index gespeichert und administriert werden muss. Und gerade wenn man beginnt, seine Anwendung aufzubauen, hört sich ein schlanker und einfacher Stack vielsprechend an. Wächst die Anwendungslandschaft, werden einzelne Komponenten von Loki in die Breite skaliert, um die Last auf mehrere Schultern zu verteilen.

Kein Volltextindex? Wie funktioniert das?

Zur schnellen Suche verzichtet Loki natürlich nicht auf einen Index, aber es werden nur noch Metadaten (ähnlich wie bei Prometheus) indexiert. Der Aufwand, den Index zu betreiben, wird dadurch sehr verkleinert. Für dein Kubernetes-Cluster werden somit hauptsächlich Labels im Index gespeichert und deine Logs werden automatisch anhand derselben Metadaten organisiert wie auch deine Anwendungen in deinem Kubernetes-Cluster. Anhand eines Zeitfensters und den Labels findet Loki schnell und einfach deine gesuchten Logs.

Zum Speichern des Index kann aus verschiedenen Datenbanken gewählt werden. Neben den beiden Cloud-Datenbanken BigTable und DynamoDB kann Loki seinen Index auch lokal in Cassandra oder BoltDB ablegen. Letztere unterstützt keine Replikation und ist vor allem für Entwicklungsumgebungen geeignet. Loki bietet mit boltdb-shipper eine weitere Datenbank an, welche aktuell noch in Entwicklung ist. Diese soll vor allem Abhängigkeiten zu einer replizierten Datenbank entfernen und regelmäßig Snapshots des Index im Chunk-Storage speichern (siehe unten).

Ein kleines Beispiel

Ein pod produziert mit stdout und stderr zwei Log-Streams. Diese Log-Streams werden in sogenannte Chunks zerlegt und komprimiert, sobald eine gewisse Größe erreicht wurde oder ein Zeitfenster abgelaufen ist.

Ein Chunk enthält somit komprimierte Logs eines Streams und wird auf eine maximale Größe und Zeiteinheit beschränkt. Diese komprimierten Datensätze werden dann im Chunk-Storage gespeichert.

Label vs. Stream

Eine Kombination aus exakt gleichen Labels (inkl. deren Werte) definiert einen Stream. Ändert man ein Label oder dessen Wert, entsteht ein neuer Stream. Die Logs aus stdout eines nginx-Pods be finden sich z.B. in einem Stream mit den Labels: pod-template-hash=bcf574bc8, app=nginx und stream=stdout.

Im Index von Loki werden diese Chunks mit den Labels des Streams und einem Zeitfenster verknüpft. Bei einer Suche muss im Index somit nur nach Labels und Zeitfenster gefiltert werden. Entspricht eine dieser Verknüpfungen den Suchkriterien, wird der Chunk aus dem Storage geladen und enthaltene Logs werden entsprechend der Suchanfrage gefiltert.

Chunk Storage

Im Chunk Storage werden die komprimierten und zerstückelten Log-Streams gespeichert. Wie beim Index kann auch hier zwischen verschiedenen Storage-Backends gewählt werden. Aufgrund der Größe der Chunks wird ein Object Store wie GCS, S3, Swift oder unser Ceph Object Store empfohlen. Die Replikation ist damit automatisch mit inbegriffen und die Chunks werden anhand eines Ablaufdatums auch selbständig vom Storage entfernt. In kleineren Projekten oder Entwicklungsumgebungen kann man aber natürlich auch mit einem lokalen Dateisystem beginnen.

Visualisierung mit Grafana

Zur Darstellung wird Grafana verwendet. Vorkonfigurierte Dashboards können leicht importiert werden. Als Query Language wird LogQL verwendet. Diese Eigenkreation von Grafana Labs lehnt sich stark an PromQL von Prometheus an und ist genauso schnell gelernt. Eine Abfrage besteht hierbei aus zwei Teilen:
Zuerst filtert man mithilfe von Labels und dem Log Stream Selector nach den entsprechenden Chunks. Mit = macht man hier immer einen exakten Vergleich und =~ erlaubt die Verwendungen von Regex. Wie üblich wird mit ! die Selektion negiert.
Nachdem man seine Suche auf bestimmte Chunks eingeschränkt hat, kann man diese mit einer Search Expression erweitern. Auch hier kann man mit verschiedenen Operatoren wie |= und |~ das Ergebnis weiter einschränken. Ein paar Beispiele zeigen wohl am schnellsten die Möglichkeiten:

Log Stream Selector:

{app = "nginx"}
{app != "nginx"}
{app =~ "ngin.*"}
{app !~ "nginx$"}
{app = "nginx", stream != "stdout"}

Search Expression:


{app = "nginx"} |= "192.168.0.1"
{app = "nginx"} != "192.168.0.1"
{app = "nginx"} |~ "192.*" 
{app = "nginx"} !~ "192$"

Weitere Möglichkeiten wie Aggregationen werden ausführlich in der offiziellen Dokumentation von LogQL erklärt.

Nach dieser kurzen Einführung in die Architektur und Funktionsweise von Grafana Loki legen wir natürlich gleich mit der Installation los. Viele weitere Informationen und Möglichkeiten zu Grafana Loki gibt es natürlich in der offiziellen Dokumentation.

Get it running!

Du willst Loki einfach ausprobieren?

Mit dem NWS Managed Kubernetes Cluster kannst du auf die Details verzichten! Mit einem Klick startest du deinen Loki Stack und hast dein Kubernetes Cluster immer voll im Blick!

 

Wie üblich mit Kubernetes ist ein laufendes Beispiel schneller deployed als die Erklärung gelesen. Mithilfe von Helm und einigen wenigen Variablen ist dein schlanker Logging Stack schnell installiert. Zuerst initialisieren wir zwei Helm-Repositories. Neben Grafana fügen wir auch noch das offizielle Helm stable Charts-Repository hinzu. Nach zwei kurzen helm repo add Befehlen haben wir Zugang zu den benötigten Loki und Grafana Charts.

Helm installieren

$ brew install helm
$ apt install helm
$ choco install kubernetes-helm

Dir fehlen die passenden Quellen? Auf helm.sh findest du eine kurze Anleitung für dein Betriebssystem.

 

$ helm repo add loki https://grafana.github.io/loki/charts
$ helm repo add stable https://kubernetes-charts.storage.googleapis.com/

 

Loki und Grafana installieren

Für deinen ersten Loki-Stack benötigst du keine weitere Konfiguration. Die Default-Werte passen sehr gut und helm install erledigt den Rest. Vor der Installation von Grafana setzen wir zuerst noch dessen Konfiguration mithilfe der bekannten Helm-Values-Dateien. Speichere diese mit dem Namen grafana.values ab.

Neben dem Passwort für den Administrator wird auch das eben installierte Loki als Datenquelle gesetzt. Zur Visualisierung importieren wir gleich noch ein Dashboard und die dafür benötigten Plugins. Somit installiert du gleich ein für Loki konfiguriertes Grafana und kannst direkt nach dem Deploy loslegen.

grafana.values:

---
adminPassword: supersecret

datasources:
  datasources.yaml:
    apiVersion: 1
    datasources:
    - name: Loki
      type: loki
      url: http://loki-headless:3100
      jsonData:
        maxLines: 1000

plugins:
  - grafana-piechart-panel

dashboardProviders:
  dashboardproviders.yaml:
    apiVersion: 1
    providers:
      - name: default
        orgId: 1
        folder:
        type: file
        disableDeletion: true
        editable: false
        options:
          path: /var/lib/grafana/dashboards/default

dashboards:
  default:
    Logging:
      gnetId: 12611
      revison: 1
      datasource: Loki

 

Die eigentliche Installation erfolgt mithilfe von helm install. Der erste Parameter ist ein frei wählbarer Name. Mit dessen Hilfe kannst du dir auch schnell einen Überblick verschaffen:

$ helm install loki loki/loki-stack
$ helm install loki-grafana stable/grafana -f grafana.values
$ kubectl get all -n kube-system -l release=loki

 

Nach dem Deployment kannst du dich als admin mit dem Passwort supersecret einloggen. Damit du direkt auf das Grafana Webinterface zugreifen kannst, fehlt dir noch noch ein port-forward:

$ kubectl --namespace kube-system port-forward service/loki-grafana 3001:80

Die Logs deiner laufenden Pods sollten sofort im Grafana sichtbar sein. Probier doch die Queries unter Explore aus und erkunde das Dashboard!

 

Logging mit Loki und Grafana in Kubernetes – das Fazit

Grafana Labs bietet mit Loki einen neuen Ansatz für ein zentrales Logmanagement. Durch die Verwendung von kostengünstigen und leicht verfügbaren Object Stores wird eine aufwändige Administration eines Elasticsearch-Clusters überflüssig. Das einfache und schnelle Deployment ist auch ideal für Entwicklungsumgebungen geeignet. Zwar bieten die beiden Alternativen Kibana und Graylog ein mächtiges Featureset, aber für manche Administratoren ist Loki mit seinem schlanken und einfachen Stack vielleicht verlockender.

Achim Ledermüller
Achim Ledermüller
Lead Senior Systems Engineer

Der Exil Regensburger kam 2012 zu NETWAYS, nachdem er dort sein Wirtschaftsinformatik Studium beendet hatte. In der Managed Services Abteilung ist unter anderem für die Automatisierung des RZ-Betriebs und der Evaluierung und Einführung neuer Technologien zuständig.

Die Neuordnung der IT-Ausbildungsberufe und wir

Wenn ich nicht gerade aus Konferenzen berichte, sind meine Blogpost ja meist eher technischer Natur. Mittlerweile beschäftigt mich aber um diese Zeit im Jahr immer das Thema Ausbildung, denn es muss ein neues Lehrjahr geplant werden. Wenn ich aber nun darüber schreiben würde, wäre wohl für die meisten eher uninteressant, darum will ich mich gleich dem Thema widmen, das mich danach beschäftigen wird, und zwar der Neuordnung der IT-Berufe. Diese ist zwar schon in Kraft und zeigt ihr ersten Auswirkungen, aber insbesondere durch Corona war mir die Berücksichtigung für das kommende Lehrjahr zu knapp.

Worum geht es bei der Neuordnung denn überhaupt? Bereits 2015 erfolgte durch das Bundesministeriums für Wirtschaft und Energie (BMWi) der Auftrag an Bundesinstitut für Berufsbildung (BiBB) der Auftrag “die Ausbildungsinhalte als auch den Zuschnitt und die Abgrenzung der Berufe voneinander” zu überprüfen um den Wandel in der IT Rechnung zu tragen, denn die Ausbildungsberufe gibt es seit 1997 unverändert in dieser Form. Die Untersuchung ging bis 2017 und sorgte dann für eine Änderungsverordnung im Jahr 2018, welche dann für das Ausbildungsjahr 2020 in Kraft tritt. Diese lässt sich in Form einiger Punkte zusammenfassen:

  • Ausbildungsstruktur, Bezeichnungen und Dauer sollen bleiben.
  • Einsatzgebiete sollen geprüft und aktualisiert werden.
  • Kern- und Fachqualifikationen sind zu prüfen und anzupassen.
  • Informatikkaufmann wird neu ausgerichtet.

Als Ergebnis daraus gibt es zukünftig folgende IT-Berufe:

  • IT-System-Elektroniker
  • Kaufmann für IT-Systemmanagement (ehemals: IT-System-Kaufmann)
  • Kaufmann für Digitalisierungsmanagement (Ersatz für: Informatikkaufmann)
  • Fachinformatiker Anwendungswicklung
  • Fachinformatiker Systemintegration
  • Fachinformatiker Daten- und Prozessanalyse (neu)
  • Fachinformatiker Digitale Vernetzung (neu)

All diese Berufe haben eine gemeinsame Kernqualifikation, eine dem Berufsbild entsprechende Fachqualifikation, im Falle des Fachinformatiker eine Fachrichtung und zuletzt ein durch die Firma gewähltes Einsatzgebiet.

Neuordnung der IT-Berufe

Aber wie wirkt sich das jetzt auf die Ausbildung bei NETWAYS bzw. da ich nicht für meine Kollegen sprechen will bei NETWAYS Professional Services aus? Für den Fachinformatiker Systemintegration gibt es eine neue sachliche und zeitliche Gliederung, welche kleiner Anpassungen bei der Umsetzung erfordern. Ein Beispiel, dass uns auch immer schon wichtig war, aber nun explizit zu betrachten ist der soziale Aspekt aus den Punkten “gegenseitige Wertschätzung unter Berücksichtigung gesellschaftlicher Vielfalt bei betrieblichen Abläufen praktizieren” und “bei der Beurteilung, Entwicklung, Umsetzung und Betreuung von IT-Lösungen ethische Aspekte reflektieren”. Außerdem hat die IHK Nürnberg auch in der Gliederung vorgesehen, dass ein Einsatzgebiet festgelegt wird und die Vermittlung der Themen festzuhalten ist, wobei ersteres auch an die IHK geht, letzteres dient nur dem Auszubildenden und dem Ausbilder als Kontrollinstrument. Eine weitere Änderung ist die Abschlussprüfung Teil 1, welche zukünftig die Zwischenprüfung ersetzt und mit 10% in die Abschlussnote einfließt.

Dies ist aber nur der kleinere Teil, denn die Anpassungen sind schon gelaufen und greifen schon dieses Jahr. Weiter größer wird mich treffen, dass ich den neuen Fachrichtungen Rechnung tragen möchte. In unserem Fall dem Fachinformatiker Daten- und Prozessanalyse, denn dieser passt für mich wunderbar zum Thema Log-Management und Visualisierung von Daten aus unserem Consulting-Portfolio. Meine nächsten Schritte werden also sein mir die sachliche und zeitliche Gliederung vorzunehmen und prüfen welche der berufsprofilgebenden Fertigkeiten, Kenntnisse und Fähigkeiten in der Fachrichtung wir bereits in einer Form abbilden können und für welche wir noch eine Strategie brauchen. Im Anschluss daran brauchen wir einen Termin mit der IHK zur Eignungsfeststellung, bei dem genau das dann besprochen wird. Wenn die IHK unsere Eignung positiv bewertet hat, können wir dann die Stelle entsprechend ausschreiben und vermarkten. Wenn wir dann soweit sind, haben wir hoffentlich nicht nur einen weiteren Schritt in Richtung moderner, zeitgemäßer Ausbildung getan, sondern geben den Auszubildenden schon eher die Chance sich zu spezialisieren um nicht mehr in alle Themen reinschnuppern zu müssen und sich dann zu entscheiden sondern bereits in der Ausbildung mehr in die Tiefe zu gehen.

Ich finde es schön, dass auch das Thema Ausbildung immer spannend bleibt und hoffe der kleine Blick hinter die Kulissen hat dem ein oder anderen gefallen. Wem es gefallen hat, wie viel wir uns mit dem Thema Ausbildung auseinander setzen und der für sich oder andere sucht, den möchte ich auf jobs.netways.de verweisen.

Dirk Götz
Dirk Götz
Principal Consultant

Dirk ist Red Hat Spezialist und arbeitet bei NETWAYS im Bereich Consulting für Icinga, Puppet, Ansible, Foreman und andere Systems-Management-Lösungen. Früher war er bei einem Träger der gesetzlichen Rentenversicherung als Senior Administrator beschäftigt und auch für die Ausbildung der Azubis verantwortlich wie nun bei NETWAYS.