Ist schon wieder Webinar Zeit?

netways Auch in der Hitze des Sommers gibt es natürlich weiterhin Bedarf an diversen IT-Dienstleistungen wie Outsourcing, Hosting, Monitoring, Configuration Management und natürlich allem voran Umweltüberwachung.
In den kommenden Monaten wollen wir genau diese Themen in unseren Webinaren ansprechen und – sofern möglich – anhand von Live-Demos veranschaulichen. Die nächsten Termine stehen dabei schon fest:

Titel Zeitraum Registrierung
NETWAYS Cloud: Der Weg zur eigenen VM 15. Juli 2016 – 10:30 Uhr Anmelden
Foreman: Berechtigungen 28. Juli 2016 – 10:30 Uhr Anmelden
Umweltüberwachung im Rechenzentrum 04. August 2016 – 10:30 Uhr Anmelden
SMS Alarmierung einrichten 25. August 2016 – 10:30 Uhr Anmelden
Foreman: Docker Integration 05. Oktober 2016 – 10:30 Uhr Anmelden

Alle unsere Webinare zeichnen wir auf, damit diese auch nachträglich noch einmal angesehen werden können. Hinterlegt werden Sie dann in unserem Webinar-Archiv.

Christian Stein
Christian Stein
Lead Senior Account Manager

Christian kommt ursprünglich aus der Personalberatungsbranche, wo er aber schon immer auf den IT Bereich spezialisiert war. Bei NETWAYS arbeitet er als Senior Sales Engineer und berät unsere Kunden in der vertrieblichen Phase rund um das Thema Monitoring. Gemeinsam mit Georg hat er sich Mitte 2012 auch an unserem Hardware-Shop "vergangen".

Der erste Entwurf für den Webinarkalender 2016 ist online!

NETWAYS Webinare Auch in diesem Jahr wollen wir wieder mit diversen Webinaren durchstarten und neben Icinga 2 natürlich unsere anderen Kernkompetenzen wie unter anderem Puppet, Foreman und unsere Hosting-Angebote nicht außen vor lassen.
Über das Jahr verteilt haben wir bereits diverse Themen fixiert – mehr werden aber natürlich noch folgen! Aktuell geplant sind die Folgenden Themen und Termine:

Titel Zeitraum Registrierung
Icinga Director: Konfiguration leicht gemacht 03. März 2016 – 10:30 Uhr Anmelden
Docker Hosting 10. März 2016 – 10:30 Uhr Anmelden
Foreman: Provisionierungswege 31. März 2016 – 10:30 Uhr Anmelden
ELK: Grundlagen der zentralen Logdatenverwaltung 15. April 2016 – 10:30 Uhr Anmelden
Foreman: Klassen und Parametrisierung in Puppet 20. Mai 2016 – 10:30 Uhr Anmelden
Foreman: Berechtigungen 28. Juli 2016 – 10:30 Uhr Anmelden
Foreman: Docker Integration 05. Oktober 2016 – 10:30 Uhr Anmelden

Wer sich einen Überblick über die bisherigen Webinare verschaffen möchte, kann dies natürlich gerne in unserem Webinar-Archiv tun.

Christian Stein
Christian Stein
Lead Senior Account Manager

Christian kommt ursprünglich aus der Personalberatungsbranche, wo er aber schon immer auf den IT Bereich spezialisiert war. Bei NETWAYS arbeitet er als Senior Sales Engineer und berät unsere Kunden in der vertrieblichen Phase rund um das Thema Monitoring. Gemeinsam mit Georg hat er sich Mitte 2012 auch an unserem Hardware-Shop "vergangen".

Webinare im Mai

NETWAYS Webinare Nachdem der Webinar-Marathon im April fast zuende geht und das Vagrant Webinar kurz bevor steht, möchte ich natürlich gleich auf die nächsten Webinare im Mai hinweisen. Einerseits geht es dann um unsere Cloud-Lösungen welche wir über unsere Rechenzentren anbieten und einmal um das Thema Windows Vorbereitung für Puppet. Bei dem Windows Webinar liegt der schwerpunkt darauf, wie ein Windows-System soweit vorbereitet werden kann, dass sowohl eine automatische Installation über Images aber auch die anschließende Konfiguration mit Puppet möglich ist. Christoph hatte hierzu bereits einen interessanten Blog-Artikel veröffentlicht.
Zusammengefasst noch einmal die Themen, die Termine und Anmeldelinks im Überblick:

Titel Zeitraum Registrierung
Vagrant: Virtualisierungs Wrapper 30. April 2015 – 10:30 Uhr Anmelden
NETWAYS Cloud Lösungen 08. Mai 2015 – 10:30 Uhr Anmelden
Windows: Vorbereitung für Puppet 22. Mai 2015 – 10:30 Uhr Anmelden

Vorab natürlich eine schöne Restwoche!

Christian Stein
Christian Stein
Lead Senior Account Manager

Christian kommt ursprünglich aus der Personalberatungsbranche, wo er aber schon immer auf den IT Bereich spezialisiert war. Bei NETWAYS arbeitet er als Senior Sales Engineer und berät unsere Kunden in der vertrieblichen Phase rund um das Thema Monitoring. Gemeinsam mit Georg hat er sich Mitte 2012 auch an unserem Hardware-Shop "vergangen".

DevOps Camp 2014

icon3d_devops-camp-2014
logo_devops-camp
Das DevOps Camp 2014 (12.09-14.09) in Nürnberg. Ich war dort und möchte euch nun darüber berichten.
Da ich aber am Rande mitbekommen habe, dass viele mit dem Format eines “Bar Camps” nichts anfangen können, möchte ich zunächst auf die Frage eingehen, was ein “Bar Camp” ist und auch was ein “Themen Camp” ist.
Im groben und ganzen ist ein Bar Camp vergleichbar mit einem Wochenende unter Freunden.
Man tauscht Erfahrungen aus, diskutiert, hat Spaß und sitzt gemütlich beisammen.
Das Bar Camp ist nach dem Schema einer “Unkonferenz” aufgebaut.
Das bedeutet, dass es keine reinen Zuschauer, keine reinen Redner, und auch keine Themenbegrenzung gibt.
JEDER kann ein Thema in die Runde einbringen und kann dann, mit den Teilnehmern, die sich ebenfalls für das Thema interessieren unterhalten, innerhalb einer “Session” diskutieren und auch Erfahrungen austauschen. Die Sessions werden im Vorfeld nicht festgelegt, sondern erst an dem Tag, an dem sie stattfinden sollen. Dementsprechend wird dann auch der Tagesablauf von den Teilnehmern geplant.
Es werden aber nur Sessions abgehalten, die von Teilnehmern vorgeschlagen und auch mit Interesse angenommen werden.
Der Unterschied eines Themen Camps hierzu besteht nun lediglich darin, dass man versucht im Vorfeld eine grobe Thematik des Camps vorzugeben um Teilnehmer zu bekommen, die speziell ein diesem Bereich tätig oder Interessiert sind.
In diesem Fall eben “DevOps“.
Viele Personen vermischen die Konzepte eines Bar Camps und einer Konferenz. Sie wissen also, dass es keinen festgelegten Ablauf, keine festgelegten Themen und auch keinen exakt festgelegten Zeitraum gibt. Sie denken dann aber bei dem Stichwort “Session” nicht an eine gemütliche Diskussionsrunde, sondern an einen strukturierten Vortrag, den sie halten müssten, wenn sie ein Thema präsentieren wollen. Auch ich habe anfangs so gedacht, wurde jedoch sehr schnell eines besseren belehrt.
Nun möchte ich einen kleinen Einblick in das DevopsCamp 2014 geben und meine persönlichen Erfahrungen schildern.
Das Wochenende begann Freitag Abend nach der Arbeit mit dem sogenannten Networking.
Ein Großteil der Teilnehmer traf sich auf Bier und Pizza und man lernte sich kennen.
Samstag Morgen wurde zusammen gefrühstückt, neue Gesichter kamen dazu. Gegen 10 Uhr wurden dann von den Teilnehmern ihre Sessionvorschläge “präsentiert”, es wurde ein Zeitplan erstellt und es wurde die Information vergeben, dass in der Mittagspause “mit Holz gespielt wird”.
Es gab über den Tag verteilt spannende Vorträge über DDos (wie kann ich Angriffe effektiv abwehren?), Amazon VMs und vielen weiteren.
Das Essen wurde von allen mit großer Begeisterung verzehrt, jedoch waren nicht alle von den verregneten Stunden begeistert.
Als es dann um die Mittagszeit jedoch die Sonne zum Vorschein kam, durften wir wie angekündigt mit “Holz spielen”:
20140913_140159
Der Tribok, die dazugehörenden Sicherheitsbelehrungen, geschichtliche Entwicklung und auch die Erklärungen der physikalischen Wirkung entwickelte sich sehr schnell zu einer Session, der nahezu alle aufmerksam gelauscht haben. (Ein paar Fakten am Rande: Dieser Tribok ist mit einem 2m Wurfarm, 50-60m Wurfweite und ca 25kg Gegengewicht nur der kleine Bruder des anderen Triboks (6m Wurfarm, 100m Wurfweite, 300kg Gegengewicht) seines Besitzers).
Inspiriert von dieser Aktion besuchte man in der 2 Stündigen Pause spontan das Burggraben Fest in Nürnberg, um mehr Geschichte hautnah zu erleben.
Am Abend saß man wieder bei einem gemütlichen Bier zusammen, uns es entflammten schnell Diskussionen über Puppet, Git, Virtualisierung, und vielen mehr.
Diese Diskussionsrunde wurde dann jedoch zu später Stunde aufgelöst und der ein oder andere hat sich noch mit anderen Teilnehmern in einer Bar getroffen.
Der letzte Tag begann wieder mit einem gemütlichen Frühstück, jedoch wurde die Tage zuvor so viel Kaffee getrunken, dass es schnell zu einer Knappheit des wertvollen Gutes kam.
Wieder wurden die Sessions geplant, die Gruppen bildeten sich langsam aber sicher und der letzte Tag konnte beginnen.
An diesem Tag, standen Sessions über Docker, Puppet (Für Anfänger und Q&A), Logstash/Kibana/Graphite, Git und vielen weiteren spannenden und packenden Themen auf dem Plan.
Docker wurde mit soviel Begeisterung angenommen, dass nachfolgende Sessions verschoben oder gar entfallen mussten, weil die Teilnehmer immernoch mit Docker beschäftigt waren. (Das führte auch dazu, dass kurzzeitig die Internetverbindungen zusammengebrochen oder unbrauchbar geworden sind. Ein Schock für alle…)
Am Ende gab es eine kleine Feedback Session, und es wurden Probleme besprochen, Verbesserungsvorschläge eingebracht und sich für dieses schöne Wochenende einfach nur bedankt.
Mein Urteil: Nach anfänglichen “Ängsten” war es ein sehr schönes Wochenende, mit netten und aufgeschlossenen Leuten und das nächste Camp im Frühjahr 2015 werde ich auf jeden Fall wieder besuchen.
Vielleicht hat der eine oder andere hier auch Lust bekommen, und man trifft sich auf dem nächsten Camp.

Marius Gebert
Marius Gebert
Systems Engineer

Marius ist seit 2013 bei NETWAYS. Er hat 2016 seine Ausbildung zum Fachinformatiker für Systemintegration absolviert und ist nun im Web Services Team tätig. Hier kümmert er sich mit seinen Kollegen um die NWS Plattform und alles was hiermit zusammen hängt. 2017 hat Marius die Prüfung zum Ausbilder abgelegt und kümmert sich in seiner Abteilung um die Ausbildung unserer jungen Kollegen. Seine Freizeit verbringt Marius gerne an der frischen Luft und ist für jeden Spaß zu...

OSDC 2014: Der Countdown läuft – Morgen geht's los!

Daniel Kirstenpfad über Wachstumsschmerzen eines Start-Ups und wie eine Virtualisierung der Produktivumgebung Abhilfe schaffen kann.

OSDC? Noch nie gehört…
Das ist aber schade und fast schon ein unentschuldbares Versäumnis!
Aber wir holen das nach:
Die Open Source Data Center Conference (kurz OSDC) ist unsere internationale Konferenz zum Thema Open Source Software in Rechenzentren und großen IT-Umgebungen. 2014 findet sie zum sechsten Mal statt und bietet mit dem Schwerpunktthema Agile Infrastructures ganz besonders erfahrenen Administratoren und Architekten ein Forum zum Austausch und die Gelegenheit zur Aneignung des aktuellsten Know-Hows für die tägliche Praxis. Diesmal treffen wir uns dafür in Berlin!
Workshops am Vortag der Konferenz und das im Anschluss an die Veranstaltung stattfindende Puppet Camp komplettieren dabei das Rundum-sorglos-Paket für Teilnehmer, die gar nicht genug Wissen in sich aufsaugen können.

OSDC 2014: Der Countdown läuft – nur noch 64 Tage

And now for something completely different: The OpenNebula Cloud Platform for Datacenter Virtualization mit Constantino Vázquez.

OSDC? Noch nie gehört…
Das ist aber schade und fast schon ein unentschuldbares Versäumnis!
Aber wir holen das nach:
Die Open Source Data Center Conference (kurz OSDC) ist unsere internationale Konferenz zum Thema Open Source Software in Rechenzentren und großen IT-Umgebungen. 2014 findet sie zum sechsten Mal statt und bietet mit dem Schwerpunktthema Agile Infrastructures ganz besonders erfahrenen Administratoren und Architekten ein Forum zum Austausch und die Gelegenheit zur Aneignung des aktuellsten Know-Hows für die tägliche Praxis. Diesmal treffen wir uns dafür in Berlin!
Workshops am Vortag der Konferenz und das im Anschluss an die Veranstaltung stattfindende Puppet Camp komplettieren dabei das Rundum-sorglos-Paket für Teilnehmer, die gar nicht genug Wissen in sich aufsaugen können.

Docker

Die Devops-Tool-Chain hat seit einiger Zeit ein sehr interessantes neues Tool mit dem Namen “Docker”. Docker erfährt einen regelrechten Hype um sich, wobei die Meinungen um das Tool durchaus gemischt sind. Einen Blick ist es auf jeden Fall Wert. Aber was ist Docker eigentlich?
Docker ist ein Open-Source-Framework, das leichtgewichtige, portable, LXC-Container bereitstellt und steuert, die praktisch überall laufen können. Eine Anwendung kann also problemlos auf einem Laptop des Entwicklers, oder in großen Produktionsumgebungen auf Bare-Metal oder in der Cloud laufen. Das mit dem überall beschränkt sich dann aber doch auf einen Linux-Kernel mit LXC, aber das wiederum kann praktisch überall laufen. Die Use-Cases sind die Automatisierung von Deployments, das Bereitstellen von PaaS/SaaS Services, automatisierte Continuous-Integration-Tests und die Skalierung von Anwendungen. Spätestens jetzt ruft der erste “Bingo” beim Buzzword-Bingo.
In anderen Worten ist Docker ein Tool, vergleichbar mit Vagrant, mit dem sich Anwendungen einfach über Umgebungen hinweg portieren lassen.
docker run ubuntu /bin/echo hello world
Tatsächlich ist das aufgezeigte Beispiel vielleicht etwas ernüchternd: es gibt bei Erfolg lediglich “hello world” auf einer neuen Zeile zurück. Tatsächlich passiert aber viel mehr. Das Image ‘ubuntu’ wird heruntergeladen – wenn es nicht bereits lokal vorhanden ist – und in einem LXC-Container gestartet. In diesem wiederum wird /bin/echo ausgeführt und anschließend beendet sich der Container wieder.
Ein Container wird immer aus einem Image erzeugt und läuft so lange die Anwendung läuft – wird diese beendet, beendet sich auch der Container. Images sind über Repositories, bei Bedarf auch eigenen Repositories, verfügbar. Ähnlich wie mit Git lassen sich diese Images steuern. docker commit, docker pull, docker push erstellen neue Images und laden diese hoch bzw. runter.
docker run -i -t ubuntu /bin/bash
docker commit $ID my_fancy_app
docker run -p 80:3000 my_fancy_app rails server

In dem Beispiel wird ein LXC-Container mit Ubuntu gestartet mit einer interaktiven Shell. In der Sitzung installiert man seine Anwendung. Eleganter ist ein Dockerfile, dass das automatisch vornimmt. In dem Beispiel wird eine Ruby-on-Rails-Anwendung installiert und mit dem commit Befehl anschließend ein neues Image erzeugt. Nebenbei bemerkt: docker diff zeigt den Unterschied zum initialen Container. Abschließend wird das neue Image in einem neuem Container mit einer Portweiterleitung von 80 auf 3000 und der Anwendung (Webrick) gestartet. Die Anwendung ist dann unter der $IP:80 auf dem System, dass den Container hosted, verfügbar. Die Anwendung bzw. der Container kann jetzt beliebig oft sekundenschnell gestartet werden, solange der Netzwerkport natürlich nicht doppelt belegt wird. Der Container ist jetzt in der Lage auf jedem System gestartet zu werden, dabei ist es egal ob es eine Amazon AWS VM, KVM/XEN VM, Bare-Metal oder Virtualbox(Vagrant) ist.
Seine Container kann man auch mit Puppet steuern, verteilen und starten.
docker::run { 'my_app':
image => 'my_fancy_app',
command => 'rails start',
ports => ['80', '443'],
}

Zusammenfassend ist Docker ein geniales Framework für einige bestimmte Anwendungsfälle. Ich bin begeistert.
Mehr Information findet man auf docker.io

Sebastian Saemann
Sebastian Saemann
Head of Managed Services

Sepp kam von einem großen deutschen Hostingprovider zu NETWAYS, weil ihm dort zu langweilig war. Bei uns kann er sich nun besser verwirklichen, denn er leitet zusammen mit Martin das Managed Services Team. Wenn er nicht gerade Server in MCollective einbindet, versucht er mit seinem Motorrad einen neuen Geschwindigkeitsrekord aufzustellen.

OSDC 2014: Der Countdown läuft – nur noch 120 Tage

René Koch lässt uns heute an seinen Erfahrungen mit oVirt und RHEV teilhaben und sorgt damit dafür, dass wir die OSDC 2014 praktisch kaum noch erwarten können.

OSDC? Noch nie gehört…
Das ist aber schade und fast schon ein unentschuldbares Versäumnis!
Aber wir holen das nach:
Die Open Source Data Center Conference (kurz OSDC) ist unsere internationale Konferenz zum Thema Open Source Software in Rechenzentren und großen IT-Umgebungen. 2014 findet sie zum sechsten Mal statt und bietet mit dem Schwerpunktthema Agile Infrastructures ganz besonders erfahrenen Administratoren und Architekten ein Forum zum Austausch und die Gelegenheit zur Aneignung des aktuellsten Know-Hows für die tägliche Praxis. Diesmal treffen wir uns dafür in Berlin!
Workshops am Vortag der Konferenz und das im Anschluss an die Veranstaltung stattfindende Puppet Camp komplettieren dabei das Rundum-sorglos-Paket für Teilnehmer, die gar nicht genug Wissen in sich aufsaugen können.

Willkommen in der Cloud – Teil 2

Am Mittwoch Nachmittag ging es für mich mit Valentin Bud weiter, der der wohl gesättigten Teilnehmerschar SaltStack vorstellte und wie dieses genutzt werden kann um die Hosts für die Cloud automatisiert zu konfigurieren. Dies ist natürlich nur ein Anwendungsszenario für die Kombination aus Konfigurationsmanagement und Orchestration-Lösung.
Im Anschluß zeigte Xavier González del Aguila von Viapps wie man das Deployment von Infrastrukturdiensten wie Mailing, Firewalls und Proxies in einer Cloud mit ihrer Lösung vereinfachen und beschleunigen kann. Die Lösung basiert auf CentOS, Chef, Webmin und Eigenentwicklungen sowie weiteren OpenSource-Produkten zum Abbilden der eigentlichen Dienste.
Als nächstes wurde die Virtual Execution Platform des Contrail Projects von Yvon Jegou vorgestellt. Diese bietet zusätzlich zu einer Platform as a Service auf Basis von OpenNebula Unterstützung für SLA-Management.
Im Vortrag von Nils Magnus ging es um eins der wichtigsten Themen in der IT überhaupt und bei einer Cloud im speziellen: Sicherheit. Schon mit seinen Aussagen zum Einstieg musste ich übereinstimmen. Sicherheit hat nichts mit Checklisten zum abhaken zu tun und wird viel zu oft als Nebensache abgetan. Für mich waren die 10 Vorschläge nichts neues, aber auch ich sehe leider wie diese oft keine Anwendung finden. Insbesondere der Vorschlag Sicherheitsmechanismen auch zu nutzen, wenn sie schon zur Verfügung stehen, sollte von vielen überdacht werden.
Als letzten Vortrag für den heutigen Tag stellte Bernd die Netways Managed Service Umgebung vor inklusive all der Stolpersteine … ähm … Anforderungen für diese Umgebung. Wer sich für die verwendeten Komponenten interessiert, darf einfach einen Blick auf unser Portfolio werfen, all diese integrieren sich hier zu einer schönen OpenSource-Plattform.
Zwischen dem letzten Vortrag und der Abendveranstaltung standen nun noch die Open Spaces, in der die Entwickler Anregung jeglicher Art gesammelt haben. Dies reichte von gewünschten Bugfixes über Erweiterungen des Entwicklungsprozesses zur weiteren Qualitätssteigerung und Transparenz bis zu Fragen zu konkreten Features.
Für die Abendveranstaltung wurde wieder mal ordentlich aufgetafelt. Die Location hatte hierbei auch ihren Charme, was man so aus einem alten Umspannwerk machen kann. Somit konnte bei gutem Essen und entspannter Atmosphäre gefachsimpelt werden.
Den Donnerstag eröffnete Jordi Farrés von der European Space Agency mit einer Case Study. Interessant waren hier die Schritte bei der Einführung der Cloud von Nutzung der Amazon Public Cloud über externes Hosting einer privaten Cloud und Hosting der eigenen Umgebung in einer Federated Cloud zur Hybrid Cloud und die dabei gelernten Lektionen.
Karanbir Singh präsentierte das CentOS-Projekt und erläuterte warum es nicht nur die kostenlose Alternative zu Red Hat und eine gute Plattform für OpenNebula ist. Mit der Erfahrung aus dem Hands-On Tutorial kann ich dies nur bestätigen.
In den Lightning Talks bekamen die Präsentatoren 5 Minuten um ein Cloud-Thema ihrer Wahl anzusprechen. Dies reichte von der Vorstellung einer ungarischen Cloudumgebung über das Projekt Cloud-init bis zu den Fallen der Cloud-Mathematik.
Nach dem Mittagessen ging es weiter mit der Case-Study des spanischen Forschungsnetzwerks von Jordi Guijarro, die ihren Benutzern eine Intercloud zur Verfügung stellen. Gefolgt von einer zweiten Case-Study zum niederländischen Supercomputer präsentiert von Ander Astudillo von SURFsara. Zusätzlich zur High Performance Computing Cloud wurde dort eine Cloud Light eingeführt, da es OpenNebula den Benutzern so leicht machte virtuelle Maschinen zu betreiben, dass neben den High Performance Systemen nun auch klassische Serverdienste gehostet werden.
Boris Parak gab einen Einblick in OCCI, eine OpenSource-Standard-Schnittstelle zum Cloudmanagement, und rOCCI, ein in Ruby geschriebenes Framework, das OCCI in OpenNebula implementiert. Ziel ist es hierbei mit dem rOCCI-Server eine Brücke zu unterschiedlichen Cloud-Lösungen zu schlagen, damit diesen auch die standardisierte Schnittstelle zur Verfügung steht.
Den Abschluss bildeten noch einige Dankesworte des Opennebula Teams. Dem kann ich mich nur anschließen, denn es war eine wirklich interessante Konferenz mit internationalem Publikum und vielen Talks, die zeigten das Cloud nicht nur ein Buzzword ist.
Der Termin für nächstes Jahr steht auch schon fest, wer ihn sich vormerken möchte: 02. bis 04. Dezember 2014 in Berlin.

Dirk Götz
Dirk Götz
Senior Consultant

Dirk ist Red Hat Spezialist und arbeitet bei NETWAYS im Bereich Consulting für Icinga, Puppet, Ansible, Foreman und andere Systems-Management-Lösungen. Früher war er bei einem Träger der gesetzlichen Rentenversicherung als Senior Administrator beschäftigt und auch für die Ausbildung der Azubis verantwortlich wie nun bei NETWAYS.

Willkommen in der Cloud – Teil 1

Ich hatte zwar bisher schon viel mit Virtualisierung zu tun, von VMware über Xen und KVM bis zur Red Hat Enterprise Virtualisierung, aber eine Cloud habe ich bisher noch nicht betreut. Daher habe ich mich schon auf das Hands-On Tutorial zu OpenNebula im Rahmen der ersten OpenNebulaConf gefreut. Und ich muss sagen, wenn in einem Tutorial das Aufsetzen der Umgebung das Komplizierteste ist, spricht dies für die Einfachheit der Lösung.
Nach einer kurzen Erläuterung der verschiedenen Cloud-Typen und dem OpenNebula-Modell konnte es mit einem zur Verfügung gestellten Laptop und einem USB-Stick zum Mitnehmen des Tutorials und der aufgesetzten Umgebung losgehen. Zwei Images deployed, auf einem die Management-Oberfläche installiert und beide dank Nested Virtualization zum Host gemacht und schon konnte es losgehen. Wenige Konfigurationsschritte später liefen auch schon zwei virtuelle Maschinen deployed aus einem Image in unserem virtuellen Netzwerk. Besonders hat mir gefallen, dass eigentlich alles sowohl über die Kommandozeile als auch die Oberfläche Sunstone möglich war. Ich bevorzuge zwar die Kommandozeile, aber eine GUI ist doch nützlich, besonders wenn sie wie bei OpenNebula genau auf den Anwender zuschneidbar ist. Nochmals danke für das gute Tutorial an das Team vom OpenNebula-Projekt!
Für die erfahreneren Anwender wie meine Kollegen vom Managed Service fand gleichzeitig die Hacking Session statt in der jeder seine Wünsche loswerden konnte, die dann diskutiert wurden und ihren Weg auf die Roadmap fanden.
Die eigentlich Konferenz begann dann mit der Begrüßung durch Ignacio M. Llorente, der kurz die Historie und die Zeile des OpenNebula-Projekts aufzeigte. Im Anschluß zeigte Daniel Concepción von Produban die Beweggründe für den Einsatz einer Cloud, die Entscheidung für OpenNebula und die Umsetzung. Interessant fand ich hier besonders auch wie sich die Entscheidung für eine Cloud auch auf die Hardware durchgeschlagen hat und man von Industriestandards zum Open Compute Projekt umgeschwenkt ist.
Ebenso interessant war der Vortrag von Thomas Higdon von Akamai, die ihre IT-Landschaft in einzelne Instanzen ihrer Software aufgeteilt haben und diese für Entwicklung und Testing mittels der Template-Mechanismen von OpenNebula klonen. Hierbei kommt für den Klonvorgang ein eigener Instance Service als Benutzerschnittstelle zum Einsatz.
Auch für Fermilab (Steve Timm) gabs es die üblichen Gründe von physikalischer Hardware zu Virtualisierung zu wechseln und die Anforderungen an die Entwicklung gaben den Schritt zur Cloud vor. Einer der Kernpunkt des Vortrags waren allerdings die Anforderungen an Hochverfügbarkeit über zwei räumlich getrennte Rechenzentren um die Verfügbarkeit von mehr als 90 PB wissenschaftlicher Daten zu gewährleisten. Der zweite war der dynamische Wachstum der Umgebung über mehrere Cloudumgebungen und -lösungen hinweg um einen funktionierenden Workflow der Wissenschaftler mehrerer internationaler Projekte zu gewährleisten. Und natürlich wie man nach dem Wachstum auch wieder Schrumpfen kann indem man aktuell nicht benötigte Ressourcen identifiziert.
Nun geht es erstmal zum Lunch, eine Zusammenfassung der weiteren anderthalb Tage werde ich dann Freitag hier veröffentlichen. Liveberichterstattung gibt es wie immer bei Twitter!

P.S.: Man möge mir entschuldigen, dass ich als Titel eine der Phrasen aufgegriffen habe, die man wohl zu oft in den letzten Jahren gehört hat. Bis auf diese war es nämlich eine Phrasen-freie Konferenz. 😉

Dirk Götz
Dirk Götz
Senior Consultant

Dirk ist Red Hat Spezialist und arbeitet bei NETWAYS im Bereich Consulting für Icinga, Puppet, Ansible, Foreman und andere Systems-Management-Lösungen. Früher war er bei einem Träger der gesetzlichen Rentenversicherung als Senior Administrator beschäftigt und auch für die Ausbildung der Azubis verantwortlich wie nun bei NETWAYS.