Ich hatte zwar bisher schon viel mit Virtualisierung zu tun, von VMware über Xen und KVM bis zur Red Hat Enterprise Virtualisierung, aber eine Cloud habe ich bisher noch nicht betreut. Daher habe ich mich schon auf das Hands-On Tutorial zu OpenNebula im Rahmen der ersten OpenNebulaConf gefreut. Und ich muss sagen, wenn in einem Tutorial das Aufsetzen der Umgebung das Komplizierteste ist, spricht dies für die Einfachheit der Lösung.
Nach einer kurzen Erläuterung der verschiedenen Cloud-Typen und dem OpenNebula-Modell konnte es mit einem zur Verfügung gestellten Laptop und einem USB-Stick zum Mitnehmen des Tutorials und der aufgesetzten Umgebung losgehen. Zwei Images deployed, auf einem die Management-Oberfläche installiert und beide dank Nested Virtualization zum Host gemacht und schon konnte es losgehen. Wenige Konfigurationsschritte später liefen auch schon zwei virtuelle Maschinen deployed aus einem Image in unserem virtuellen Netzwerk. Besonders hat mir gefallen, dass eigentlich alles sowohl über die Kommandozeile als auch die Oberfläche Sunstone möglich war. Ich bevorzuge zwar die Kommandozeile, aber eine GUI ist doch nützlich, besonders wenn sie wie bei OpenNebula genau auf den Anwender zuschneidbar ist. Nochmals danke für das gute Tutorial an das Team vom OpenNebula-Projekt!
Für die erfahreneren Anwender wie meine Kollegen vom Managed Service fand gleichzeitig die Hacking Session statt in der jeder seine Wünsche loswerden konnte, die dann diskutiert wurden und ihren Weg auf die Roadmap fanden.
Die eigentlich Konferenz begann dann mit der Begrüßung durch Ignacio M. Llorente, der kurz die Historie und die Zeile des OpenNebula-Projekts aufzeigte. Im Anschluß zeigte Daniel Concepción von Produban die Beweggründe für den Einsatz einer Cloud, die Entscheidung für OpenNebula und die Umsetzung. Interessant fand ich hier besonders auch wie sich die Entscheidung für eine Cloud auch auf die Hardware durchgeschlagen hat und man von Industriestandards zum Open Compute Projekt umgeschwenkt ist.
Ebenso interessant war der Vortrag von Thomas Higdon von Akamai, die ihre IT-Landschaft in einzelne Instanzen ihrer Software aufgeteilt haben und diese für Entwicklung und Testing mittels der Template-Mechanismen von OpenNebula klonen. Hierbei kommt für den Klonvorgang ein eigener Instance Service als Benutzerschnittstelle zum Einsatz.
Auch für Fermilab (Steve Timm) gabs es die üblichen Gründe von physikalischer Hardware zu Virtualisierung zu wechseln und die Anforderungen an die Entwicklung gaben den Schritt zur Cloud vor. Einer der Kernpunkt des Vortrags waren allerdings die Anforderungen an Hochverfügbarkeit über zwei räumlich getrennte Rechenzentren um die Verfügbarkeit von mehr als 90 PB wissenschaftlicher Daten zu gewährleisten. Der zweite war der dynamische Wachstum der Umgebung über mehrere Cloudumgebungen und -lösungen hinweg um einen funktionierenden Workflow der Wissenschaftler mehrerer internationaler Projekte zu gewährleisten. Und natürlich wie man nach dem Wachstum auch wieder Schrumpfen kann indem man aktuell nicht benötigte Ressourcen identifiziert.
Nun geht es erstmal zum Lunch, eine Zusammenfassung der weiteren anderthalb Tage werde ich dann Freitag hier veröffentlichen. Liveberichterstattung gibt es wie immer bei Twitter!

P.S.: Man möge mir entschuldigen, dass ich als Titel eine der Phrasen aufgegriffen habe, die man wohl zu oft in den letzten Jahren gehört hat. Bis auf diese war es nämlich eine Phrasen-freie Konferenz. 😉

Dirk Götz
Dirk Götz
Senior Consultant

Dirk ist Red Hat Spezialist und arbeitet bei NETWAYS im Bereich Consulting für Icinga, Puppet, Ansible, Foreman und andere Systems-Management-Lösungen. Früher war er bei einem Träger der gesetzlichen Rentenversicherung als Senior Administrator beschäftigt und auch für die Ausbildung der Azubis verantwortlich wie nun bei NETWAYS.