pixel
Seite wählen

NETWAYS Blog

How to NWS: Von der Anmeldung bis zum Starten Deiner Anwendung

This entry is part of 6 in the series How To NWS

Die letzten Blogposts über „How To NWS“ handelten von unseren gesamten NWS Portfolio – aber die Frage ist doch auch „Wie melde ich mich an?“ oder „Wie starte ich eine Anwendung?“ Ganz einfach! Hier erkläre ich es Dir in ein paar Schritten:

1. Welche Anwendung passt am besten zu mir?

Wenn Du auf unsere NWS Website gehst, findest Du ein breites Portfolio an Produkten. Egal, ob Du eine unserer gehosteten Apps starten möchtest, die von Kommunikationstools bis hin zu Monitoring-Apps zur Verfügung stehen, ein OpenStack benötigst oder dann doch ein Kubernetes Cluster – ganz egal! Denn wenn Du Dich für etwas entschieden hast, ist die Anmeldung für Deinen NETWAYS Web Services Account immer gleich 😉

2. Konto erstellen 

Du hast Dich für etwas entschieden oder wusstest schon genau, was Du brauchst? Dann musst Du nur noch auf „Jetzt starten“ klicken und wirst auf unsere „Neues Konto erstellen“-Seite weitergeleitet.

Hier kannst Du auswählen, ob Du den  Account für Dich, Dein Unternehmen oder für eine Schule/Behörde anlegst.

Ausfüllen. Registrieren. Und los geht’s!

 

 

3. Dein NWS-Account im Überblick

Auf der linken Seite hast Du eine vollständige Übersicht. Im oberen Bereich siehst Du Deine gestarteten Anwendungen. Darunter sind die Anwendungen, die Du noch starten kannst und ganz unten findest Du unseren MyEngineer. Wenn Du Hilfe brauchst, kannst Du Dir über den Butten “Book now” ganz einfach Deinen eigenen MyEngineer zur Seite ziehen.

P.S. Unsere Apps sind auch 30 Tage kostenlos, also probiere sie gerne auch aus 😉

4. Beispiel an Jitsi

Wenn Du eine Anwendung gestartet hast, sagt Dir der grüne Punkt, dass sie jetzt aufgesetzt und bereit zum Verwenden ist. Es wird eine Domain (in dem Fall) für Jitsi generiert.

Wenn Dein Unternehmen oder die Schule/Behörde wächst/schrumpft, kannst Du ganz einfach unter “Manage Contract” Dein Paket ändern. Falls Du die Instanz aber auch gar nicht mehr brauchst, kannst Du sie dort natürlich auch kündigen.

Bei “More Information” geben wir Dir ein paar Tipps, wie Deine ersten Schritte aussehen könnten und halten Dich durch Dokumentationen, FAQs und Blogs immer auf dem Laufenden.

Natürlich kannst Du aber auch ein CName oder Deine eigene Domain einfügen. User anlegen/löschen oder vieles mehr nach Deinen Anforderungen einstellen. Das, sowie Dein Admin User + Passwort findest Du unter dem Punkt “Settings”.

 

Sofern Du irgendwelche anderen Fragen hast, kannst Du Dich natürlich immer bei uns melden – wir wollen Dir helfen, Dein Leben einfacher zu machen! 🙂

Also: Entscheiden (falls noch nötig), Registrieren, Anwendung starten, nach Deinen Wünschen und Anforderungen anpassen und los geht’s! 

Leonie Pehle
Leonie Pehle
Junior Sales Manager

Leonie ist seit September 2019 bei NETWAYS und macht eine Ausbildung zur Kauffrau für Büromanagement. In ihrer Freizeit ist sie aktive Hobbyfotografin, immer auf der Suche nach dem perfekten Schnappschuss. Darüber hinaus ist sie immer im Stadion zu finden,  wenn der 1.FC Nürnberg spielt.

4 Dinge, die neu sind bei NWS Kubernetes

Getreu dem Motto: “you answered – we listened” hat unser NWS-Platform-Team diese Woche für unsere Kunden neue Optionen zum Erstellen von Managed Kubernetes Clustern eingeführt, die im folgenden kurz erläutert und vorgestellt werden:

 

1. Neue Kubernetes Versionen

Das neueste Kubernetes Major Release 1.21 ist jetzt – einen Monat nach dem offiziellem Release – auch für NWS Kunden einsatzbereit! Änderungen und Neuigkeiten findet man wie gewohnt im offiziellen Changelog.

Neben der aktuellen Version 1.21 gibt es weiterhin die Möglichkeit, Kubernetes Cluster in den Versionen 1.18, 1.19 und 1.20 zu erstellen. Die Version 1.18 ist  jedoch bereits “End of Life” und deswegen nicht mehr unbedingt zu empfehlen.

 

Kubernetes Cluster erstellen

2. Private Cluster

Beim Erstellen eines Clusters kann man ab sofort zwischen einem “Private” oder einem “Public” Cluster wählen. Damit wird die Erreichbarkeit der Kubernetes-API des Clusters gesteuert. Ein privater Cluster hat nur eine interne IP und keine weitere öffentliche Floating-IP und ist dementsprechend nur von innerhalb der Kundenumgebung (OpenStack- oder Kubernetes-Projekt) erreichbar oder via VPN.

 

3. Individuelle Subnetze

Ebenso kann beim Erstellen eines neuen Clusters das Subnetz – in dem die Nodes kommunizieren – frei gewählt werden. Das ist insbesondere dann hilfreich, wenn man einen privaten Kubernetes Cluster per VPN mit einem bestehenden Firmennetz verbindet!

 

4. Rotate CA

Das Rotieren der Kubernetes CA kann jetzt über die Web-Oberfläche angestoßen werden. Es wird eine neue Cluster CA erzeugt und entsprechend neue Schlüssel und Zertifikate für Service-Accounts und Kubernetes-Nodes verteilt. Die bestehende kubeconfig-Datei des Administrators muss dann durch eine neue ausgetauscht werden.

 

Kubernetes Tutorials

Wer sich nochmal eine genaue Anleitung, wie man schnell und einfach sein Managed Kubernetes bei NWS aufsetzt, durchlesen möchte, der findet diese und viele weitere Kubernetes Tutorials auf unserer Website. Gerne mal vorbeischauen!

Sebastian Saemann
Sebastian Saemann
Head of Managed Services

Sebastian kam von einem großen deutschen Hostingprovider zu NETWAYS, weil ihm dort zu langweilig war. Bei uns kann er sich nun besser verwirklichen, denn er leitet das Managed Services Team. Wenn er nicht gerade Cloud-Komponenten patched, versucht er mit seinem Motorrad einen neuen Rundenrekord aufzustellen.

How To NWS: MyEngineer

This entry is part 5 of 6 in the series How To NWS

MyEngineer

Heute möchte ich die Übersicht über unser NWS-Portfolio abschließen.

In den letzten Blogs habe ich all unsere technischen NWS-Dienste und deren Möglichkeiten vorgestellt. Du kannst Dir Deine passende App auf unserer Selfservice SaaS-Plattform raussuchen und direkt starten. Diese fährt automatisch hoch und ist innerhalb von weniger als fünf Minuten einsatzfähig. Auf unserer Netways Cloud based on OpenStack kannst Du Dir für Deine Projekte alle nötigen Compute-, Netzwerk und Storage-Ressourcen zusammenstellen, ohne dafür in eigene Hardware investieren zu müssen.  Und mit Kubernetes bekommen all unsere Kunden, die containerbasierte Apps einsetzten wollen, ein extrem performantes und voll gemanagtes Orchestrierungstool.

Komplettiert wird dieses ganze Angebot nun mit der letzten Säule: unserem MyEngineer Support Service.

Wer das nötige Knowhow und die Zeit hat, kann all die vorher genannten Dienste selbst über unser Portal https://my.nws.netways.de/ starten und komplett eigenständig betreiben. Eine Interaktion mit uns ist im Prinzip nicht notwendig. Es gibt aber diverse Situationen, in denen unsere Kunden gerne auf unseren MyEngineer Service zurückgreifen.

  1. Fokus auf die Kernaufgaben

Zum einen gibt es Unternehmen, die sich von der Last der Betreuung Ihrer Infrastruktur befreien wollen. Denn auch wenn man seine Dienste bei einem Hoster betreibt, müssen diese Anwendungen und die Infrastruktur drumherum ja gepflegt werden. Wer also den Kopf frei bekommen möchte, von den Problemen rund um Betrieb und Support und einfach nur eine stets einsatzfähige Anwendung nutzen möchte, der gibt die unliebsamen Arbeiten an den MyEngineer ab. Liegen für den Dienst beispielsweise Updates vor, melden sich die technischen Kollegen, sprechen die gewünschten Time-Slots ab und führen die Arbeiten dann so aus, dass der Arbeitsflow des Kunden möglichst wenig von dem Update-Prozess betroffen ist.

  1. Fehlendes Fachwissen

Der zweite Fall betrifft das umfangreiche Fachwissen, das für den Betrieb von OpenStack oder rund um die Anwendung von Kubernetes nötig ist. Beides sind hoch komplexe Themengebiete und nicht jedes Unternehmen hat die Ressourcen sich in diese tiefgreifend einzuarbeiten. Denn das bedeutet Zeit zu investieren, die die Mitarbeiter dann nicht mehr zur Verfügung haben, um sich um die Belange ihrer Kunden kümmern zu können. Das heißt aber nicht, dass diese Unternehmen die Vorteile von OpenStack und Kubernetes deswegen nicht nutzen können. Denn diese Lücken werden durch unseren MyEngineer-Service gefüllt. Wir haben in unserem Team für jeden Dienst unseres Portfolios diverse Spezialisten, die jahrelange Erfahrung gesammelt und bislang noch für jedes Problem die richtige Lösung gefunden haben. Unsere System Engineers stehen jederzeit (auch 24/7) für alle Probleme und Anliegen mit Rat und Tat zur Seite.

  1. Realisierung individueller Vorstellungen

Und zu guter Letzt kann es vorkommen, dass Du innerhalb Deiner Anwendung ein bestimmtes Feature brauchst, das bislang aber noch nicht realisiert wurde. In enger Absprache schauen wir auf Wunsch gerne, wie wir dieses Feature integrieren können. Einem unserer Kunden war es beispielsweise sehr wichtig, dass sich Mitarbeiter und Kunden auch telefonisch in ihre Jitsi-Videomeetings einwählen können. Dieses Feature gab es in Jitsi noch nicht und so machten wir uns auf die Suche. Innerhalb von kurzer Zeit konnten wir zusammen mit einen Partner die Telefoneinwahl via SIP Trunking bei unserem Kunden erfolgreich integrieren. Da unser Kunde so happy und zufrieden war, haben wir zu diesem Projekt noch eine Success Story machen können. Die gibt es hier:

https://www.netways.de/netways/kunden/thueringer-aufbaubank/

Funktionsweise

Generell funktioniert der MyEngineer folgendermaßen: Du klickst im NWS-Portal auf MyEngineer und schon bekommen wir die Info, dass Du gerne unsere Unterstützung in Anspruch nehmen möchtest. Hierbei buchst Du keine Pauschale, die dann monatlich abgerechnet wird – egal, ob Hilfe geleistet wurde oder nicht.  Nein, wir arbeiten hier auf Zuruf und nach Absprache. Du sagst uns, wo welche Unterstützung nötig ist, und wir setzen diese dann um. Das geht von der voll gemanagten Jitsi Cloud Umgebung (basierend auf OpenStack; inkl. Einrichtung, Wartung und Betrieb) bis hin zum Consulting für beispielsweise die Konzeption einer notwendigen CI-CD-Pipeline für den optimalen Einsatz von Kubernetes. Abgerechnet wird dabei stets nur die Zeit, die in Anspruch genommen wurde. Das Abrechnungsintervall beträgt 15 Minuten. Dabei kannst Du die geleisteten Stunden und die Tickets, mit den jeweiligen Absprachen, jederzeit über unser NWS-Dashboard einsehen. Das sorgt für Kostenübersicht, Transparenz und letztendlich für rundum zufriedene Kunden.  Die MyEngineers bilden somit also den wichtigsten Baustein für unser Rundum-Sorglos-Paket.

Für alle, die sich noch mal ein genaues Bild machen möchten, geht es hier zur MyEngineer-Übersicht: https://nws.netways.de/de/myengineer/

Stefan Schneider
Stefan Schneider
Account Manager

Vor seiner Zeit bei NETWAYS hat Stefan als Projektmanager in einer Nürnberger Agentur dabei geholfen, Werbeprojekte auf die Straße zu bringen. Seit Juni 2017 ist er nun stolzes Mitglied der NETWAYS-Crew. Hier war er zuerst der Ansprechpartner für unserer Schulungen und kümmert sich aktuell um alle Anfragen rund um unser Hostingangebot. Die Freizeit vertreibt sich Stefan am liebsten mit Sport. Vom Joggen über Slacklining bis zum PennyBoard fahren ist er für alles zu haben.

How To NWS: Managed Kubernetes

This entry is part 4 of 6 in the series How To NWS

Nachdem sich im letzten Blog alles um OpenStack gedreht hat,  möchte ich heute die Gelegenheit nutzen, um  unser Managed Kubernetes Angebot vorzustellen.

Was ist Kubernetes überhaupt und wie lässt es sich einsetzen? Um diese Fragen zu beantworten, macht es Sinn zunächst kurz die Entwicklung der Ressourcennutzung auf einem Betriebssystem aufzuzeigen.

Entwicklung der Ressourcennutzung:

Früher gab es keine Möglichkeit auf einem physischen Server Ressourcengrenzen für eine Anwendung zu setzen. Beanspruchte eine App viele Ressourcen, blieb für die anderen entsprechend wenig zur Verfügung. Dieses Problem wurde durch die Virtualisierung gelöst. Nun konnte die CPU von einem physikalischen Server auf mehrere Virtuelle Maschinen aufgeteilt werden. Jede VM bekommt hierbei feste Ressourcengrenzen zugeteilt und somit können mehrere Apps nebeneinander auf einem Server laufen, ohne sich gegenseitig die notwendigen Ressourcen streitig zu machen. Durch die Virtualisierung war nun auch die Möglichkeit der Skalierbarkeit gegeben. Bei Bedarf lassen sich die Ressourcen einer VM leicht erhöhen und später genauso wieder herunterdrehen.  So lässt sich ein physischer Server wesentlich kosteneffizienter betreiben.

Jede VM bringt allerdings immer ihr eigenes, installiertes Betriebssystem mit. Abhängig von der Zahl der eingesetzten VMs auf einem Server werden so entsprechend viele Ressourcen mit dem Betriebssystemunterbau belegt. Mit der Containervirtualisierung konnte man diesen Umstand umgehen. In Containern werden zwar auch Anwendungen virtualisiert. Aber im Unterschied zu VMs besitzen Container kein eigenes Betriebssystem, sondern nutzen das des Hostsystems. Sie brauchen somit weniger Arbeitsspeicher, CPU- Leistung und Speicherplatz – sind also deutlich leichtgewichtiger. In einem Container wird die Anwendung mit all ihren Bibliotheken und Einstellungen in einem Installationspaket zusammengefasst und kann so leicht installiert und isoliert von anderen Anwendungen auf dem gleichen System betreiben werden. Diese Eigenschaft passt perfekt zu Anwendungen, die im Microservice-Architekturansatz entwickelt werden. Dabei wird die Anwendung in kleinere Einheiten (Microservices) aufgeteilt, die jeweils einen Teilaspekt der Anwendung bereitstellen. In einem Container verpackt, lässt sich ein fehlerhafter Microservice viel unkomplizierter austauschen, als bei einer Anwendung mit monolithischem Aufbau.

Kubernetes:

An dieser Stelle kommt nun Kubernetes ins Spiel. Denn irgendjemand muss bei den ganzen Microservices ja den Überblick und das Steuer in der Hand behalten. Das Kubernetes Projekt wurde 2014 von Google als OpenSource-Projekt veröffentlicht. Der Name kommt aus dem Griechischen und bedeutet so viel wie Steuermann/ Pilot.  In Kurzform wird es auch oft als „k8s“ bezeichnet.

Unser Managed Kubernetes Service kommt also typischerweise beim Hosting von Anwendungen zum Einsatz, die im Microservice-Architekturansatz entwickelt werden. Hier realisiert Kubernetes die Automatisierung der Bereitstellung, Skalierung und Verwaltung der containerisierten Anwendungen. Es orchestriert die Cluster virtueller Maschinen und plant wann Container auf diesen ausgeführt werden sollen. Kubernetes verteilt die Services automatisch so intelligent über dem gesamten Cluster, dass die vorhandenen Ressourcen optimal ausgenutzt werden. Es koordiniert also die Computer-, Netzwerk- und Speicherinfrastruktur im Namen der Benutzer-Workloads.

Für ein neues Kubernetes-Projekt musst du anfangs festlegen, ob Dein Cluster hochverfügbar sein soll und wie viele Knoten Du benötigst. Mittels kubectl gibst Du dann an, welche Container wie oft und auf wie vielen Worker Nodes gestartet werden sollen. Du definierst also lediglich das Ziel und der Rest geht automatisch. Die Controlplane startet selbstständig innerhalb von kürzester Zeit alle Container auf den entsprechenden Worker Nodes samt den dafür notwendigen Loadbalancern. In der Folge überwacht die Control Plane ständig, ob Ist- und Soll-Zustand auf den Nodes übereinstimmen. Fällt einer aus, wird automatisch ein neuer Worker Node mit dem entsprechendem Pod, in dem der Container liegt, hochgefahren. Genauso verhält es sich auch bei geupdateten Containern. Werden bei  der gehosteten Anwendung Bugs behoben oder neue Features hinzugefügt, wird diese in einem neuen Container bereitgestellt. Das erkennt Kubernetes und testet den neuen Container auf seine Funktionalität. Ist diese gegeben, werden automatisch alle alten Container durch die neuen ausgetauscht. So können Entwickler Kubernetes komplett in ihre Entwicklungs-, CI und Deployment-Umgebung integrieren und sich eine Menge manueller Handgriffe sparen. Weiterhin kann mittels Autoscaling sichergestellt werden, dass beim Erreichen einer bestimmten Lastgrenze weitere zusätzliche Instanzen hinzu- und nach der Unterschreitung wieder abgeschaltet werden. Kubernetes sorgt also für eine flexible Anpassbarkeit in Echtzeit. Das vereinbart eine stets stabile Performance mit einer möglichst effizienten Kostenstruktur.

Der Managed-Part:

Die größte Herausforderung bei Kubernetes liegt in der Komplexität des eigentlichen Erstellens, Betriebs und Instandhaltens des Kubernetes Clusters. Und hier kommt die gute Nachricht für Dich: diese Aufgaben liegen komplett bei uns. Wir sorgen im Hintergrund permanent für Updates, Backups und eine stabile zugrunde liegende Infrastruktur. Diese besteht auch hier aus unserer OpenStack Umgebung, mittels derer alle notwendigen VMs, Loadbalancer etc. gestartet werden. Unsere Kunden können also sämtliche Annehmlichkeiten von Kubernetes nutzen, ohne sich um den Aufbau des nötigen Fachwissens zum Betrieb eines K8s-Clusters kümmern zu müssen.

Du bist neugierig geworden?

Dann geht es hier zu unserer Kubernetes Seite: https://nws.netways.de/de/kubernetes/

Hier findest du unsere Preisliste: https://nws.netways.de/de/preise/

Und hier findest Du Tutorials und Webinare zu Kubernetes: https://nws.netways.de/de/ressourcen

Stefan Schneider
Stefan Schneider
Account Manager

Vor seiner Zeit bei NETWAYS hat Stefan als Projektmanager in einer Nürnberger Agentur dabei geholfen, Werbeprojekte auf die Straße zu bringen. Seit Juni 2017 ist er nun stolzes Mitglied der NETWAYS-Crew. Hier war er zuerst der Ansprechpartner für unserer Schulungen und kümmert sich aktuell um alle Anfragen rund um unser Hostingangebot. Die Freizeit vertreibt sich Stefan am liebsten mit Sport. Vom Joggen über Slacklining bis zum PennyBoard fahren ist er für alles zu haben.

How To NWS: Infrastructure as a Service mit OpenStack

This entry is part 3 of 6 in the series How To NWS

Im letzten Blog habe ich mit unserer Software as a Service Plattform den ersten Teil unseres Portfolios vorgestellt. Hier kann sich jeder standardisierte Apps schnell und einfach selber anstarten. Manchmal lassen sich die Anforderungen unserer Kunden aber nicht über die Apps abdecken, da beispielsweise per Default deaktivierte Funktionen benötigt werden oder wir schlichtweg den benötigten Dienst nicht in unserem App-Portfolio haben. Wer individuelle Anforderungen an seine IT Umgebung hat, der ist in unserem Infrastructure as a Service Bereich richtig.

Abhängig davon ob virtuelle Maschinen oder Container zu orchestrieren sind, können sich unsere Kunden zwischen OpenStack und Kubernetes entscheiden.

In dem heutigen Blog möchte ich unser OpenStack Angebot vorstellen:

Bei OpenStack handelt es sich um ein OpenSource-Projekt, das von zahlreichen namenhaften Unternehmen (Suse, Linux, HP etc.) unterstützt und ständig weiterentwickelt wird. Ursprünglich ins Leben gerufen wurde es von Rackspace und der NASA. Es setzt sich aus einzelnen Softwareelementen (Nova, Keystone, Glance, Neutron, Cinder, Swift, Horizon) zusammen, mit denen man im Verbund eine Cloud-Plattform erstellt.  Es handelt sich also um ein Cloud-Betriebssystem mit einer Vielzahl an Funktionen. Eine wesentliche Voraussetzung für das Cloud-Computing ist die Virtualisierung, das heißt die Trennung der Stack-Ebenen. Das ermöglicht, dass mehrere Betriebssystem-Instanzen auf der selben Hardwareeinheit betrieben werden können. Auch der Zugang zu Speicher und Netzwerken wird virtualisiert. Im Endeffekt können so sämtliche Bausteine eines Rechners durch Schnittstellen und Konfigurationen referenziert werden. Man erhält eine flexibel änderbare und skalierbare Struktur.

Dadurch, dass OpenStack von Cloud-Computing-Experten aus aller Welt – also großen Konzernen (z.B. Telekom), mittelständischen Unternehmen (wie uns) und kleinen, hippen Startups – genutzt und ständig weiterentwickelt wird, bleibt gewährleistet, dass das Projekt ständig auf der Höhe der Zeit und den Ansprüchen des Marktes gewachsen ist. Ein weiterer, großer Vorteil gegenüber den großen, bekannten Cloud-Anbietern ist der Wegfall des Vendor Lock-in. Es sind ausschließlich standardisierte Schnittstellen im Einsatz. So kannst Du bei Bedarf Deine Unternehmensdaten unkompliziert migrieren, was einen Anbieterwechsel jederzeit möglich macht.

Mit unserem OpenStack kannst du Server und Netzwerke schnell und einfach starten. Virtuelle Maschinen, Speicher und Netzwerke lassen sich mühelos einrichten und vor allem auch jederzeit dynamisch an sich verändernde Anforderungen anpassen. Dabei kann bei den Virtuellen Maschinen aus einem Pool von vorgefertigten Images für alle gängigen Betriebssysteme mit unterschiedlichen Sizing-Varianten gewählt werden. Diese lassen sich ganz einfach per Knopfdruck starten. Sollte das gewünschte Sizing nicht dabei sein, kann man sich die Ausstattung der VM selbstverständlich auch individuell nach seinen Vorstellungen anlegen. In Puncto Sicherheit kann man mit Methoden wie Firewalls, Verschlüsselung und Dienstrichtlinien festlegen, wer wie auf welchen Server zugreifen kann und beim Thema Backup kann man frei entscheiden, ob Snaphots oder Images in welcher, freiwählbaren Rotation gesichert werden sollen. Alle Daten liegen 3-fach redundant gesichert auf unseren Ceph-Cluster, der sich über unsere beiden DIN ISO 27001 zertifizierten Rechenzentren verteilt.

So lässt sich das OpenStack Projekt bequem und übersichtlich über unser Dashboard zusammenstellen und einrichten. Der Punkt der Übersichtlichkeit führt mich auch gleich zu einem weiteren wichtigen Vorteil unseres OpenStack Angebots: Bezüglich der Kosten können wir ein maximales Maß an Transparenz bereitstellen. Es gibt keine undurchsichtigen Pauschalen und Gesamtpakete. Alle verwendeten Ressourcen werden stundengenau abgerechnet. Über unseren Cost Explorer siehst Du die für den Monat bereits entstanden Kosten und bekommst anhand der aktuell genutzten Ressourcen auch gleich eine Hochrechnung über die voraussichtliche Summe am Monatsende. Man hat die Kosten also zu jeder Zeit im Blick und  kann im Bedarfsfall sofort reagieren. Das liegt auch daran, dass es keinerlei Vertragslaufzeiten gibt. Wird eine VM nicht mehr benötigt, kann man diese umgehend runterfahren. Am Monatsende zahlst Du dann nur den Betrag, der bis zu der Abschaltung entstanden ist. Das gibt Dir absolute Flexibilität in beide Richtungen – Du kannst schnell wachsen und, wenn nötig, Dein Setup auch direkt verkleinern.

Und natürlich haben wir auch hier technische Unterstützung im Angebot. All diejenigen, die ihre Zeit nicht mit der Einrichtung und Wartung ihrer IT-Infrastruktur verbringen wollen, können unseren MyEngineer-Service dazu buchen. Auf diesen werde ich aber erst in dem übernächsten Blogartikel genauer eingehen.

Hier geht es zu unserer OpenStack Seite: https://nws.netways.de/de/cloud/

Hier findest du unsere Preisliste: https://nws.netways.de/de/preise/

Und hier findest Du Tutorials und Webinare zu OpenStack: https://nws.netways.de/de/ressourcen/

Stefan Schneider
Stefan Schneider
Account Manager

Vor seiner Zeit bei NETWAYS hat Stefan als Projektmanager in einer Nürnberger Agentur dabei geholfen, Werbeprojekte auf die Straße zu bringen. Seit Juni 2017 ist er nun stolzes Mitglied der NETWAYS-Crew. Hier war er zuerst der Ansprechpartner für unserer Schulungen und kümmert sich aktuell um alle Anfragen rund um unser Hostingangebot. Die Freizeit vertreibt sich Stefan am liebsten mit Sport. Vom Joggen über Slacklining bis zum PennyBoard fahren ist er für alles zu haben.

Veranstaltungen

Sep 21

Icinga 2 Fundamentals Training | Nürnberg

September 21 @ 09:00 - September 24 @ 17:00
NETWAYS Headquarter | Nürnberg
Sep 21

Ansible Advanced Training | Online

September 21 @ 09:00 - September 22 @ 17:00
Sep 28

GitLab Fundamentals Training | Online

September 28 @ 09:00 - September 29 @ 17:00
Sep 28

Kubernetes Quick Start | Nürnberg

September 28 @ 09:00 - 17:00
NETWAYS Headquarter | Nürnberg
Okt 05

Linux Basics Training | Nürnberg

Oktober 5 @ 09:00 - Oktober 7 @ 17:00
NETWAYS Headquarter | Nürnberg