Ressourcen wollen wirtschaftlich genutzt werden – einer der Gründe, die für “Green-IT” sprechen, soll dabei doch die Infrastruktur für die Information- und Kommunikationstechnik über den gesamten Lebenszyklus hinweg umwelt- und ressourcenschonend betrieben werden. Je voluminöser die betriebene Infrastruktur ist, desto weniger umwelt- und ressourcenschonend wird deren Betrieb, wenn die Auslastung nicht optimal ist, wenn ein teilweiser Leerlauf die Effizienz schwinden lässt. Aus diesem Grund ist es für die großen Infrastrukturbetreiber, wie beispielsweise Google und Amazon, um nur einige zu nennen, überaus bedeutsam, die jeweils vorhandene Infrastruktur optimal auszulasten. Eine Möglichkeit dieses Ziel zu erreichen besteht darin, die vorhandene Infrastruktr dem IT-Mark zugänglich zu machen. Neben der hohen Auslastung der eigenen IT-Infrastruktur sind daneben noch andere Vorteile für den Anbieter verbunden. Für den ehemaligen “Buchhändler” tut sich damit ein neues Geschäftsmodell jenseits des E-Commerce auf: Amazon kann so auch zum ITK-Anbieter werden (ITK = Informations- und Kommunikationstechnologie). Das Vehicel dazu ist AWS, das Amazon Webservices Angebot.

Amazon wird mit seinem Angebot einer sich ändernden Business- und IT-Welt gerecht. Die Business-Welt wird globaler, vernetzter und grüner. Und die IT-Welt driftet mit zunehmender Geschwindigkeit in Richtung verteilte IT-Architekturen. Dies ist einer der Mega-Trends, die die Entwicklungen in den nächsten Jahren bestimmen werden. Angefangen hat alles mit monolithischen Software-Architekturen, später kamen Client-Server-Architekturen, heute Web-Services und serviceorientierte Architekturen (SOA). Soweit zur Softwareseite. Auf der Infrastrukturseite lief die Historie über Mainframes, Single-Server, Serverfarm, Cluster-Computing über Grid-Computing hin zu Cloud-Computing.

Web-Services und Cloud-Comoputing setzten auf lose gekoppelte Anwendungen, die dann in ihrer Gesamtheit die vom Anwender gewünschte Leistung erbringen.

Mussten bis vor einiger Zeit alle Komponenten einer solchen Web-Service- und Cloud-basierten Lösung im Wesentlichen noch aus einer Hand, von einem “Vendor”, stammen, so beginnt sich der Markt dergestalt zu drehen, dass komplexe Subsysteme einer Gesamtlösung betriebsfertig hinzugekauft werden können. Interessant dabei ist, dass die für den Betrieb notwendige Infrastruktur gleich mit dazu gekauft werden kann und zwar genau in dem Umfang, wie vom Nutzer gewünscht, was Kapazität und Performance berifft. Möglich macht dies das Internet und die darauf basierende Idee des Cloud Computing. Cloud-Comuting basiert auf der Idee, auf Basis eines Clusters Rechen- und Speicherkapazität transparent für den Benutzer anzubieten. Transparent bedeutet in diesem Zusammenhang, dass der Ort der Leistungserbringung für den Anwender nicht sichtbar ist. Mehr dazu siehe More about Clouds. Das Cluster selbst verstehen wir als eine Sammlung von vernetzten Computern, die sich dem Anwender als (logisch) eine Computerressource darstellt. Gartner, der Erfinder des Cloud-Computings, liefert folgende Definition: “Cloud Computing is a style of computing where scalable and elastic IT-enabled capabilities are delivered as a service to external customers using Internet technology.

Wenn diese Rechen- und Speicherkapazität in der Cloud flexibel an die Bedürfnisse des Kunden anpassbar sind, haben wir in etwa das Angebot von Amazon’s AWS (= Amazon Web Services).

Die Amazon Web Services bestehen aus mehreren Komponenten, die im Folgenden kurz beschrieben sind.

Amazon Elastic Compute Cloud (Amazon EC2)

Amazon EC2 bietet einen flexiblen (“elastischen”) Compute Service für Web-Applikationen. Im Klartext bedeutet dies, dass die Applikationen zusammen mit den Amazon-Applikationen auf ein- und derselben Hardware-Infrastruktur laufen. Möglich macht dies u.a. die Virtualisierung, mit Hilfe derer letztlich die Applikationen gekapselt werden.

Für die Nutzung von EC2 steht den Applikationsentwicklern ein Web-Service-Interface (API) zur Verfügung, über das der Service bezogen und auch konfiguriert werden kann. Die Konfigurationsmöglichkeit spielt bei EC2 eine zentrale Rolle, die das Modell für potenzielle Nuter interessant macht. Erstens, kann der EC2-Nutzer das anvisierte Performanceniveau selbst regenl und zweitens, werden damit letztlich nur die Kapazitäten bezahlt, die auch tatsächlich genutzt werden. Neben der reinen Zurverfügungstellung von Leistung bietet EC2 auch die entsprechenden Werkzeuge, um ausfallsichere Applikationen auf die Cloud abzubilden.

Amazon Simple Storage Service (Amazon S3)

Amazon S3 ist der Internetspeicher (Speicherservice) für EC2. Wiederum über eine Web-Service-API lassen sich beliebige Datenmengen jederzeit im Netz speichern und wieder abrufen. Wie beim Compute Service EC2 bietet Amazon hier die gleiche Datenbankinfrastruktur, wie sie für die eigenen Applikationen genutzt werden. Die Speicherknoten liegen wie die Computeknoten in der Cloud, ohne dass der Nutzer den Ablageort seiner Daten kennt. Für den Benutzer sind eher die Eigenschaften “Skalierbarkeit”, “Zuverlässigkeit”, “Performance” und “Kosteneffizienz” bedeutsam.

Amazon Virtual Private Cloud (Amazon VPC)

Die Amazon VPC siedelt der Anbieter als Bindeglied zwischen der eigenen Unternehmens-IT-Infrastruktur und der AWS Cloud an. Mit Hilfe von Amazon VPC kann die eigene IT-Infrastruktur an ein Set von isolierten AWS-Computeressourcen via VPN (virtual private network) angeschlossen werden. Damit können die Cloud-seitigen AWS-Ressourcen in das unternehmenseitige Sicherheitskonzept eingebunden werden. Beispielsweise Security Services, Firewalls und Intrusion Detection Systeme umfassen damit auch externe Welt von AWS. Aktuell lässt sich Amazon VPC ausschließlich mit Amazon EC2 integrieren. Die Integration weiterer Services ist für die Zukunft geplant.

Amazon CloudFront

Speziell für die Content-Bereitstellung (Web-Content) ist Amazon CloudFront gedacht. Amazon CloudFront lässt sich mit anderen AWS-Komponenten integrieren, damit Firmen, bzw. Entwickler ihre Webinhalte im Internet so platziert bekommen, dass die Inhalte mit hoher Transferrate und geringstmöglicher zeitlicher Verzögerung beim Endnutzer ankommen. CloudFront nutzt hierfür die zu diesem Zweck von Amazon genutzten Edge Locations. Das sind spezielle Serviceknoten in der Cloud, die die Aufgabe haben, die global verteilten Amazonkunden regionspezifisch mit optimaler Performance zu versorgen. CloudFront arbeitet zu diesem Zweck speziell mit dem Amazon Simple Storage Service (kurz Amazon S3) zusammen, der für die Archivierung der Originalinhalte zuständig ist. Amazon CloudFront übernimmt also die Rolle des regionalen Puffers für die auszuliefernden Daten. Im Amazon S3 sind Dateien abgelegt, während relationale Daten im Amazon RDS untergebracht werden können.

Soweit die Einführung und die ersten Services. Die zweite Hälfte des Amazon-Angebots enthält folgende Services:

  • Amazon Relational Database Service (Amazon RDS)
  • Amazon SimpleDB
  • Amazon Simple Queue Service (Amazon SQS
  • Amazon Elastic MapReduce
Der nächste Blogbeitrag hierzu erscheint Anfang Mai.

Ihr

Prof. J. Anton Illik

PS: Ihr Kommentar zum Thema ist willkommen.

[Valid RSS]

Enterprise meets Future bookmark bookmark bookmark bookmark bookmark bookmark bookmark