Posts mit dem Label Cloud werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Cloud werden angezeigt. Alle Posts anzeigen

Mittwoch, 20. April 2016

Cloud based Collaboration - Efficiency Class

Google G Suite (formerly known as Google Apps for Work)  is designed as an all-in-one solution with integrated tools that work seamlessly together. For instance, you can receive a message in Gmail and instantly convert it into a Calendar event. When you make a comment in Docs, Sheets or Slides, collaborators automatically receive email alerts. With a single click, you can launch a Hangouts video meeting from your inbox or calendar. Using these tools as a complete package improves productivity while giving your business the most value. However, you are welcome to purchase the suite and only use the services of your choice.

End of January 2017 Google announced more than 3 million paying businesses have chosen G Suite to advance communication, collaboration and productivity across work teams.

 Data protection is more than just security. Google’s strong contractual commitments make sure our customers maintain control over the data and how it is processed, including the assurance that your data is not used for advertising or any other purpose than to deliver G Suite services. For these reasons and more 64 percent of the Fortune 500, trust Google with their most valuable asset: their
information.

Google commissioned Forrester Consulting to conduct a Total Economic Impact (TEI) study examining the value that Google customers achieve by implementing G Suite. Forrester measured the total economic impact over three years for organizations moving from legacy on-premise infrastructure to Google’s web-based solution. “304% return on investment (ROI)” is one of the highlights from the report.

G Suite offers a 99.9% Service Level Agreement (SLA) for covered services, and in recent years we’ve exceeded this promise. In 2013, Gmail achieved 99.978% availability. Furthermore, G Suite has no scheduled downtime or maintenance windows.

Unlike most providers, Google does not plan for their applications to be unavailable, even when we're upgrading our services or maintaining our systems. To minimize service interruption due to hardware failures, natural disasters or other incidents, Google has built a highly redundant infrastructure of data centers. G Suite has an RPO (Recovery Point Objective) target of zero, and our RTO (Recovery Time Objective) target is instant failover (or zero).​

Many organizations are in the dark about the security of their data, especially with the rise of shadow IT and numerous recent breaches. It’s no wonder IT execs are concerned about how their data is protected and who has access to their confidential information. Eran Feigenbaum, Director of Security, Google posted on February 10, 2015 five 5 reasons why CIOs can feel secure with their information in Google’s Cloud.
  1.  Secure physical infrastructure
  2. Control over the entire technology stack
  3. Investment in active security research beyond Google
  4. Locations chosen for speed and reliability
  5. There's no downtime

Sonntag, 21. Februar 2016

Das Cloud Paradoxon der öffentlichen Hand

Aktuelle Zahlen der Crisp Research AG bestätigen, dass sich über 85 Prozent der deutschen mittelständischen Unternehmen bereits intensiv mit der Cloud auseinander setzen und sich in der Planung, Implementierung oder im produktiven Betrieb befinden. Zu Beginn waren es die Vorteile für das IT-Budget, mittlerweile erkennen die Unternehmen auch die Mehrwerte beim Datenschutz und der Datensicherheit. Insbesondere bei den Mail & Collaboration Diensten aus der Public Cloud. Diese weitgehend standardisierten IT-Systeme können viel günstiger, zuverlässiger und sicherer aus der Public Cloud direkt vom Hersteller, Google, IBM, Microsoft und anderen bezogen werden. Angekommen ist diese Erkenntnis aber nicht bei der öffentlichen Hand.

Betrachten wir den aggressiven Erpressungs-Trojaner, der sich aktuell weiter rasant vor allem auf Computern in Deutschland verbreitet. Der Sicherheitsexperte Kevin Beaumont zählt derzeit 5.300 Neuinfektionen mit dem Windows-Trojaner "Locky" durch gefälschte E-Mails pro Stunde. Die VirusTotal-Analyse eines Locky-Samples vom 16.02. zeigte, dass derzeit offenbar nur wenige Virenscanner anschlugen. Nur 3 der 54 AV-Engines, so Heise Security, stuften die Datei als Malware ein. Gmail User wurden bereits am Morgen des 16.02. vor Locky geschützt.

Meldung eines Gmail User vom 16.02.
Google nutzt mehrere Virenscanner-Engines in Gmail und Google Drive, um Malware zu identifizieren, die von Virenscanner-Signaturen möglicherweise übersehen wurden. Neben der Safe Browsing-Lösung betreibt Google auch VirusTotal, einen kostenlosen Onlinedienst, der Dateien und URLs analysiert und dabei mithilfe von Antivirus-Engines und Website-Scannern Viren, Würmer, Trojaner und andere schädliche Inhalte identifiziert. Die Mission von VirusTotal besteht darin, durch die Entwicklung kostenloser Tools und Dienste die Virenscanner- und Sicherheitsbranche zu stärken und das Internet insgesamt sicherer zu machen.

Leider hatte das Neusser Lukaskrankenhaus, einer der Locky-Opfer, eine andere Lösung im Einsatz. Das Krankenhaus ist derzeit immer noch nur eingeschränkt funktionsfähig, weil viele Systeme heruntergefahren wurden.
Neusser Lukaskrankenhauses (Stand: 22.02. um 13:35 Uhr)
Das Neusser Krankenhaus ist nicht das erste Opfer und wird vermutlich auch nicht das letzte Oper von mutmaßlich verseuchten Mails sein. Von der Städteregion Aachen bis zur „Merkel-Mail“, die mindestens in Teilen eine Neuaufsetzung des IT-Systems des Deutschen Bundestages erforderte, hatte die IT-Infrastruktur der öffentlichen Hand keinen ausreichenden Schutz geboten.

So stellt sich die Frage: Woher kommt die Cloud-Aversion der öffentlichen Hand?

Sonntag, 8. September 2013

Die Maschinenstürmer der IT

Noch im vergangenen Jahr variierte der Begriff des „Cloud Computing“ je nach Interessenlage des Analysten, Anbieters oder Verbandes. Gegenwärtig hat sich weitestgehend die Erkenntnis durchgesetzt, dass Hosting, Managed Service Providing (MSP) oder Application Service Providing (ASP) nur sehr wenig mit einer Cloud Infrastruktur gemein haben – weder mit einer Public, noch einer Private Cloud. Grundsätzlich wird ein System wird nicht alleine dadurch mandantenfähig, dass man jedem Mandanten, wie beim Hosting, MSP oder APS, eine eigene Instanz (Kopie) des Systems zuordnet. Berater und Kunden haben verstanden, dass die niedrigeren Kosten bei der Nutzung einer Anwendung aus der Public Cloud ein Resultat der (multi-)mandantenfähigen Architektur im Datacenter des Cloud Service Providers (CSP) sind. Unterschiedliche Kunden bzw. Mandanten nutzen eine Infrastruktur, ohne dass diese gegenseitig Einblick in ihre Daten, Benutzerverwaltung und Ähnliches haben. Für Cloud Service Provider (CSP) ist dieser Umstand Fluch und Segen zugleich. Wenn eine gemeinsam genutzte Infrastruktur versagt, können davon eine Vielzahl von Kunden betroffen sein. Daher müssen professionelle CSPs sehr große Investitionen aufbringen, um über mehrfach redundante System den Service ausfallsicher anbieten zu können. Das wiederum kann nur dann wirtschaftlich betrieben und genutzt werden, wenn der CSP in der Lage ist, eine sehr große Zahl von Kunden in seiner Datacenter Landschaft zu gewinnen. Dabei sind die Anfangsinvestitionen für den CSP enorm. Wir sprechen von Beträgen, die häufig nur von internationalen Anbietern wie Google, Microsoft oder IBM aufgebracht werden können.

Die Industrialisierung der IT

Mit dem Cloud Computing entstehen also Skaleneffekte, durch die der Kunde in Form von geringen Kosten und einer höheren Datensicherheit profitiert. Aber wie stellt sich der Effizienzgewinn im Vergleich zu Infrstructure-as-a-Service (IaaS), Platform-as-a-Service (Paas) und Software-as-a-Service (SaaS) dar? Beim Einsatz von IaaS werden nur rudimentäre IT-Ressourcen, wie Rechenleistung, Storage oder Netzwerkkapazitäten zur Verfügung gestellt. Bei PaaS übernimmt der CSP schon mehr Verantwortung. Typische PaaS-Lösungen, wie die Google App Engine oder Microsoft Azure bieten skalierbare Plattformen, um cloudbasierte Anwendungen zu entwickeln und auszuführen. SaaS repräsentiert schließlich die oberste Schicht im Cloud-Modell. Der Provider trägt die Verantwortung von der technischen Infrastruktur bis in die Applikation. Demzufolge entstehen geringere Kosten durch die höhere Standardisierung beim Provider. Für den Nutzer entfallen hingegen Investitionen in kostspielige Hard- und Software und die damit verbundenen Kosten für Updates und Systempflege. Die Frage ist folglich, ob sich die insgesamt effizienteste Cloud-Lösung Saas für alle Anwendungen eignet. Bei der genaueren Betrachtung wird schnell klar, dass sich besonders standardisierte IT-Lösungen, wie Mail & Collaboration oder CRM, für die Nutzung im Saas-Modell eignen. Diese können viel günstiger und zuverlässiger aus der Public Cloud als industrialisierte IT-Services von leistungsstarken Anbietern bezogen werden. Die führenden CSPs verfügen über spezialisierte Teams, die den sicheren und störungsfreien Betrieb des Cloud-Services garantieren.

© Torbz - Fotolia.com
Kleine und mittelständische Unternehmen profitieren von den Großen 

Technischen und organisatorische Datenschutzmaßnahmen der Public Cloud Service Provider müssen sich am Standard orientieren, den auch große Konzerne beim Eigenbetrieb anlegen. Von diesem Sicherheitsstandard profitieren dann auch kleine und mittelständische Unternehmen, die sich mit ihren Daten im gleichen Rechenzentrum befinden wie die Großunternehmen. Durch die bedarfsgerechte Abrechnung bezahlen Mittelständler in dem gleichen Umfang (pro User) wie auch ein Konzern. Für alle Unternehmen werden die Dienste 365 Tage im Jahr rund um die Uhr überwacht und genügen den höchsten Anforderungen an die Betriebssicherheit. Die Gründe für die Notwendigkeit der permanenten Überwachung finden sich unter anderem im Bericht „Die Lage der IT-Sicherheit in Deutschland 2011“, der vom Bundesamt für Sicherheit in der Informationstechnik (BSI) im Mai 2011 veröffentlicht wurde. Darin heißt es, dass sich beispielsweise ein Botnetz mit 10.000 Bot-PCs für rund 200 US-Dollar pro Tag mieten ließe. Betreiber illegaler Botnetze installieren die Bots ohne Wissen der Inhaber auf Computern und nutzen sie für ihre Zwecke. Da Botnetze auch aus mehreren Millionen PCs bestehen können, lässt sich das monetäre Potenzial hinter solchen Internetangriffen nur erahnen. In der aktuellen Prism Diskussion bleibt dieser Aspekt leider allzu oft unberücksichtigt. Zentrale Dienste in der Cloud sind auf Grund der beschriebenen Skalierungseffekte deutlich sicherer und effizienter als der Inhouse-Betrieb oder das Hosting von Single-Tenant-Serverlösungen. Qualifizierte Sicherheitsteams und der Einsatz neuester Technologien gewährleisten maximale Zugangs- und Übertragungssicherheit sowie permanente Verfügbarkeit (i.d.R 99,9%) an allen Standorten. Schon seit 2007 kann Google Apps als Software-as-a-Service (SaaS) von Google bezogen werden. Google ist einer der Pioniere auf dem Gebiet der webbasierten Unternehmensanwendungen. Auch Konzerne, wie der Basler Pharmariese Roche, wechselten bereits mit 90.000 Mitarbeitern zu Google Apps for Business. Die Verantwortung für die Informations-, Standort und Betriebssicherheit übernimmt Google im gleichen Maß, wie für Unternehmen mit nur wenigen Mitarbeitern.

Die Maschinenstürmer der IT

Anhand dieser Aspekte wird deutlich, dass die Minimierung der Kosten für den Kunden bei gleichzeitiger Maximierung der Aufwendungen für die Datensicherheit eine hinreichende Größe des Anbieters voraussetzt.Hieraus begründet sich auch, weshalb vorrangig die großen, internationalen Anbieter wie Google, Microsoft oder IBM Cloud-Leistungen anbieten. Man mag es bedauern, dass wir keinen Anbieter aus Deutschland oder in Europa im Markt haben, der ähnliche Voraussetzungen für einen professionellen Cloud Dienst mitbringt. Umso verständlicher wird die Werbe- oder Kommunikationsstrategie der hiesigen Hoster und Systemhäuser, die Furcht, Ungewissheit und Zweifel befeuert haben. Systemhäuser leben von dem Verkauf, der Implementierung und der Integration von Hard- und Software. Mit dem Umstieg auf die Cloud fallen für Systemhäuser somit wesentliche Umsatzträger aus. Das ist gut für den Kunden, da die Skaleneffekte in der Cloud einen günstigeren Betrieb und eine wirtschaftlichere Implementierung ermöglichen. Andererseits hat das negative Auswirkungen auf den Umsatz des Systemhauses. Google, IBM, Microsoft und auch andere Anbieter gewährleisten eine sichere Bereitstellung dieser Cloud Services. Selbstverständlich entsteht beim Übergang von IT-Diensten in die Public Cloud auch Beratungs- und Migrationsbedarf. Der Aufwand ist aber nur einmalig und deutlich geringer als das, was die Systemhäuser Ihren Kunden üblicherweise verkaufen. Es drängt sich der Eindruck auf, dass gerade angestammte Systemhäuser und lokale Hoster deshalb gezielt Ängste und Bedenken gegen die Public Cloud schüren. Bei einer objektiven Analyse der Kosten, des Servicelevels in Verbindung mit einer qualifizierten Beratung kommen unsere Kunden daher oftmals zu der Entscheidung, einen Teil der IT auszulagern.

PRISM, der neue Hebel der Maschinenstürmer

Prism hat die Diskussion um die großen Anbieter, die in der Regel in den USA beheimatet sind, wieder angefacht. Plakative Schlagzeilen wie „Nur deutsche Cloud-Lösungen helfen deutschen Firmen gegen US-Industriespionage“ wurden von der Presse dankbar übernommen. Aber ist es so einfach wie es auf den ersten Blick scheint? Heise Security veröffentlichte am selben Tag, an dem die Enthüllungen Edward Snowdens bekannt wurden, einen brisanten Bericht. Der Webhoster Hetzner war Opfer eines Hackerangriffs geworden, bei dem Unbekannte auch Zugriff auf Kundendaten - inklusive Passwort-Hashes und Zahlungsinformationen - gehabt haben sollen. Wenige Wochen später wurde ebenfalls von Heise Online veröffentlicht, dass sich unbekannte Hacker Zugriff auf die internen Systeme des Hosters OVH verschafft hätten. An diesen Beispielen werden zwei wesentlich Punkte deutlich: Es muss ein massiver Aufwand betrieben werden, um IT-Systeme vor Cyberattacken zu schützen. Selbst für mittelständische Hoster ist dies eine kaum lösbare Aufgabe. Und zweites stellt sich die Frage der Verhältnismäßigkeit. Gegen welche Bedrohungen müssen sich Unternehmen also schützen? Einen interessanten Aspekt wirft Mirko Novakovic in seinem Blog auf. Gemäß der Tageszeitung “Die Welt” werden weltweit 145 Milliarden E-Mails pro Tag versendet. Wenn 4.000 Mitarbeiter der NSA rund 76.800 E-Mails täglich auswerten könnten, so rechnet Novakovic, ist die Wahrscheinlichkeit, einen 5er im Lotto zu erzielen, in etwa so hoch , wie die Chance, dass meine E-Mail von der NSA gelesen wird. Eine Wahrscheinlichkeit von 0,0000429%. Dem gegenüber beschreibt der 2013 vorgestellte Verfassungsschutzbericht NRW über das Jahr 2012, dass 50% der Firmen in NRW ausspioniert werden. Die Wirtschaftsspione haben in den letzten Jahren technisch massiv aufgerüstet. Bevorzugtes Ziel sind neben den großen Dax-Konzernen mittelständische Unternehmen, die häufig über ein weltweit einzigartiges Fachwissen verfügen. Den jährlichen Schaden beziffern Sicherheitsexperten bundesweit auf einen zweistelligen Milliardenbetrag. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) schätzt, dass allein 2012 bundesweit rund 37 Millionen neue Schadensprogramme eingesetzt wurden. Die jüngst veröffentlichte Umfrage von Ernst & Young kommt dennoch zum Ergebnis, dass 86 Prozent aller Manager für unwahrscheinlich halten, selbst Opfer zum Ziel von digitalen Abhöraktionen, Wirtschaftsspionage oder Datenklau werden könnten. Hauptgrund für diesen Optimismus so die Prüfungs- und Beratungsgesellschaft: Acht von zehn Unternehmen gehen davon aus, dass die eigenen Sicherheitsvorkehrungen ausreichen, um unerwünschten Informationsabfluss zu verhindern. Tatsächlich handelt es sich bei diesen Sicherheitsmaßnahmen aber zumeist um Standardmaßnahmen wie Firewalls (85 Prozent) oder bestimmte Komplexitätsanforderungen für Passwörter (84 Prozent) – für geübte Hacker kein ernsthaftes Hindernis. Wirklich umfassende IT-Sicherheitssysteme hat die Mehrzahl der deutschen Unternehmen gar nicht installiert: Sogenannte Intrusion-Detection- oder -Prevention-Systeme, die Hinweise auf die Aktivitäten von Eindringlingen ins Firmennetzwerk geben können, leisten sich gerade mal 13 respektive 12 Prozent aller Unternehmen.

Sicherheit ist weniger eine Frage des Standortes

Kunden, die sich für eine Verarbeitung von personenbezogenen Daten durch einen Dienstleister entscheiden, müssen sich beim Auftragnehmer von den technischen und organisatorischen Maßnahmen vor der Auftragsvergabe überzeugen. Und zwar bei jedem Dienstleister - unabhängig vom Standort. Für die Prüfung ist es unerheblich, ob sich der Service Provider in Deutschland, irgendwo in Europa oder den USA befindet. Die Prüfung der technischen und organisatorischen Maßnahmen vor Auftragsvergabe muss aber nicht persönlich und nicht vor Ort durchgeführt werden. Legitim ist auch die Anerkennung von Auditsiegeln, die nahelegen, dass den Anforderungen des Bundesdatenschutzgesetz (BDSG) genüge getan ist. Insofern wäre z.B. ein Siegel ISO 9001 nicht im Kontext des Datenschutzes als ausreichend zu erachten, eine Zertifizierung nach ISO 27001 hingegen schon. Folgt man den öffentlichen Meldungen in Deutschland, drängt sich der Eindruck auf, dass Kunden von den Prüfpflichten entbunden sind, wenn sich das Rechenzentrum des Dienstleisters in Deutschland befindet. Oder sogar, dass es ein Qualitätsmerkmal sei, wenn das Datacenter in München, Hamburg oder Berlin steht. Aber ist das so? Das Signé von marketingorientierten Initiativen, wie “Cloud Services Made in Germany”, ersetzt keine Zertifizierung nach ISO 27001. Der rasante Zulauf zu solchen Initiativen lässt sich einfach erklären: Gute Marketingwirkung bei minimalen Einstiegshürden. Dagegen ist es sehr teuer, wenn sich Provider nach ISO 27001 auditieren lassen. Dies können sich nur die großen Anbieter leisten. Microsoft und Google bieten diese Zertifizierungen nach ISO 27001 und SAS 70 Type II für Office 365 bzw. Google Apps for Business an, die regelmäßig von externen Drittanbietern geprüft werden. Aber dürfen Personendaten nach außerhalb der EU übermittelt werden? Gemäß den gesetzlichen Regelungen darf die Übermittlung nur in solche Staaten erfolgen, die als sog. “sichere Drittstaaten” über ein ausreichendes gesetzliches Datenschutzniveau verfügen. Für den Datentransfer bspw. in die USA hat die EU-Kommission im Jahr 2010 die aktualisierten EU-Standardvertragsklauseln veröffentlicht. Werden personenbezogene Daten in den USA verarbeitet, sollte das bei den Parteien des Cloud-Vertrags unter Verwendung der EU-Standardvertragsklauseln erfolgen. Larry Page, Google CEO und David Drummond, Google Chief Legal Officer veröffentlichten bereits einen Tag nach Snowdens Enthüllungen ein offizielles Statement. Darin heißt es, dass sich Google weder an Prism noch irgendeinem anderen staatlichen Überwachungsprogramm angeschlossen habe. In einem Gastbeitrag in der FAZ vom 05. Juli schreibt David Drummond weiter, dass man keiner Regierung, auch nicht der amerikanischen Regierung, Zugriff auf Google Systeme gegeben habe. Es gäbe keine „Hintertür“, „Seitentür“ oder „versteckte Tür“. Die von der NSA bei vielen Unternehmen auch gar nicht benötigt würde, da die Mail Transfer Agents untereinander im "Klartext" kommunizieren. In den meisten Fällen geht die Übermittlung der Datenüber einen oder mehrere Router. Dieser kann im schlimmsten Fall den gesamten Datenverkehr zwischen Client und Server mitprotokollieren und auswerten. Um einen sicheren Mailversand zur gewährleisten, gibt es die Möglichkeit, eine SMTP-Verbindung per TLS-Verschlüsselung aufzubauen. Dies scheint aber einer sehr großen Zahl von Unternehmen und Hostern unbekannt zu sein. Eine einfache Möglichkeit zur Überprüfung des eigenen Mail-Servers bietet das Tool CheckTLS.com . Bei der Einladung zum unbefugten Mitlesen von unternehmensinternen Nachrichten relativiert sich auch hier die Bedrohung durch Prism.

Zusammenfassung

Schlussendlich ist der sichere Betrieb von IT-Lösungen sehr kosten- und wartungsintensiv. Unternehmen sollten prüfen, welche IT-Anwendungen sich in die Cloud auslagern lassen und welche nicht. Weitgehend standardisierte IT-Lösungen, wie Mail & Collaboration oder CRM, können viel günstiger und zuverlässiger aus der Public Cloud bezogen werden. Google, IBM, Microsoft und auch andere Anbieter gewährleisten eine sichere Bereitstellung dieser Cloud Services. Bei der Auswahl des Anbieters müssen sich Kunden von den technischen und organisatorischen Maßnahmen zum angemessen Datenschutz überzeugen. Hier hilft eine offizielle Zertifizierung nach ISO 27001 und SAS 70 Type II. Wer sich hingegen mit bunten Aufklebern auf der sicheren Seite sieht, liegt falsch. Werden Kunden von angestammten Systemhäusern beraten, sollten sie sich eine zweite unabhängige Meinung einholen. Systemhäuser leben von dem Verkauf, der Implementierung und der Integration von Hard- und Software. Daher neigen Systemhäuser dazu, eigene Internet-Dienste bereitzustellen, die dann als Private Cloud verkauft werden, um ihre Kunden nicht an die Public Cloud zu verlieren.

Samstag, 25. Mai 2013

Kurze Prozesse

Smartphones, Notebooks und Tablet-PCs haben sich in den meisten Unternehmen längst etabliert. Home-Office war gestern, morgen wird der Zugriff auf wichtige Unterlagen und Unternehmensdaten von überall mobil stattfinden. Schon heutzutage ist der Großteil der Arbeitnehmer zumindest zeitweise außerhalb des Büros tätig. Gemäß IDC werden weltweit 35 Prozent der arbeitenden Bevölkerung bis zum Jahr 2013 mobil arbeiten und sich dabei einer sehr heterogenen Endgerätelandschaft bedienen. Die Analysten von IDC erwarten, dass im Jahr 2013 die Hersteller  918,6 Millionen Smartphones ausliefern. Das entspricht 50,1 Prozent aller Mobiltelefone. „Bring your own Device“ heißt hier der globale Trend, der die IT-Verantwortlichen in Deutschlands Unternehmen hinsichtlich Sicherheitsfragen jedoch noch spaltet.

Sollen Informationen und Dokumente verteilt an mobilen Geräten genutzt werden, muss das Unternehmen sie zentral bereitstellen. Mail & Collaboration-Dienste in Form von Software-as-a-Service (SaaS) bieten sich hier an. Sie erlauben den standortunabhängigen Zugriff und eröffnen einen weiteren, wesentlichen Vorteil: Denn mit der Ausweitung der Kommunikationsformen wachsen sowohl die technischen Herausforderungen beim Betrieb einer Mail-Infrastruktur wie die Datenvolumen der Dateianhänge. Weil die Komplexität von Mail & Collaboration-Anwendungen steigt, andererseits die Anforderungen an solche Lösungen bei den meisten Unternehmen identisch sind, ist eine Bereitstellung von Dokumenten und Workflows in der Cloud das probate Mittel.

Arbeitszeit und Projektverlauf lückenlos dokumentieren


Für die Nutzung von Dokumenten und den Workflow in der Cloud gibt es praktische Beispiele, etwa aus der Baubranche, hier realisiert mit Google Apps: Jeder Monteur hat heute ein Mobiltelefon oder Smartphone in der Tasche, das er für die mobile Arbeitszeiterfassung per Cloud verwenden kann. Das Bauunternehmen spart damit an Kosten, denn Zeiterfassungsterminals auf weit entfernten Baustellen einrichten und mit der ERP-Lösung im heimischen Rechenzentrum zu verbinden, ist mit hohem technischem Aufwand verbunden. Der Ausweg: Der Bauarbeiter registriert seinen Arbeitsbeginn mit dem Handy, die Daten werden per GPS-Ortung automatisch an die Google Docs-Lösung in der Cloud übertragen, in der eine Tabellenkalkulation für die Arbeitszeiterfassung erstellt wurde. Auf diese Weise hat das Unternehmen jederzeit einen Überblick über den Einsatzstatus seiner Mitarbeiter. Per Videokonferenz mittels Google Hangout kann sich der Monteur vor Ort auch in Echtzeit auch mit der Zentrale oder dem externen Architekturbüro abstimmen.

Google Hanout in der Bauindustrie
Muss der Bauleiter dem Projektverantwortlichen in der Zentrale schnell einen Eindruck der Lage vor Ort übermitteln, so lädt er mit Handy erstellte Foto- und Filmaufnahmen auf Google Drive hoch, das Cloud-basierte File-Sharing-System des Unternehmens. Der Projektverlauf wird lückenlos und nachvollziehbar dokumentiert. Über einen Videoanruf kann sich der Projektleiter in der Zentrale einen direkten Eindruck verschaffen. Für das Hochladen, Abrufen und Bearbeiten von Bauplänen, Anträgen, Genehmigungen und Ausschreibungen stellt Google Sites, das Informationsportal für Teams im Intranet, Extranet und Internet, eine geeignete Plattform dar. Über sie können sich Projektbeteiligte an beliebigen Standorten permanent miteinander austauschen. Nebst Dokumenten-Sharing sind Cloud-basierte Workflows möglich, zum Beispiel für das Stellen von Urlaubsanträgen. Statt umständlich ein Formular auszufüllen und in den Postweg zu geben, leitet der Arbeiter seinen Urlaubsantrag elektronisch an den Vorgesetzten. Die Freigabe des Antrags erfolgt per Knopfdruck.

Sortimentsänderungen, Preisänderungen, Rabattaktionen flächendeckend kommunizieren


 Bei Franchise-Ketten mit ihren verteilten Umgebungen ist es mit konventionellen IT-Services aufwändig und teuer, alle Beschäftigten eng und zeitnah in die Unternehmenskommunikation einzubinden. Die Lösung liegt in der Wolke: Über Cloud-basierte Mail- & Collaboration-Systeme können Franchise-Unternehmen wichtige Informationen innerhalb kürzester Zeit flächendeckend kommunizieren und abstimmen.

Dokumente über Sortimentsänderungen, Neuerungen zur Produktsicherheit und zum Verbraucherschutz legt die Zentrale in Google Drive ab. Über Google Mail erhalten alle zu adressierenden Personen eine Nachricht mit Link auf die neuen Inhalte, die sie über ihr Smartphone einsehen können. Über die Collaboration-Plattform von Google können Franchise-Unternehmen Videos mit Schulungsinhalten für ihre Franchise-Nehmer oder Teamankündigungen bereitstellen – ohne Investition in eine eigene technische Infrastruktur zur Videoübertragung oder gar Reisekosten für Vor-Ort-Schulungen. In webbasierten Dokumenten wie Tabellen, Texten oder Präsentationen kann die Zentrale Arbeits-/Verfahrensanweisungen, Besprechungsprotokolle oder Produktinformationen für definierte Personenkreise freigeben. Individuell wird dabei geregelt, welche Personen oder Gruppen Zugriff auf die jeweiligen Inhalte haben.

Bei alldem ist zu wichtig zu klären, in welcher Form Cloud-Technologie und standardisierte Collaboration-Lösungen die erforderliche Kontrolle und Handhabung vertraulicher Informationen sowohl innerhalb als auch über die Firewall hinaus sicherstellen können. Beim Cloud Service Provider (CSP) müssen sowohl Anwendungen als auch die Daten zentral gespeichert und in einer hochskalierbaren, sicheren und zuverlässigen Multi-Tenant-Infrastruktur bereitgestellt werden. Viele Anbieter haben inzwischen den Begriff „Cloud Computing“ für sich vereinnahmt. Folgende Vorgehensweisen haben allerdings mit echtem Cloud Computing nichts zu tun: z.B. das Hosting von Single-Tenant-Serverlösungen im Rechenzentrum eines Anbieters oder die Virtualisierung vorhandener Infrastruktur und Anwendungen innerhalb des Rechenzentrums eines Kunden.

Sicherheit durch Kontrollmöglichkeit auf mehreren Ebenen


Die großen CSPs verfügen über eine komplexe Sicherheitsstrategie, die im Hinblick auf Datenspeicherung, Zugriff und Datentransfer Kontrollmöglichkeiten auf mehreren Ebenen bietet:

  •     Organisation der Sicherheitsmaßnahmen
  •     Datenklassifizierung und -kontrolle
  •     Standort- und Betriebssicherheit
  •     Systementwicklung und -wartung
  •     Wiederherstellung im Notfall
  •     Einhaltung der gesetzlichen Vorschriften

 Standardisierte Dienste sollten an die unternehmenseigene IT-Infrastruktur, z.B. den Verzeichnisdienst, angebunden werden. Hier bieten die meisten CSPs einen sicheren Durchgriff auf das lokale Active Directoy oder LDAP. Darüber erfolgt die automatisierte Provisionierung oder Löschung von Nutzern im Cloud-Dienst. Mithilfe von Plattform-as-a-Service (PaaS) lassen sich individuelle geschäftliche Anwendungskomponenten entwickeln. Dabei können SaaS-Komponenten verschiedener Anbieter über einen Internet-Service-Bus kombiniert werden.

Unternehmen können ihre eigenen Anwendungen für die interne oder externe Verwendung entwickeln und in einer skalierbaren Cloud-Infrastruktur hosten. Dies ermöglicht eine schnellere und einfachere Entwicklung, bedeutet praktisch keinerlei laufende Wartung und schafft Skalierungsmöglichkeiten, mit denen Kapazitätsanforderungen kurzfristig gedeckt werden können. PaaS bietet über standardisierte Schnittstellen die Integration und Interoperabilität mit verschiedenen Technologieplattformen an. Je nach Hersteller existieren hier Services für die Zugriffskontrolle und die Prozesssteuerung, die Datenbankfunktionalitäten sowie für die Synchronisation von Anwendungen und Endgeräten in vernetzten Systemen. Für die modulare Nutzung von höherwertigen Services (PaaS, SaaS) innerhalb einer Anwendungsarchitektur ist das Architekturkonzept der verteilten, losen Kopplung im Sinne des SOA-Paradigmas eine grundlegende Voraussetzung.

Mittwoch, 2. Mai 2012

Systemhäuser - die wahren Feinde des Cloud Computing

Herr Hase von der Redaktion IT-BUSINESS schickte mir folgende E-Mail:
Sehr geehrter Herr Herkens,

nach Ihrer Beobachtung ist das „klassische Systemhaus ein großer Feind der Cloud“. Wie kommen Sie zu dieser Einschätzung? Natürlich verkaufen Systemhäuser weniger Software- und Hardware-Produkte, wenn deren Kunden vermehrt Anwendungen und andere IT-Dienste aus der Cloud beziehen. Die Provision, die sie bei der Vermittlung von Services erhalten, kann das sicher nicht kompensieren. Einerseits. Andererseits werden die großen Anbieter von Cloud-Services nicht müde zu betonen, dass durch die Cloud für IT-Fachhändler zugleich zahlreiche neue Chancen im Dienstleistungsgeschäft entstehen – indem sie ihre Kunden bei der Einführung von Services unterstützen, sie zu Compliance-Aspekten beraten, verschiedene Services technologisch verknüpfen, eigene ergänzende Dienste entwickeln, und, und, und. Warum tut sich das klassische Systemhaus so schwer, diese Chancen zu ergreifen?

Mit freundlichen Grüßen
Michael Hase
Redaktion IT-BUSINESS

Hier meine Antwort:

Hallo Herr Hase,

Systemhäuser leben von dem Verkauf, der Implementierung und der Integration von Hard- und Software. Bei Individualsoftware schaffen Sie mit Ihrer Tätigkeit auch einen Mehrwert. Weitgehend standardisierte IT-Lösungen, wie Mail & Collaboration oder CRM, können viel günstiger und zuverlässiger aus der Public Cloud bezogen werden. Für das Systemhaus fallen da schon wesentliche Umsatzträger aus. Das ist gut für den Kunden, da die Skaleneffekte in der Cloud einen günstigeren Betrieb und eine wirtschaftlichere Implementierung ermöglichen. Aber das ist schlecht für den Umsatz des Systemhauses. Google, IBM, Microsoft und auch andere Anbieter gewährleisten eine sichere Bereitstellung dieser Cloud Servics.

Selbstverständlich entsteht beim Übergang der Dienste in die Public Cloud auch Beratungs- und Migrationsbedarf. Der Aufwand ist aber nur einmalig und deutlich geringer als das, was die Systemhäuser Ihren Kunden üblicherweise verkaufen. In vielen Kundensituationen haben wir den Eindruck gewonnen, dass gerade angestammte Systemhäuser gezielt Ängste und Bedenken gegen die Public Cloud schüren. Bei einer objektiven Analyse der Kosten, des Servicelevels in Verbindung mit einer qualifizierten Beratung kommen unsere Kunden daher oftmals zu der Entscheidung, einen Teil der IT auszulagern.

Mit besten Grüßen aus Köln,

Michael Herkens,
GF der CLOUDPILOTS Software und Consulting GmbH

Mittwoch, 26. Oktober 2011

Cloud-basierte Mail & Collaboration für den Handel, Filialisten und Franchiser

Die Mitarbeiter in den eigenen Filialgeschäften und bei Franchisenehmern müssen optimal informiert sein. Informationen, die zielgenaue und zeitnahe im Point-of-Sales bereitstehen, entscheiden über den Erfolg bei der Kundenberatung. Mitarbeiter, die über alle notwendigen Kenntnisse über neue Produkte verfügen, können die Wirkkraft von Werbekampagnen deutlich steigern. Cloud-basierte Mail& Collaboration ist besonders interessant für Unternehmen mit dezentralen Vertriebsstrukturenund zentraler Marketingsteuerung.

Hier ein Kundenbericht von Russell's Convenience:



Weitere Informationen finden Sie im folgenden Wheitpaper: