Azure – die Cloud Wundertüte von Microsoft – 1433

Lesezeit: vergnügliche 6 Minuten

1. Content

Tja, wo soll ich hier bloß anfangen? Festzuhalten ist erst einmal die allgemeine Aussage:

“Wir brauchen mehr Digitalisierung und KI, wir müssen in die Cloud und die Welt wird gut!” – in früheren Zeiten sagte man übrigens: “Oh Herr, wir brauchen ein Wunder!”.

Es ist wohl langsam an der Zeit, diesen Hype mal aufzurollen – und um dann in dem konkreten Beispiel MS Azure und Virtual Desktop zu münden.

Zum Thema KI mit Terminator und dem Aufstand der Maschinen oder mit Vollendung Beethovens 10. unvollendeter Sinfonie – weil vorher gestorben – durch KI folgt dann noch ein extra Beitrag, versprochen!

Werbung

2.Historisches

Alles begann eigentlich in der Computersteinzeit 1998 mit VMware und den beiden Informatikern Mendel Rosenblum und Diane Greene. Ziel war es, eine Technik zu entwickeln, um physische Computersysteme mit Hilfe von Software abzubilden und zu abstrahieren – also virtuelle Server oder eben VMs. Wieso? Die Hardware wurde immer leistungsfähiger und so ein richtig dicker physischer Server war mit nur einer einzelnen Datenbank nur noch gelangweilt.

Jetzt einfach alle DBs und Anwendungen eines Unternehmens auf einen einzelnen – oder auch mehrere – dicke Server zu packen, wäre zwar prinzipiell möglich, aber keine so gute Idee. Da beeinflusst sich dann irgendwas untereinander und gegenseitig, die Fehlersuche wird zur reinsten Katastrophe und Alptraum – und muss das dicke Ding mal neu gestartet werden, liegt gleich die ganze Firma lahm, nicht gut.

Also Hyperviser drauf, der dem OS und der DB einen Server vorgaukelt und die dicken Ressourcen an RAM und CPU einfach auf diese virtuellen Server verteilt bzw. zuteilt – so ein virtueller Server lässt sich dann auch prima mal neu starten, ohne gleich den ganzen Rest lahm zulegen.

Übrigens läuft auch eine Linux VM unter Windows problemlos auch auf einem völlig altersschwachen Laptop – naja, mit gewissen Reaktionszeiten und allzu eilig sollte es man auch nicht haben – aber einfach mal so zum ausprobieren.

3. The next Step

Jetzt treffen gleich zwei glorreiche Erkenntnisse aufeinander. Amazon erkannte 2002 das Problem eigener ungenutzter Serverkapazitäten in seinen Rechenzentren – also Leerlauf – und dachte sich: “Wieso diese eigentlich nicht verscherbeln – also verkaufen und zu Kohle machen?”.

Auf Anwender- bzw. Unternehmensseite bestand jetzt einer dieser neuen virtuellen Server nur noch aus einem .vmdk File und die Frage war: “Wieso die eigenen dicken Server im Keller noch selbst weiterbetreiben und nicht einfach zu Amazon schieben?”.

Kohle gespart, Amazon happy, eine Win Win Situation – alles gut!

Hier hat das Cloud Computing also seinen Anfang und nahm schließlich seinen Lauf. 

Nach Amazon mit seinem Elastic Cloud Computing EC2 und heute AWS kamen schließlich 2008 die Google Cloud und 2010 Microsoft mit Azure dazu. 

Ach so, und es gibt noch die interessanterweise sehr erfolgreiche Alibaba Cloud oder auch bekannt unter Aliyun – zwar in Singapur registriert – aber trotzdem möchte ich da nicht meine Daten oder Website ablegen, sonst stehen auf einmal noch komische Typen bei mir vor der Tür. 

Oder meine F&E Ergebnisse werden zur Beute des roten Drachen und irgendein dubioses Start-up bringt auf einmal ein Produkt auf den Markt, was technologisch genau auf meiner Entwicklung aufbaut – seltsam.

4. Heute

Diese genannten Cloud Services haben sich bis heute zu waren Ökosystemen im Computing weiterentwickelt und bieten – neben klassischen Storage und VMs – Services, Dienstleistungen, Apps und noch mehr an, die alles Bisherige umkrempeln und in Frage stellen. Alleine die MS Azure Cloud besteht aus mittlerweile 17000! zertifizierten Apps und Diensten und es gibt nichts, was man da bei MS nicht buchen könnte!

Einen kurzen und unterhaltsamen Überblick liefert die Azure Startseite:

https://azure.microsoft.com/de-de/services/

Beispiel gefällig? Programming! Herkömmliche Anwendungen wurden einmal programmiert, sind monolithisch, in Stein gemeiselt und lassen sich nur schwer ändern. Heutige Anwendungen dagegen bestehen aus zugebuchten Services – Stichwort Cloud native Programming und MicroServices – und bieten neue Möglichkeiten hinsichtlich Sicherheit und Skalierbarkeit.

Evtl. erscheint es sinnvoll, eine Ein- und Ausgabe Warteschlange – eine Queue – vom Rest der Applikation zu trennen. Läuft diese Warteschlange jetzt über – Stichwort DDoS Attacke oder verteilter Dienstverweigerungsangriff, so reißt das nicht gleich die gesamte Applikation mit in den Abgrund. Dazu bietet alleine Azure eine Reihe von fünf Services zur Queue Verwaltung mit unterschiedlichen Schwerpunkten und zur Entkoppelung bzw. Elastizität einer Anwendung: 

Azure Event Grid, Azure Event Hubs, Azure Service Bus, Azure Notification Hubs und Azure Queue Store … hier steige ich jetzt aber aus, wer sich mehr davon geben möchte gerne unter: 

Noch mehr? Gerne – Datenbanken!

Wählen Sie zwischen vollständig verwalteten relationalen, NoSQL- und In-Memory-Datenbanken, für die proprietäre sowie Open-Source-Engines zur Verfügung stehen. Fokussieren Sie sich auf die Erstellung innovativer Anwendungen, und profitieren Sie von den Vereinfachungen, die Ihnen Azure dabei bietet. Vollständig verwaltete Datenbanken automatisieren Aufgaben wie das Konfigurieren und Verwalten der Hochverfügbarkeit, der Notfallwiederherstellung sowie von Sicherungen und der regionsübergreifenden Datenreplikation, wodurch Sie Zeit und Geld sparen können.

Und weiter im bunten Galopp:

Profitieren Sie von fortschrittlichen Sicherheitsfunktionen, der Auswahlmöglichkeit zwischen Hochverfügbarkeit in derselben Zone oder mit Zonenredundanz und einer SLA (Vereinbarung zum Servicelevel) von bis zu 99,99 Prozent. In diesem Migrationsleitfaden erfahren Sie, wie Sie Ihre lokale MySQL-Datenbank zu Azure migrieren.

Yo Bro and Sis … yes, was rauchen die da eigentlich bei MS? Das Zeugs hätte ich auch gerne … take this:

So geht es weiter z.B. mit Services zu Sicherheit und Zugriffskontrolle – dem Azure Active Directory, zu Migration von on premise in die Cloud, zu Verwaltung und Governance bis hin zu KI und Machine Learning – Azure Bot Service für die Kundenkommunikation. Und schon sind wir wieder bei Terminator und dem Aufstand der Maschinen.

Werbung

5. Azure Virtual Desktop

Doch jetzt zum eigentlichen Thema: Azure oder Windows Virtual Desktop WVM und Cloud basiertes Deployment von Arbeitsplätzen, die eigentlich logische Weiterentwicklung von virtuellen Servern!

Wow, aber eigentlich ein schon sehr alter Hut, sorry. An die etwas Älteren unter uns: wir erinnern uns noch an Citrix und Thin Clients? – und an die Jüngeren unter uns: schon mal gehört? Genau! Damals kostete Hardware noch richtig Kohle und man setzte eben nur einfache Geräte zur Ein- und Ausgabe ein – quasi nur Bildschirm und Tastatur, während der eigentliche Desktop auf dem Server im Keller lief. Oder es bestanden Zutrittsbeschränkungen wie z.B. Reinraum in Pharmaunternehmen und der Admin konnte da nicht einfach so mal reinhuschen und nachschauen oder was richten.

Und überhaupt wiederholt sich die IT immer wieder mit eigentlich uralten Konzepten nur unter neuen hypen Namen – nur so mal am Rande.

Egal, das Konzept bietet schon neben den ganzen Cloud Vorteilen wie Kostenreduzierung und Sicherheit durch einen großen Anbieter weitere Vorteile – auch wenn facebook da gerade failed.

  • im Büro: Laptop einfach zuklappen und dann Zuhause im HomeOffice eigenen Laptop wieder an – und genau an der Excel Tapete oder Powerpoint weitermachen, an der man vorher gearbeitet hat … schon cool

  • leistungsstarke CPU, Graphikkarte, Arbeitsspeicher? Egal – brauchen nur noch Gamer, der Desktop läuft auf jedem Ausgabegerät, egal ob Laptop, Tablet oder Smartphone

  • Sicherheit: der Anbieter – also hier MS – kümmert sich um die Sicherheit seiner Rechenzentren, z.B. DDoS Abwehr und damit um die Sicherheit der Nutzerdaten. MS betreibt deshalb sogar ein Rechenzentrum für DE genau in Frankfurt – wobei es dem Hacker von Büro 121 ziemlich egal sein wird, wo der Server denn jetzt im Netz hängt

  • Kosten: na klar – alles genau kalkulierbar und bitte an MS zahlen. Keine dubiosen und unfähigen Dienstleister mit völlig überhöhten Forderungen mehr

  • Skalierbarkeit: Das eigene Forschungs- oder Entwicklungsprojekt braucht auf einmal mehr Rechenleistung, es besteht höherer Workload wegen neuen notwendigen Simulationen? Dazu buchen – no problem!

Werbung:

Zum Schluss und Ausblick

Puh, erst mal wieder runterkommen! Klar, jeder neue Weg zeigt erstmal tausend neue Fragen auf.

Vor allem drängt sich hier die Frage zu Hyprid Cloud Lösungen auf: wie z.B. geht das Ganze mit on premise und Cloud zusammen? Lokales AD mit Azure Directory Services spiegeln? DBs von der Public in die Private Cloud spiegeln? 

Nicht zu vergessen: es braucht immer eine richtig fette Mbit Internetverbindung – hat der Bagger auf der Nachbarbaustelle mal das Kabel gekappt, ist es aus und vorbei!

Das neue Stichwort heißt deshalb Hybrid Cloud, von beiderlei Wesen, also eine Mischung zwischen on- und offline, damit in einem solchen Ernstfall wenigstens das Wichtigste noch läuft.

Und weiter geht es mit Security, Datenschutz und DSGVO, ISO 27001, Tracking oder Sicherheit vor Manipulation durch den Big Player, whatever … wir erinnern uns an Alibaba Cloud … und das sind nur einige der vielen weiteren Fragen, die in einer konkreten Strategie dediziert aufgearbeitet und immer wieder hinterfragt und angepasst werden müssen … sonst wird das nix!

Und ganz zum Schluss nochmal kurz zurück zum Machine Learning, IoT und Predictive Maintenance Lösungen mit Azure … Windräder! Ja wirklich Windräder! Die haben doch tatsächlich mechanische Getriebe und die gehen schon mal kaputt … schwer zu erreichen und zu reparieren, da in zig hundert Metern Höhe eingebaut. Jetzt versieht man ein solches Getriebe einfach mit Sensoren, die den Lauf und die Vibrationen eines solchen Getriebes messen und kann dann vorhersagen – also predictive – ob, wann und welches Bauteil dieses Getriebes als nächstes denn Geist aufgibt. Und eben schon mal Ersatzteile, Kran oder gleich Helikopter vorbestellen und alles vorbereiten … prima, läuft!

Egal, wir Tekkies zusammen rocken das Ding und werden unseren heutigen Planeten zu einem besseren Ort machen, ganz sicher!

Werbung:

Digital 2020? – 837

Werbung

Lesezeit 4 Minuten

Digital 2020? Kurze Einordnung und eine Studie der Unternehmensberatung Kearney – 837

Schöne neue Welt! Da reibt man sich doch nur noch völlig verwundert die Augen und wähnt sich gleich im Jahr 2035:

 

Die Chinesen sind auf dem Mond gelandet, sammeln dort Steine ein und bringen diese auch noch auf die Erde zurück [vorerst noch unbemannt] – und sind auch schon auf dem Mars gelandet [vorerst ohne Steine zurück zu bringen und nur mit Raumsonde]!

Und die EU will den Hyperscalern wie AWS [schon seit 2006], Azure oder Google Cloud [beide 2010] mit GAIA-X Konkurrenz machen und damit zu einem besonders sicheren und vertrauenswürdigen, vor bösen Mächten geschützten, Technologie- und Datenknoten weltweit aufsteigen.

Weiter ist 5G und IoT in aller Munde – vollständig autonomes Fahren sowieso – und – etwas weniger dramatisch – endlich hat sich Home Office durchgesetzt, wir skypen und zoomen nur noch mit unseren Colegas. 

Sogar an Schulen gibt es endlich Tablets und digitale Lernplattformen.

 

Und sogar meine Steuererklärung kann ich mittlerweile digital über das Netz einreichen und von Dokumenten auf Papier wird explizit abgeraten. Hui!

 

Aber stimmt das alles wirklich? Wie sieht die digitale Realität 2020 wirklich aus?

Nun, EU GAIA-X scheitert wohl an nationalen Interessen und Datenschutzbestimmungen – schöne Grüße von der DSGVO – und zusätzlich befremdlich erscheint, dass auch Alibaba und Huawei – sicher auf völlig korrekten Ausschreibungswegen – zu den Gründungsunternehmen dieser besonders vertrauenswürdigen und sicheren EU Datenwolke gehören.

5G wird wohl nur in einzelnen Campus Hotspots als Ergänzung zum WLAN umgesetzt und es gibt immer noch Funklöcher [!], also nix Empfang, gar Nichts – und damit hat sich wohl auch IoT erledigt, wobei auch hier niemand genau weiß, was das denn sein soll – typisches Buzzword.

Mein Fitnessarmband und TV mit Netflix im WLAN reichen mir völlig und mein Kühlschrank soll bitte auch nichts völlig von alleine nachbestellen, das bekomme ich gerade so noch selbst hin – auch wenn ich mich dafür von meinem Laptop verabschieden und vor die Tür muss – grrrr.

 

Vom vollständig autonomen Fahren haben sich mittlerweile auch alle Automobilhersteller wieder verabschiedet – selbst Tesla – man freut sich ja schon, wenn das eigene Kfz im Stau selbständig bremst und wieder anfährt und halbwegs die Spur hält, nur in Baustellen bei gelben Fahrbahnmarkierungen halt nicht.

 

Naja, wenigstens Videochat funktioniert, wenn auch ohne die sonst so wichtigen sozialen und informellen Informationskanäle in der Kaffeeküche – und Schulen bekommen gleich 100 Eus pro Tablet, aber wie soll damit bitteschön die minderbemittelte Familie ihrem Knirps oder gleich mehreren ein Tablet damit bezahlen? Aldi?

 

Und meine voll digitale Steuererklärung ist auch raus – aber auch hier musste ich zuerst einen supergeheimen PIN Code beantragen, der mir dann per Post und berittenem Boten auf Papier zugestellt wurde. Prima!

Werbung

So, jetzt zur eigentlich wichtigen Betrachtung der deutschen Unternehmenslandschaft, hierzu gibt es eine interessante Studie der Unternehmensberatung Kearney mit dem Ergebnis:

 

Den deutschen Unternehmen fehlt der Mut bei der Digitalisierung und Transformation!

 

Kearney unterscheidet die befragten Unternehmen dabei in:

 

“digitale Verweigerer”:

Ja klar, ein Bekleidungshaus mit 175 Jahren Familientradition wird ihrer im Durchschnitt 85 Jahre alten Stammkundschaft keine neuen digital Paymentfunktionen via Smartphone anbieten. Hier liegen die Probleme tiefer.

 

“digital Klagende”:

Auch klar, habe ich ein Unternehmen irgendwo am Ende eines Industriegebiets und irgendwo im Osten, dann freue ich mich überhaupt über eine Internetverbindung – an Cloud mit großen Datenmengen ist hier gar nicht zu denken, lieber den eigenen Server im Keller weiter laufen lassen.

Zudem gibt es Fragen zum Datenschutz, personenbezogene Daten sollten doch besser auf Servern mit Standort D gespeichert werden – die Telekom Cloud mit eben diesen Standorten ist leider gescheitert und auch dem nordkoreanischen Hacker von Büro 121 ist es sowieso völlig egal, wo denn der Server jetzt im Netz hängt.

 

“risikoscheue Standard Digitalisierer 40%”:

Man muss eben mitmachen, irgendwie. Immer mehr Lieferanten und Kunden fordern eine digitale und voll integrierte E2E Lieferkette.

Vom eigentlichen Ziel der Digitalisierung – der Weitblick, Zielsetzung und Priorisierung – fehlt jedoch jede Spur.

 

“nicht disruptive Digitalisierer”:

Die neuen digitalen Potenziale sind wohl erkannt, dennoch möchte man sich vom bisherigen und Umsatz bringenden Geschäftsmodell nicht verabschieden – bitte keine Veränderung!

Auch hier fehlt oft Mut, eine langfristige Zielsetzung und klare Priorisierung – auf Digitalisierung muss aber konsequenterweise auch Transformation folgen.

 

“ambitionierte digital Getriebene”:

Digitalisierung und Potential sind vollständig erkannt, aber gut gemeint ist nicht immer gut gemacht.

Mut ist vorhanden, aber auch hier fehlt oft langfristige Zielsetzung und klare Priorisierung.

 

So weit, so gut …

 

Organisationale Ambidextrie [Beidhändigkeit] heißt jetzt hier das neue Zauberwort und wird zum zeitgemäßen Modell im Rahmen des Digital Leaderships, Exploitation und Exploration!

Bestehendes optimieren und Neues erkunden – Effizienz und Innovation gleichzeitig vorantreiben und zusammenbringen – das wird zur Ausschlag gebenden Bedeutung in diesem Zusammenhang und in der aktuellen Situation.

 

 

Werbung

Soweit zum Thema “Digitalisierung und digitale Transformation 2020?” – spannend – und ich möchte mich gerne weiter mit diesem dringenden und wichtigem Thema befassen.

 

Weiteres auf Anfrage,

 

Vielen Dank für Deine Zeit / Kind regards – und ich hoffe etwas unterhalten zu haben

 

 

Die Lotus Notes Migration – 1177

1. Das Problem

“Never ever change a running system” – so lautet die eiserne Grundregel in der IT – und so lässt sich auch erklären, das z.B. in der Finanzbranche noch viele Systeme in COBOL laufen – eine Programmiersprache aus der Steinzeit der elektronischen Datenverarbeitung und noch in Keilschrift.

Nun gibt es aber verschiedene Gründe, die über den change eines running system zumindest nachdenken lassen – z.B. läuft der Support der eingesetzten Version durch den Hersteller aus, sehr beliebt bei MS.

Doch wieso sollte man jetzt eine stabil laufende Notes Umgebung durch Exchange und AD ersetzen?

Klar, Notes ist in der Optik der Oberfläche hässlich wie die Nacht und eine Migration zu MS ist wie der Austausch von Oma Grabowski durch Heidi Klum.

Doch weiter – mit Exchange und AD findet man sich auf einmal in der erstaunlichen Welt von MS und Azure Cloud wieder. Die neue Exchange Groupwarelösung kann sich nahtlos in die neuen Möglichkeiten von SaaS, PaaS und IaaS in dieser Cloud einfügen – konkret winken da als neue Verwandtschaft Office365, SharePoint und viele weitere Highlights – eine enorme Steigerung von Möglichkeiten!

2. Privacy und DSVGO

Bleibt nur noch die Frage, in wieweit man diese Auslagerung der eigenen Daten in diese Cloud vorantreiben möchte.

Zuerst kann man sein seine Systemlandschaft vollständig abgeben an MS Azure – mit vielen Grüßen der drei Buchstaben Agentur und dem US Privacy Shield – oder man lässt einfach alles on prem im eigenen RZ weiterlaufen, wenig sinnvoll.

Der dritte Weg liegt in einer Hybridlösung! Wichtige oder personenbezogene Daten bleiben on prem im eigenen RZ, alles andere geht raus in die Cloud und nach Azure – fertig!

Nebenbei soll noch erwähnt werden, dass MS auch noch die Nutzung einer besonders vertrauenswürdigen und sicheren Deutschland Cloud anbietet. Betrieben von der Telekom werden hier besonders sensible Daten in Rechenzentren DSVGO konform mit Standort FFM oder Magdeburg gespeichert – wobei es dem nordkoreanischen Hacker von Büro 39 sicherlich reichlich egal ist, wo denn der Server jetzt im Netz hängt.

3. Big Bang oder Move Groups?

Diese Frage ist eher rein theoretischer Natur und betrifft die Umsetzung eines Change. Zuerst einmal kann ich das betroffene System in einem Big Bang – also an einem Wochenende auf einmal – umstellen. Alle User finden sich dann am nächsten Arbeitstag in der neuen Systemumgebung wieder – komplex, hat nicht unerhebliche Risiken und ist in großen Umgebungen mit einer hohen Useranzahl auch nicht mehr durchführbar.

Hier greift der klassische Move Group Ansatz, pro Wochenende wird eben nur eine Abteilung, Niederlassung oder Zweigstelle umgestellt und schon hat man eine agile Migration. Jetzt kann man einfach aus den Fehlern des letzten Wochenendes lernen und die Umstellung am nächsten Wochenende besser gestalten – leider dumm nur für den, der zuerst dran war.

Wichtig in diesem Zusammenhang und im Vorgriff auf noch folgende Details ist hier die Stellvertreterregelung. Als Stellvertreter kann man mit seinem eigenen Email Account im Namen eines anderen Accounts Mails versenden, so z.B. bei funktionalen Accounts, klar.

So gibt es z.B. den Account “bewerbung@firmaxyz.de”, alle Mitarbeiter der Personalabteilung sind als Stellvertreter eingerichtet und können jetzt Mails mit genau dieser Absenderadresse versenden, eine feine Sache. Ist jetzt jedoch der eine Part einer solchen Stellvertretung migriert, der andere aber noch nicht, so ist diese Stellvertreterregelung im Eimer.

In der Konsequenz müssen also geplante Move Groups genau auf diese Vertretungen untersucht und evtl. angepasst werden – der User hasst nichts mehr als wenn auf einmal etwas nicht mehr funktioniert, was vorher funktioniert hat.

Zusätzlich sollte zwischen zwei Move Groups bzw. Migrationen die UX [user experience] abgefragt werden – also die erste Erfahrung und Meinung des Users mit dem neuen System – und entsprechende Änderungen am neuen System in der nächsten Move Group vorgenommen werden – und auch hier wieder: leider dumm für den, der zuerst dran war.

4. Koexistenz – SMTP oder rich?

Der Ansatz einer schrittweisen Migration führt unweigerlich zur Koexistenz von altem und neuem System und dazu müssen jetzt entsprechende technische Vorkehrungen getroffen werden.

Zuerst einmal muss der User immer unter der gleichen Email Adresse erreichbar sein, egal ob sein Account jetzt auf Domino oder Exchange liegt – also egal, ob er bereits migriert wurde oder nicht. Dazu richtet man ein SMTP Forwarding ein, beide Systeme leiten jetzt eingehende Mails einfach an das andere System weiter – Alt und Neu synchronisieren sich einfach.

In der technischen Umsetzung kann man das z.B. mit einem einem einfachen PowerShell Script realisieren [weitere Details würden hier jetzt den Rahmen sprengen], einige Informationen gehen dabei allerdings verloren wie z.B Kalender oder free / busy Einträge – eben Simple Mail Transfer Protocol. Hier hilft dann nur noch ein Drittanbieter Tool wie z.B. CMTc von binary tree solutions und gewährleistet eine rich Koexistenz.

Und auch hier gilt wie immer: zuerst testen, testen, nochmal testen und Key User einbeziehen, bevor man ein solches Skript oder Tool auf die Menschheit loslässt!

5. Daten filtern!

Mit der Migration bietet sich natürlich auch die Möglichkeit endlich mal aufzuräumen und sich von Altlasten zu trennen – müssen wirklich alle Mails der letzten hundert Jahre in das neue System übernommen werden oder reichen vielleicht die Mails der letzten drei Jahre?

Eine politische Entscheidung und vielleicht spielen auch noch Compliance Gründe mit, die das Vorhalten von Kommunikation der letzten zehn Jahre vorschreiben.

Was auf jeden Fall migriert werden sollte und auch keine allzu hohe Datenlast erzeugt sind Kontakte und Kalender, klar.

Von technischer Seite her kann man ein Postfach auch schon im Vorfeld auf das neue System überspielen, ohne gleich umzustellen. Kommt dann der Tag der Umstellung, muss man nur noch eine Delta Migration – also eine Migration der neu hinzugekommenen Daten – durchführen – geht dann eben schneller.

6. User Acceptance

Das Wichtigste zum Schluß: der Erfolg eines IT Projekts oder einer Migration steht und fällt eben nicht mit einer raffinierten und ausgeklügelten technischen Implementierung – sondern mit der user acceptance!

Der User fragt sich zu Recht: “Wieso soll ich jetzt mit dem neuen System arbeiten, wo ich doch gerade mal mit dem alten System halbwegs klar komme?”. OK, verständlich.

Im Vorfeld – oder besser weit im Vorfeld – muss daher eine proaktive Kommunikation, ja sogar ein Marketing für das neue System aufgebaut werden! Wie nun? Ganz einfach!

So kann man z.B. weit im Vorfeld einen wöchentlichen Newsletter an alle User rausschicken, der jeweils einen besonderen Vorteil oder eine Arbeitserleichterung der neuen Lösung vorstellt und besonders herausstellt. Der User freut sich dann nach einer Weile schon auf die Migration!

Und man bietet im Vorfeld schon Schulungen für das neue System an, gleich verpflichtend für alle PowerUser und VIPs.

Auch danach darf man den User nicht im Regen stehen lassen. Hier reicht die Range von einer klassischen KnowledgeBase im Intranet über Chat Forum bis hin zu einer dedizierten Hotline nur für Fragen zum neuen System. Ebenso einsetzen kann man Floorwalker – also IT Mitarbeiter, die für Frage und Antwort direkt greifbar vor Ort – auf dem Flur sozusagen – persönlich zur Verfügung stehen.

So, ich habe fertig und mir fällt – erst einmal – nichts mehr ein.

Vielen Dank – big THX,

Markus

MAX800WORDS.COM

MAX800WORDS.COM