Erfolg im Anwendersupport – auf den Punkt! – 676

Lesezeit 5 Minuten

 

the mindblowing ai art gallery - visit: nextgen-art.com

um es gleich auf den Punkt zu bringen

Abseits von ausgefeilter strategischer Ausrichtung, Prozessdesign und raffinierter Implementierung gibt es vier einfache Punkte, die den Anwendersupport in der Praxis sofort erfolgreich machen und eine positive UX gewährleisten … ja wirklich:

  • Kommunikation
  • Priorisierung
  • Kennzahlen
  • Dokumentation
1. Kommunikation:

Gerade das Vermitteln von komplexen Inhalten stellt im Support immer wieder eine besondere Herausforderung dar – gilt es doch, eine zielgruppengerechte Ansprache zu finden und den Anwender einzubinden und abzuholen.

Schließlich macht es schon einen großen Unterschied, ob ich mich mit einem Azubi, digital native und mit social media aufgewachsen, unterhalte – oder mit der etwas älteren Dame aus der Buchhaltung, die mit diesem ganzen Computerkrams sowieso auf Kriegsfuß steht.

Im reinen Telefonsupport kommen zusätzliche Herausforderungen hinzu:

Da gibt es zuerst den kooperativen und folgsamen Anwender, der eben genau meinen telefonischen Anweisungen folgt – den etwas hektischen Anwender, hin und wieder zwei Klicks voraus, den man deshalb etwas einbremsen muss mit dem Hinweis, doch bitte genau meinen Anweisungen zu folgen.

Und dann gibt es noch den chaotischen Anwender, der überall panisch draufklickt und bei dem ein reiner telefonischer Support nicht mehr funktioniert. Hier geht dann nur noch Teamviewer und den Desktop übernehmen oder – wen möglich und besser – gleich persönlich vorbei schauen.

Grundsätzliche wichtige Eigenschaften im Support sind vor allem Coolnes und buddhistische Gelassenheit – und die Fähigkeit, auch deeskalierend einwirken zu können, um einen aufgebrachten Anwender sachlich aber bestimmt wieder auf den Teppich zu bringen – bis zu einem gewissen Punkt, Hanswurst lasse ich natürlich nicht mit mir machen.

Übrigens kann man auch hinter Corona Maske oder am Telefon ein Lächeln erkennen – an den Augen und der Stimme!

Werbung

2. Priorisierung:

Ein alter Hut – jedes Ticket, Störung oder Incident muss zuerst einmal klar und nach definierten Kriterien eingeordnet werden – und zwar nach Anzahl der betroffenen User [affected user] und nach Art der Störung [incident].

Ist jetzt z.B. ein major service wie etwa Email ausgefallen und alle User sind betroffen, so gilt Prio 1 – alle verfügbaren Kräfte die Füße hoch, evtl. externe Dienstleister hinzuziehen – und diesen Incident so schnell wie möglich beheben!

Handelt es sich aber um ein “Geister Incident” – selten und nur schwer oder gar nicht zu reproduzieren – und es sind auch nur 1 bis 3 User betroffen, so gilt Prio 4 und Ruhe bewahren – damit kann man sich dann beschäftigen, wenn Zeit ist und es nichts Weiteres zu tun gibt.

Eine klare Priorisierung eines Incident ist auch gegenüber dem Anwender leicht verständlich kommunizierbar – nicht der, der am lautesten schreit, kommt auch zuerst dran – fertig.

Werbung

3. prädiktive Kennzahlen und KI:

Zum einen kann man mit entsprechend definierten Kennzahlen [z.B. Median anstatt Mittelwert!] den Service in der Vergangenheit qualitativ bewerten – zum anderen aber ermöglichen Kennzahlen auch einen Blick in die Zukunft.

Mit Daten aus der Vergangenheit lassen sich Trends erkennen und machen so einen proaktiven Service möglich, der nicht nur reagiert wenn es schon zu spät ist, sondern der technische Störungen prädiktiv schon im Vorfeld erkennt und behebt!

Zur Erhebung von Daten im Support muss es übrigens nicht immer ein monströses und völlig überdimensioniertes Ticketsystem sein. Dauert z.B. die Eingabe eines Tickets länger als das eigentliche Lösen des Incident, wird das auf nur wenig Gegenliebe bzw. Akzeptanz stossen.

Gerade in kleineren Unternehmen bietet sich hier die – vielfach verschmähte – Excel Tabelle an, allerdings mit sehr viel Sorgfalt und einer extra Portion Liebe gepflegt und bearbeitet.

Besser auf diesem Wege Daten erheben als nur auf Zuruf oder aus dem Bauch heraus zu reagieren.

4. Dokumentation:

Das Wichtigste zum Schluss – ok, auch wenn jeder echte ITler nur bei dem Wort schon mittelschweren bis schweren Hautausschlag bekommt: Dokumentation!

Aufbau und  Pflege einer Wissensdatenbank mit viel Liebe und Hingabe ist von zentraler Bedeutung. So muss der Mitarbeiter im Support nicht immer wieder das Rad neu erfinden, sondern kann direkt auf geprüfte und erfolgreiche Lösungsansätze zurückgreifen!

Im Rahmen eines Self Service kann eine solche Knowledge Base, natürlich entsprechend aufbereitet, auch direkt für den Anwender zugänglich gemacht werden und so die Zahl der Tickets reduzieren.

Zusätzlich sollte man evtl. über einen regelmäßigen Newsletter aus der IT nachdenken, indem man von aktuellen Projektfortschritten oder Neuerungen in der IT berichtet – oder einfach nur interessante HowTows oder Security Sensibilisierung reinpackt.

So bleibt die IT sichtbar und wichtig für das Unternehmen.

So, ich hoffe das war nützliche Anregung für den Alltag und viel Spaß mit Euren Anwendern!

(übrigens unter Sysadmins eine böse Beschimpfung: “Du Anwender …!“)

Marcus

Werbung

KI und das Schreckgespenst BIAS – 805

the mindblowing ai art gallery - visit: https://nextgen-art.com


Künstliche Intelligenz? Ja genau, der nächste billionenschwere Hype, die Lösung für alle Probleme jedes Unternehmens und der Menschheit überhaupt. Der Drops mit Digitalisierung und Transformation ist schon lange gelutscht, sorgt gelegentlich noch für etwas Aufregung.

Aber bei dem Begriff KI läuft es einem immer noch leicht über den Rücken – man denkt unweigerlich an den Film Terminator und der Aufstand der Maschinen‘. Wie wohl bekannt, haben diese irgendwann einmal beschlossen, die Menschheit sei überflüssig und sogar gefährlich für den Planeten – und haben die Menschheit deshalb ausgerottet. Naja, nicht ganz, sonst wäre der Film ja schon nach fünf Minuten zu Ende und es gäbe nichts Weiteres zu erzählen.

Aber erst einmal Entwarnung: heutige KI-Systeme sind von echter Intelligenz – wenn es sowas geben sollte – in etwa so weit entfernt wie das Brain einer Stubenfliege von Albert Einstein. Aber man weiß ja nie, wie schnell sich diese Rechenknechte entwickeln 

1. das Problem

Nehmen wir doch mal meinen uralten Texas Instruments TI-30 von damals. Dort tippe ich eine beliebig hohe 5-stellige Zahl ein und ziehe davon jetzt irgendetwas ab. Einfach – und auf das Ergebnis des TI kann ich mich zu 100 Prozent verlassen.

Jetzt ins nächste Jahrhundert und zu einem Vergleichsportal im Internet. Dort frage ich z.B. die günstigsten Angebote für einen Kredit ab und bekomme das Ergebnis im Vergleich von 100 Banken in richtiger Reihenfolge angezeigt. Jetzt ist es aber an mir zu entscheiden – gibt es evtl. irgendwelche Zusatzfeatures wie Ratenpause oder ist mir eine bestimmte Bank besonders sympathisch? Ich entscheide!  

Und jetzt genau hier kommt das eigentliche Problem mit KI-Systemen – die KI entscheidet! Das Problem: ist das Ergebnis, was die KI ermittelt hat überhaupt richtig? Und ist die Entscheidung, die KI auf dieser Basis getroffen hat, überhaupt richtig? Und wie können wir das überhaupt feststellen?

Ok, das Problem ist jetzt noch etwas abstrakt und schwirrt so in der Luft. Also ein Beispiel: ein großer Konzern erhält pro Jahr mehrere zehntausende Bewerbungen auf alle möglichen Stellen. Um jetzt die HR [Personalabteilung] zu entlasten, wird ein KI basiertes System eingeführt, was schon mal im Vorwege völlig ungeeignete Bewerber für eine bestimmte Stelle anhand von Lebenslauf und anhand von Vergleichen mit der Besetzung ähnlicher Positionen herausfiltern soll – prima, läuft!

Jetzt wird eine höhere Management- oder Abteilungsleiterposition neu ausgeschrieben, viele Bewerbungen gehen ein und das KI-System schlägt auf einmal nur noch männliche, weiße und Ü40 Bewerber vor – nix mehr mit weiblich, mit Migrationshintergrund und jünger, obwohl fachlich durchaus erfahren, geeignet und wertvoll für das Unternehmen?

Und es kommt noch schlimmer, es stellen sich auch ethische Fragen! In KI-basierten Systemen im Gesundheitsbereich können Krankheitsdiagnosesysteme z.B. in der Radiologie bestimmte Muster im Gewebe und damit Tumore schon im Frühstadium erkennen oder auch nicht – und entscheiden somit … über Leben und Tod!

Ok, jetzt nicht mal so schwarzmalen und einfach mal den gesunden Menschenverstand gegen den Rechenknecht einsetzen. Aber dennoch wird mit KI eindeutig eine rote Linie überschritten und die grundsätzliche Frage lautet: wie erkennen, kontrollieren oder besser wie verhindern man diesen Bias in der KI?

2. der Bias

So what? Der Begriff kommt aus der Psychologie oder genauer Verhaltenspsychologie und bezeichnet das Phänomen einer Verzerrung – in einer Umfrage kann durch gezielte suggestive Fragestellungen zu einer bestimmen Aussage hingeführt oder gezwungen werden, um damit bewusst oder unbewusst ein bestimmtes gewünschtes Umfrageergebnis zu erzielen.

Wie antworten wie auf eine Frage? Nun, zuerst ist da mal unsere Erfahrung, die wir in unserem Leben bisher gesammelt haben – verabschiede dich von der Mär objektiver Erfahrungen – Wahrnehmung ist immer subjektiv, selektiv und aktiv. Diese Erfahrungen sind unsere Datenbasis!

Und weiter? Nun, jetzt kommt es auf die Fragestellung an. Enthält die Fragestellung z.B. durch bestimmte Formulierung eine Wertung in die eine oder andere Richtung? Bin ich dadurch vielleicht gleich einverstanden mit der einen oder anderen Aussage? Diese Fragestellungen ist die Programmierung!

[und selbst ich als rein logisch denkender Vulkanier falle darauf gelegentlich immer noch rein]

Und genau so funktionieren auch KI basierte Systeme und genau hier liegen die Ansatzpunkte zu Optimierung und Kontrolle!

Datenbasis und Programmierung!

3. overfitted oder underfitted – Bias, Varianz und die ground line

What the hell? Wir bleiben erst einmal bei der Datenbasis, der Erfahrung eines KI-Systems und Basis der Entscheidungsfindung. 

Klar, ein solches System muss mit Daten ‚gefüttert‘ werden – z.B. mit Bildern eines sich anbahnenden Krebsgeschwürs in der Radiologie oder – weniger dramatisch – mit den typischen Merkmalen der Besetzung einer bestimmten Stelle für Personalentscheidungen.

Doch was passiert, wenn der Rechenknecht mit zu vielen Daten zur Mustererkennung gefüttert wird – overfitted? Wir erinnern uns, das Personalsystem schlägt auf einmal nur noch männliche Bewerber und Ü40 ohne Migrationshintergrund vor. Eben statistische Verzerrung oder Bias.

Und umgekehrt, was passiert, wenn der Rechenknecht mit zu wenigen Daten zur Mustererkennung gefüttert wird – underfitted? Klar, jetzt kommt bei jeder Abfrage alles Mögliche und nur keine klare Aussage raus. Eben Varianz oder völlige Uneindeutigkeit.

Und jetzt noch einmal ein kurzer philosophischer Schwenk: die echte und einzige Wahrheit gibt es natürlich nicht – man kann nur versuchen, sich einer von allen Seiten akzeptierten ground line anzunähern und die Datenbasis auf overfitted oder underfitted hin zu untersuchen und zu optimieren.

Im Personalsystem lässt man z.B. einfach die Angaben zu Geschlecht, Alter oder sonstige diffamierende Daten außen vor – was aber letztendlich noch nicht vollständig garantiert, dass die KI und der Algorithmus in dieser Hinsicht nicht doch noch etwas ausknobelt. 

4. die Abfrage

Und weiter im bunten Galopp, nachdem die Frage zur Datenbasis geklärt scheint. Und ebenso klar, selbst die dickste SQL Datenbank ist noch keine KI und liefert irgendwelche Mustererkennung oder Entscheidungen, dazu bedarf es jetzt schlauer Programmierung.

… Fortsetzung folgt!

Nonverbales in der Videoschalte – 565

schöne neue Welt 


Galerie-Nonfinito

– Lesezeit bunte 4 Minuten –

Dank Fräulein Corinna und allgemein grassierender Pest und Cholera hat sich der Segen der modernen Technik und vor allem des Videocalls endlich herauskristallisiert.

Klar, man muss nicht mehr vor die Tür, kann direkt vorher noch schnell eine Kippe oder Joint qualmen, ohne gleich als stinkender Aschenbecher von den Kollegen schräg angeschaut zu werden – man muss sich nur ein Hemd überstreifen und kann die bequeme Jogginghose anbehalten (nur nicht aufstehen und sich vielleicht doch vorher rasieren, auch Frauen) und viele weitere Vorteile z.B. für die Umwelt.

Brave new work!

Doch gerade der Videocall hat seine Tücken! Ich rede hier nicht von technischen Aspekten (ich setze voraus es läuft), verbalen Aspekten erfolgreicher Kriegs- äh Gesprächsführung wie z.B. mein Gegenüber argumentativ platt machen oder ähnliches, sondern vielmehr von den weit wichtigeren nonverbalen Aspekten in der Gesprächsführung – und hier liegt die Tücke!

Werbung


mycandymix.de

doch der Reihe nach

In einem echten face-to-face Gespräch ist der direkte Augenkontakt entscheidend – ich versuche also, meinem Gegenüber direkt in die Augen zu schauen so weit es geht – nicht übertreiben und mit stechendem Blick durchbohren.

Als ersten Vorteil signalisiere ich meinem Gegenüber großes Interesse an seinem Blah und zweitens kann ich direkt aus seiner Mimik, evtl. auch Gestik, lesen. Runzelt mein Gesprächspartner bei einer meiner Aussagen die Stirn? Zieht er die Augenbrauen nach oben? Lächelt er vielleicht oder schaut er gelangweilt irgendwo anders hin?

In der Erfahrung hat sich übrigens herausgestellt, das es sehr wichtig ist, den Anderen wenigstens einmal zum Lächeln zu bringen und ihn damit auf einer tieferen, emotionalen Ebene abzuholen.

Klar, die Mimik sagt wesentlich mehr aus als das gesprochene Wort – wir sind eben keine Roboter, obwohl die mittlerweile auch schon blinkende Lämpchen haben.

jetzt endlich zu den Tücken der Technik

Schaue ich jetzt in einem Videocall meinem Gegenüber – aus reiner Gewohnheit – direkt auf dem Bildschirm in die Augen, so schaue ich ihm eben nicht in die Augen! Für die andere Seite sieht es so aus, als würde ich etwas nach unten blicken – was für diese andere Seite sehr unangenehm und völlig desinteressiert wirkt.

Woran liegt das? An der Position der Webcam, die in aller Regel im oberen Bildschirmrahmen verbaut ist! Wenn ich also auf den Bildschirm schaue, sieht es in der oberen Webcam so aus, als schaue ich nach unten.

Um Augenkontakt herzustellen, muss ich also direkt nach oben in die Webcam schauen. Und hier liegt das Problem, schaue ich in die Webcam, habe ich nur noch schlecht den Bildschirm im Blick und kann auch nur noch schlecht den Gesichtsausdruck meines Gesprächspartners auf dem Bildschirm ablesen und kontrollieren (außer ich bin ein Leguan, der mit seinen zwei Augen in unterschiedliche Richtungen blicken kann).

die Strategie – ganz einfach

Spricht mein Gegenüber, zeige ich Interesse, stelle Augenkontakt her und schaue direkt in die Webcam.

Und umgekehrt, spreche ich, bin ich also auf die Reaktion und Mimik meines Gegenübers angewiesen, behalte ich mehr den Bildschirm im Blick.

Ganz einfach eben – oder ich mache die Webcam aus, ist halt kaputt bei Nachfragen.

Ein großer Vorteil von Videocalls soll hier nicht unerwähnt bleiben. Ich sehe mich selbst, wenn auch nur in einem klitzekleinen Fenster – aber immerhin, in echt habe ich das nicht!

Und zum Glück sind schon neue technische Lösungen für dieses Problem in Sicht, zumindest gibt es bei Smartphones Entwicklungen hin zu einer unsichtbaren Selfie Cam direkt in der Mitte des Bildschirms.

Werbung


Kraft Computer Schmiede

ansonsten, gutes Gelingen – und immer an die Webcam denken!

und schau’ auch mal im shop vorbei:

max800words: original shirts for nerds

und weiter

Atomphysik für Nerds

Atomphysik für Nerds – 2307

Lesezeit 11 Minuten

1. Warum ich diese Zeilen hier verfasse? Nun: der Quantencomputer!

Die USA mit Google und Amazon, mehrere private Unternehmen – die Chinesen sowieso – arbeiten genau an dieser neuen Maschine – und selbst DE hat jetzt nochmal zwei Milliarden Eus an Fördergeldern rausgehauen, um hier nicht komplett jeden Anschluss zu verlieren.

Doch um was geht es? Ganz einfach: Aufgaben, an denen sich ein herkömmlicher Rechenknecht mehrere tausend Jahre die Chips heiß rechnen würde, erledigt diese neue Technologie in wenigen Sekunden!

Der Unterschied in der Rechenleistung zwischen einem Heim-PC und einem Quantencomputer ist dabei in etwa so groß wie der Unterschied zwischen einem Zeppelin und einem Hyperschall Jet – oder besser einer Saturn 5 Rakete!

Echtzeit Verkehrssimulation in großen Ballungsräumen, völlig neue Materialforschung oder medizinische Anwendungen und Simulationen, DNA Analyse, KI sowieso – mit Quantumcomputing alles jetzt kein Problem mehr.

Aber: Ein wirklich funktionierender Quantencomputer könnte allerdings auch jede komplexe kryptografische – auf Primzahlenzerlegung aufbauende – Verschlüsselung in wenigen Sekunden knacken! Alarm, sämtliche bisherige Datenverschlüsselung dieser Erde wäre sofort hinfällig! [Man munkelt übrigens, die drei Buchstaben Agentur hat so ein Ding schon lange im Keller stehen.]

Sicherlich kann es jetzt nun nicht schaden, hier einige physikalische Grundlagen und Theorien drauf zu haben, um im nächsten Gespräch mit Kollegen über diese Sache als Schlaubi Schlumpf dazustehen und Plan zu haben. Mega interessant und spannend ist es ohnehin – die Astrophysik mit ihrer komischen dunklen Materie und Energie kann dagegen einpacken – also auf zur Teilchenphysik und Atomtheorie.

Und weiter geht es im bunten Galopp – und vielleicht ist es jetzt an der Zeit, eine deutliche Warnung auszusprechen. Quantenphysik – also das Verhalten der aller kleinsten Teilchen – hat nichts, aber überhaupt nichts mehr mit unserer alltäglichen Erfahrungswelt zu tun und unser Hirn ist hier glatt überfordert!

Beschäftigt man sich zu lange damit, kann es passieren, dass man sich ganz schnell in einer dieser schicken weißen Jacken mit den zu langen Ärmeln, die man auf dem Rücken zusammenbinden kann, wiederfindet – auf zwei mal zwei Metern mit Wänden aus Gummi.

Dennoch ist die Quantenphysik, auch wenn wir sie mit unserem herkömmlichen Gehirn nicht mehr verstehen können, das Beste, was wir heute haben – ohne sie gäbe es keine Laser, keine bildgebenden Verfahren in der Medizin, keine Solarzellen und vieles mehr.

Zum Einstieg aber zuerst einmal etwas klassische Teilchenphysik:

Atomos, also das Unteilbare, nannten schon die alten Griechen in einem mehr philosophischen Ansatz die Urbausteine der Materie – Teilchenbeschleuniger und die Physik dazu gab es damals ja noch nicht.

 

2. Niels Bohr und die klassische Theorie

Erst Niels Bohr, dänischer und genialer Physiker 1885 – 1962, beschrieb den einsamen Lauf eines elektrisch negativ geladenen Elektrons in genau definierten Abständen, also Bahnen bzw. Schalen um seinen positiv geladenen Atomkern.

Very freaky stuff: Stelle dir jetzt nun ein Atom wie z.B. Wasserstoff als ein riesengroßes Fußballstadion vor, so zieht das Elektron seine einsamen Bahnen über die äußersten Besucherränge. Der Kern, also das Proton, liegt dann auf dem Anstoßpunkt in der Mitte des Spielfelds und hat die Größe eines Reiskorns, aber 99,5 Prozent der Masse des gesamten Atoms.

Chemische Bindung? Nach Bohr geht es ganz einfach um die äußerere Schale eines Atoms – die sogenannte Valenzschale – die immer mit Elektronen voll besetzt sein möchte bitteschön!

Sauerstoff z.B. hat jetzt allerdings nur sechs anstatt der nötigen acht Valenzelektronen zur vollen Besetzung in seiner äußeren Schale, und nun? Es teilt bzw. klaut sich halt die Elektronen zweier Wasserstoffatome, bindet diese damit an sich – und heraus kommt H2O, fertig! Kennen wir doch aus dem Chemieunterricht.

Negative und positive Ladungen ziehen sich gegenseitig an, einverstanden? Doch wieso stürzt jetzt nicht das negativ geladene Elektron in seinen positiv geladenen Kern, sondern zieht weiter unbeirrt seine Bahnen um diesen Kern?

3. Max Planck und das Quantum

Angefangen hat jetzt alles am Anfang des zwanzigsten Jahrhunderts mit Max Planck und der Spektralanalyse. Planck war damals ein noch eher unbedeutender Forscher in der damals noch eher unbedeutenden oder gar glorreichen theoretischen Physik und die Spektralanalyse ist gerade erst entdeckt worden – und war der neueste Hype!

In einem wenig spektakulären Experiment wollte Planck jetzt Strahlungsenergie genauer beobachten, erhitzte dazu einen Eisenklotz auf mehrere tausend Grad und beobachtete den Abkühlungsprozess eben dieses Klotzes mit dieser damals neuen und revolutionären Spektralanalyse.

Das Ergebnis daraus stürzte Planck in tiefe Depressionen – die Erklärung konnte letztendlich nur sein, dass die Energie im Abkühlungsprozess eben nicht gleichförmig wie in einer Gaußschen Glockenkurve, sondern in wohl definierten Paketen – eben in einem Quantum oder mehreren Quanten – abgegeben wird.

 

Flugs rechnete der Max aus seinen Daten noch das Plancksche Wirkungsquantum aus – die allerkleinste Wirkung bzw. Energiemenge, die es im Universum geben kann – formulierte noch die passende Gleichung dazu: E = h x f [Energie gleich Wirkungsquantum multipliziert mit der Frequenz] – und schon Stand die damalige Physik Kopf und der Grundstein der Quantenphysik war gelegt!

Albert Einstein stieg mit ein und konnte mit dieser neuen Theorie auf einmal seine völlig abstrusen experimentellen Ergebnisse zum photoelektrischen Effekt erklären und erhielt dafür 1921 den Nobelpreis – also nicht wie oft geglaubt für sein E = m x c² – und quasi von Planck geklaut.

Und es ging munter weiter mit Experimenten, dessen Ergebnisse völlig irre waren und die man sich damals noch überhaupt nicht erklären konnte.

Als nächstes berühmt wurde hier das Doppelspaltexperiment, was heute jeder halbwegs begabte Physiker mit entsprechendem Equipment nachbauen kann.

Schießt man nun ein Elektron auf ein Blech mit zwei Spalten, so sollte man meinen, das Elektron entscheidet sich für links oder rechts – tut es aber nicht, es geht durch beide Spalten gleichzeitig hindurch.

In der Auffangzone, heute sozusagen der Landing Page hinter dem Blech, bildet sich bei mehrfacher Wiederholung so etwas wie das Interferenzmuster einer Welle! Bisher war immer etwas eine Welle oder ein Teilchen – der Welle-Teilchen Dualismus eben – jetzt aber zeigte ein Teilchen, also das Elektron, eindeutige Welleneigenschaften!

OK, damit lässt sich jetzt wenigstens halbwegs verstehen, wieso das Elektron nicht in seinen Atomkern stürzt.

Erst Werner Heisenberg brachte dann 1927 wieder etwas Ruhe in diese ganze Aufregung, in dem er alle seltsamen Ergebnisse aus diesen seltsamen Experimenten zusammenführte und daraus seine Unschärferelation formulierte, die erste mathematische und fundamentale Grundlage der Quantenmechanik! Dafür gab es dann 1932 den Nobelpreis.

In dieser neuen Welt sind die Zustände der kleinsten Teilchen zunächst einmal unbestimmt. Man kann hier einfach nicht mehr zwei Eigenschaften eines Teilchen, wie z.B. Ort und Impuls gleichzeitig bestimmen, weil man schon allein durch die Messung der einen Eigenschaft die andere Eigenschaft beeinflusst.

Und weiter: Ein Elektron z.B. befindet sich jetzt nicht mehr an einem bestimmten Ort, sondern es gibt nur noch eine bestimmte Wahrscheinlichkeit, an dem sich dieses Elektron aufhalten könnte – sogenannte Orbitale. Chemische Bindungen entstehen jetzt durch Überlagerung dieser Orbitale.

Noch besser: ein Elektron kann auch an zwei verschiedenen Stellen gleichzeitig sein, z.B. gleichzeitig über und unter einem Benzolring, wirklich!

Noch mehr freaky stuff? Die Verschränkung!

Dieses Phänomen wurde zuerst nur in der Theorie vorhergesagt, mittlerweile gibt es aber tatsächlich experimentelle Ergebnisse aus irgendwelchen wilden Teilchenbeschleunigern, die die Richtigkeit dieser theoretischen Vorhersage zumindest Nahe legen.

Um was geht es? Ganz einfach, spiegelt man z.B. ein Photon – ein Lichtteilchen also – mit einer ganz raffinierten Optik, so kann man daraus zwei Photonen erzeugen und diese beiden Photonen sind jetzt miteinander verschränkt. Ändert man jetzt z.B. den Spin, also die Drehrichtung, des einen Photons, so nimmt der gespiegelte Gegenpart völlig ohne Zeitverzug eben diese neue Eigenschaft selbst an – auch wenn sich dieses gespiegelte Photon am anderen Ende des Universums befindet!

Informationsübertragung in Echtzeit über beliebige Entfernungen widerspricht jetzt allerdings der kosmischen Höchstgeschwindigkeit im Universum, der Lichtgeschwindigkeit. Albert Einstein fremdelte daher Anfangs mit dieser Aussage der Verschränkung und sprach, etwas spottend, von einer “spukhaften Fernwirkung”.

Ja, und so ging es dann immer weiter in der Teilchenphysik, die erste praktische Anwendung dieser Physik war dann leider die Atombombe mit Werner Heisenberg als geistigen Vater.

4. Und Heute

Aus heutiger Sicht waren diese Anfangszeiten der Teilchenphysik aber geradezu romantische Zeiten.

In der heutigen Teilchenphysik arbeiten internationale Forscherteams mit mehreren hundert Wissenschaftlern an Experimenten, um völlig abgefahrenen subatomaren Teilchen wie z.B. Neutrinos, Quarks, Bosonen und Higgs-Teilchen auf die Schliche zu kommen – freaky.

Wir haben heute unterirdische und ringförmige Teilchenbeschleuniger mit zwanzig Kilometer im Durchmesser, das LHC – Large Hadron Collider, in deren inneren Röhre absolutes Vakuum und fast absoluter Nullpunkt in der Temperatur herrscht – und in denen Teilchen gegenläufig auf fast Lichtgeschwindigkeit beschleunigt und zur gezielten Kollision gebracht werden können.

Ein Detektor so groß wie ein fünfstöckiges Haus – Stichwort ATLAS Detektor – misst dann, was genau bei dieser Kollision geschehen ist. Für Nerds: Das LHC ist für Kollisionen von 14 Teraelektronenvolt ausgelegt.

Kurze Story zwischendurch: Einmal lag diese LHC Maschine für mehrere Monate still, weil eine dieser tausenden Magnetspulen, mit denen Teilchen beschleunigt und gesteuert werden, ausgefallen ist. Jetzt einfach Deckel auf und neue Magnetspule rein geht nicht – das betroffene Segment musste erst mal über mehrere Monate von -270 Grad auf wieder halbwegs Zimmertemperatur herauf gekühlt werden!

Und weiter: Mit der anfallenden Datenmenge einer solchen Teilchenkollision sind dann aber erst mal richtig dicke – noch herkömmliche Supercomputer ein halbes Jahr beschäftigt, um dann auch nur ansatzweise zu verstehen, was da bei dieser Kollision passiert und entstanden ist.

Außerdem gehen die Kosten für eine solche Teilchenphysik mittlerweile in die Milliarden – Dollar oder Eus egal. Neue und noch größere Maschinen mit 52km Durchmesser sind bereits in Planung – die “Higgs-Fabrik“, in der eben diese gerade mal 2012 entdeckten Higgs-Teilchen, die der Materie ihre Masse verleihen, genauer untersucht werden sollen – und natürlich in China – Kostenpunkt drei Milliarden Dollars

So, genug der Theorie – ich denke, selbst nur die Hälfte von dem hier Geschriebenen lässt dich im Gespräch unter Kollegen fett punkten und dich ganz sicher als Schlaubi Schlumpf dastehen!

5. Der Zauberrechner

So, jetzt aber zum eigentlichen Thema: der Quantumcomputer!

Klar, ein herkömmlicher Rechenknecht rechnet mit Bits, also eins oder null, also Strom an oder aus – und das mittlerweile in einem völlig irren Takt. Der aktuell schnellste Supercomputer der Welt namens Summit – auch OLCF-4 genannt – schafft damit stolze 148,6 Petaflops, das heißt also knapp 149 Billiarden Kalkulationen pro Sekunde, Wahnsinn! Und außerdem kann man diese Dinger auch noch weltweit untereinander vernetzen.

Was kann ein Quantencomputer jetzt noch dagegen ausrichten?

Ganz einfach, ein solcher Computer rechnet jetzt nicht mehr mit Bits, sondern mit Quantum-Bits oder kurz QuBits!

Achtung! und jetzt alle gut festhalten – mein Gehirn macht auch gerade eine Rolle rückwärts:

– ein QuBit ist ein unbestimmter quantenmechanischer Zustand nach der Heisenbergschen Unschärferelation

– ein QuBit enthält gleichzeitig alle möglichen Werte zwischen Null und Eins

– ein QuBit enthält gleichzeitig alle möglichen Ergebnisse einer Berechnung!

Oder doch ganz einfach mit einer Münze erklärt, die zeigt jetzt mit Kopf oder Zahl nach oben. Wirft man diese Münze nach oben in einer Drehung, so kann man jetzt eben nicht mehr genau sagen, was gerade nach oben zeigt – beides, Kopf und Zahl halt gleichzeitig.

Puh, ist aber so und erklärt die enorme Rechenpower eines solchen Quantumcomputers!

In der praktischen Umsetzung ergeben sich jetzt aber gleich mehrere richtig heftige Probleme – wir sind hierzu und im Moment quasi noch in der Grundlagenforschung mit vielleicht gerade mal hundert QuBits, die aber auch nur ganz spezielle und maßgeschneiderte Aufgaben lösen können. Die Zerlegung der Zahl 15 als Ergebnis der Multiplikation ihrer Primzahlen 3 und 5 hat z.B. schon mal geklappt, immerhin.

Mit einem wirklich für alle möglichen Rechenaufgaben brauchbaren Quantumcomputer wird vielleicht in zehn oder fünfzehn Jahren gerechnet, oder leider noch länger wenn überhaupt.

Die Probleme gehen schon los mit der technischen Herstellung eines solchen unbestimmten Quantenzustands. Bauteile für eine solche Maschine kann man jetzt leider nicht bei ebay bestellen, die müssen extra berechnet, konstruiert und hergestellt werden.

Ein QuBit lässt sich jetzt ganz einfach – ha! – mit einem Ion bauen, also mit einem Atom, dem ein Elektron fehlt. Dieses Ion wird jetzt in einer Ionenfalle wie z.B. in einer Pauli-Falle [Wolfgang Pauli 1900-1958], oder auch Quadropol-Ionenfalle genannt, festgehalten.

Jetzt muss das Ganze nur noch im Vakuum auf nahe dem absoluten Nullpunkt heruntergekühlt werden – stabil gelagert und von sonstigem störenden Energieeintrag durch irgendwelche Strahlung von außen abgeschirmt sowieso.

Beschießt man jetzt dieses so gelagerte Ion mit einem über Zeit und Energie genau definierten Laserimpuls passiert Magisches!

Das QuBit geht für eine bestimmte Zeit – auch genannt Kohärenzzeit und bisher nur für wenige Millisekunden – in diese unbestimmte [wir haben eben aufgepasst?] Superposition zwischen Null und Eins über. Jetzt kann es ungestört mit anderen QuBits in einem Quantengitter vor sich hinrechnen – wie genau? da steige ich jetzt mal aus.

Das Problem besteht jetzt hier auf jeden Fall darin, diese Superposition solange aufrecht zu erhalten, bis alle Berechnungen durchgeführt sind – also die sogenannte Dekohärenz möglichst lange herauszuzögern.

Und das alles ist jetzt noch nicht das Ende der Probleme in der praktischen Umsetzung, weiter geht es mit Verfahren zur Fehlerkorrektur bis hin zu speziellen Algorithmen, mit denen eine solche Zaubermaschine dann rechnet. Ohne weitere Hilfe eines herkömmlichen Computers, eine Hybridlösung, wird es dann wohl auch weiterhin nicht gehen.

Letztendlich sieht es in diesem Quantencomputing in etwa so aus wie mit der klassischen EDV vielleicht in den 60er oder 70er Jahren. Selbst der Bordcomputer der Raumkapsel von Apollo 11, mit der doch tatsächlich Menschen zum Mond geflogen sind, hatte gerade mal die Rechenleistung eines etwas besseren Taschenrechners. Heute – nur wenige Jahrzehnte später – sind wir alle untereinander vernetzt und laufen mit kleinen – aus damaliger Sicht – Hochleistungscomputern am Ohr durch die Gegend.

 

Quantencomputer? Das wird schon! Übrigens gibt es bereits mit “IBM Q Systems One” den ersten, über die Cloud buchbaren Zaubercomputer mit immerhin schon 20 QuBits und 75 Mikrosekunden Kohärenzzeit – ab 50 Qubits wird übrigens mit Überlegenheit über jeden Supercomputer gerechnet.

 

Vielen Dank – BIG THX

 

Markus

Genial Schreiben – ja wirklich!

meine Leser, Kommentare und Diskussion

… oh no, nicht noch so ein schlaubi Schlumpf Motivationsgeschwafel und Ratgeber – egal, reinziehen und Lesezeit nur 3 Minuten! … wenn du lesen kannst

Ok, der Abgabetermin deiner Hausarbeit steht schon drohend und apokalyptisch vor der Tür – und wirft schon dunkle Schatten voraus?

Oder du musst im Job irgendeinen Report oder Dokumentation oder sonstigen Schwachsinn zu was auch immer dringend abliefern? [z.B. ‘mein Konzept nach ITIL zur E2E seamless Prozesskette im IT Sevice’]

what ever

Panik! – völlige Schreibblockade in deinem Brain und du weißt nicht, wie und vor allem wo anfangen? Nix, niente, nada … gähnende Leere im Brain – oder völliges Durcheinander und Konfusion [nein, nicht Kernfusion – das ist wieder was anderes, dann leuchtet es dir aus den Ohren]

Zuerst gilt es Ruhe zu bewahren, alles wird gut… und: ‘Der Gelassene ist immer erfolgreicher als der Getriebene!’ [Konfuzius]

Oder war es doch andersherum? ‘Der Erfolglose ist immer gelassener als der Erfolgreiche’ … egal

Versuche doch einfach mal folgendes Vorgehen und die strukturierte Methode mO mit erprobten HowTos zur Umsetzung – extra im Text fett markiert – und es läuft, garantiert!


Galerie-Nonfinito



puh … also erst mal wieder runterkommen und weiter:

1. Brainstorming

– zuerst einmal: nicht gleich an den Laptop – nimm dir erst einmal einen Block [ja genau, dieses komische Dings aus Papier und noch überall käuflich zu erwerben] und einen Kugelschreiber – old school

– jetzt überlege dir einfach, was du als Nächstes eigentlich schreiben willst – um was geht es als Nächstes?

– nimm dir dabei nicht zu viel vor, immer der Reihe nach – der Rest kommt schon noch

– Alles, was dir jetzt dazu einfällt, was du gelesen hast, was du zitieren willst und was unbedingt rein muss – aufschreiben, egal in welcher Reihenfolge – aufschreiben !!!

– in dieses Brainstorming kannst du auch noch Unterstreichungen, Nummerierung [wichtig=1 oder völlig unwichtig=5] oder Pfeile von einem Punkt zum Nächsten einbauen, um dir Zusammenhänge zwischen versch. Punkten besser zu visualisieren

– in etwa so – und tobe dich da richtig aus – je wilder desto besser – und schreie einfach mal deinen Kollegen, deinen Freund oder Freundin oder deine Mutter an … kannst dich nachher ja noch dafür entschuldigen … aber raus damit! [und vielleicht so schreiben, dass du es am nächsten Tag auch noch lesen kannst]

– und nehme dir Zeit dafür – das Ganze muss nicht auf einmal fertig werden – wenn dir später noch was einfällt, gut und immer rein damit!

2. Struktur und Konzept

– jetzt rupfe diesen Zettel raus aus dem Block und lege in neben eine leere Seite deines Blocks [dieses komische Dings aus Papier]

– versuche jetzt, dieses wilde Durcheinander in eine sinnvolle Reihenfolge oder Argumentationskette zu bekommen

– versuche einen gewissen Spannungsbogen aufzubauen, also den Leser erst mit allgemein Bekanntem abzuholen, um dann weiter und tiefer ins Thema einzusteigen

– versuche, Zusammenhänge zwischen den einzelnen Punkten herzustellen – durch Wiederholung oder Verweis auf vorherige Punkte, wiederhole Wichtiges – so wird das Ganze rund und geschmeidig für den Leser

– alle bereits ins Konzept übernommene und übertragene Punkte im Brainstorming Zettel dick durchstreichen, damit du den Überblick behältst

3. Text

– so, jetzt an die Tasten, an den Laptop und los

er dann und erst jetzt in aller Ruhe an sprachlichen Feinheiten und Formulierungen feilen

– keine kilometerlangen Bandwurmsätze schreiben – klar – aber auch nicht in den Schreibstil eines Viertklässlers verfallen!

– der Satzbau und Schreibstil sollte für den Leser schon herausfordernd sein und damit deine Souveränität im Umgang mit dem Thema ausdrücken

– nicht jeden Fachausdruck immer gleich erklären, sondern einfach mal so im Raum stehen lassen und weiterschreiben – und den Leser dumm dastehen lassen [Ok, nicht übertreiben damit!]

– denke auch immer an den Leser und die Zielgruppe, die du mit deiner Schreibe erreichen und begeistern möchtest – für wen schreibst du?

– was auch hilft: lese das, was du da gerade geschrieben hast, dir selbst einfach mal laut vor – oder aufnehmen und abspielen – ja wirklich! – und höre dir dann selbst zu – mal ausprobieren!

– zum Schluss – ok Geschmackssache: bleibe frech, provokant und crazy in deinem Style – der Leser muss sich min. zweimal pro Seite denken: ‘Nee, das hat der doch jetzt nicht wirklich geschrieben?’

– zum Schluss 2 – nicht, aber überhaupt nicht irgendwie politisch werden – das hat in einer seriösen wissenschaftlichen Arbeit nichts zu suchen – vielleicht auf fazebuk!

So verhinderst du Langeweile, eingeschlafene Füße und hältst den Leser wach und faszinierst am Ende mit deiner Schreibe!

4. Also

– erst Brainstorming und Gedanken sammeln – egal wie durcheinander – old school auf Papier, wichtig! … haptisches und sensorisches Erlebnis usw.

– dann dieses wilde Durcheinander irgendwie in eine Struktur oder Argumentationskette bringen

– dann erst den Laptop anmachen und an Sprache und Ausdruck feilen …

– und wenn überhaupt nichts mehr läuft: eine Runde Joggen oder spazieren gehen, um den Kopf wieder frei zu bekommen!

Sicher, das funktioniert … und los!


Azure – die Cloud Wundertüte von Microsoft – 1433

Lesezeit: vergnügliche 6 Minuten

1. Content

Tja, wo soll ich hier bloß anfangen? Festzuhalten ist erst einmal die allgemeine Aussage:

“Wir brauchen mehr Digitalisierung und KI, wir müssen in die Cloud und die Welt wird gut!” – in früheren Zeiten sagte man übrigens: “Oh Herr, wir brauchen ein Wunder!”.

Es ist wohl langsam an der Zeit, diesen Hype mal aufzurollen – und um dann in dem konkreten Beispiel MS Azure und Virtual Desktop zu münden.

Zum Thema KI mit Terminator und dem Aufstand der Maschinen oder mit Vollendung Beethovens 10. unvollendeter Sinfonie – weil vorher gestorben – durch KI folgt dann noch ein extra Beitrag, versprochen!

Werbung

2.Historisches

Alles begann eigentlich in der Computersteinzeit 1998 mit VMware und den beiden Informatikern Mendel Rosenblum und Diane Greene. Ziel war es, eine Technik zu entwickeln, um physische Computersysteme mit Hilfe von Software abzubilden und zu abstrahieren – also virtuelle Server oder eben VMs. Wieso? Die Hardware wurde immer leistungsfähiger und so ein richtig dicker physischer Server war mit nur einer einzelnen Datenbank nur noch gelangweilt.

Jetzt einfach alle DBs und Anwendungen eines Unternehmens auf einen einzelnen – oder auch mehrere – dicke Server zu packen, wäre zwar prinzipiell möglich, aber keine so gute Idee. Da beeinflusst sich dann irgendwas untereinander und gegenseitig, die Fehlersuche wird zur reinsten Katastrophe und Alptraum – und muss das dicke Ding mal neu gestartet werden, liegt gleich die ganze Firma lahm, nicht gut.

Also Hyperviser drauf, der dem OS und der DB einen Server vorgaukelt und die dicken Ressourcen an RAM und CPU einfach auf diese virtuellen Server verteilt bzw. zuteilt – so ein virtueller Server lässt sich dann auch prima mal neu starten, ohne gleich den ganzen Rest lahm zulegen.

Übrigens läuft auch eine Linux VM unter Windows problemlos auch auf einem völlig altersschwachen Laptop – naja, mit gewissen Reaktionszeiten und allzu eilig sollte es man auch nicht haben – aber einfach mal so zum ausprobieren.

3. The next Step

Jetzt treffen gleich zwei glorreiche Erkenntnisse aufeinander. Amazon erkannte 2002 das Problem eigener ungenutzter Serverkapazitäten in seinen Rechenzentren – also Leerlauf – und dachte sich: “Wieso diese eigentlich nicht verscherbeln – also verkaufen und zu Kohle machen?”.

Auf Anwender- bzw. Unternehmensseite bestand jetzt einer dieser neuen virtuellen Server nur noch aus einem .vmdk File und die Frage war: “Wieso die eigenen dicken Server im Keller noch selbst weiterbetreiben und nicht einfach zu Amazon schieben?”.

Kohle gespart, Amazon happy, eine Win Win Situation – alles gut!

Hier hat das Cloud Computing also seinen Anfang und nahm schließlich seinen Lauf. 

Nach Amazon mit seinem Elastic Cloud Computing EC2 und heute AWS kamen schließlich 2008 die Google Cloud und 2010 Microsoft mit Azure dazu. 

Ach so, und es gibt noch die interessanterweise sehr erfolgreiche Alibaba Cloud oder auch bekannt unter Aliyun – zwar in Singapur registriert – aber trotzdem möchte ich da nicht meine Daten oder Website ablegen, sonst stehen auf einmal noch komische Typen bei mir vor der Tür. 

Oder meine F&E Ergebnisse werden zur Beute des roten Drachen und irgendein dubioses Start-up bringt auf einmal ein Produkt auf den Markt, was technologisch genau auf meiner Entwicklung aufbaut – seltsam.

4. Heute

Diese genannten Cloud Services haben sich bis heute zu waren Ökosystemen im Computing weiterentwickelt und bieten – neben klassischen Storage und VMs – Services, Dienstleistungen, Apps und noch mehr an, die alles Bisherige umkrempeln und in Frage stellen. Alleine die MS Azure Cloud besteht aus mittlerweile 17000! zertifizierten Apps und Diensten und es gibt nichts, was man da bei MS nicht buchen könnte!

Einen kurzen und unterhaltsamen Überblick liefert die Azure Startseite:

https://azure.microsoft.com/de-de/services/

Beispiel gefällig? Programming! Herkömmliche Anwendungen wurden einmal programmiert, sind monolithisch, in Stein gemeiselt und lassen sich nur schwer ändern. Heutige Anwendungen dagegen bestehen aus zugebuchten Services – Stichwort Cloud native Programming und MicroServices – und bieten neue Möglichkeiten hinsichtlich Sicherheit und Skalierbarkeit.

Evtl. erscheint es sinnvoll, eine Ein- und Ausgabe Warteschlange – eine Queue – vom Rest der Applikation zu trennen. Läuft diese Warteschlange jetzt über – Stichwort DDoS Attacke oder verteilter Dienstverweigerungsangriff, so reißt das nicht gleich die gesamte Applikation mit in den Abgrund. Dazu bietet alleine Azure eine Reihe von fünf Services zur Queue Verwaltung mit unterschiedlichen Schwerpunkten und zur Entkoppelung bzw. Elastizität einer Anwendung: 

Azure Event Grid, Azure Event Hubs, Azure Service Bus, Azure Notification Hubs und Azure Queue Store … hier steige ich jetzt aber aus, wer sich mehr davon geben möchte gerne unter: 

Noch mehr? Gerne – Datenbanken!

Wählen Sie zwischen vollständig verwalteten relationalen, NoSQL- und In-Memory-Datenbanken, für die proprietäre sowie Open-Source-Engines zur Verfügung stehen. Fokussieren Sie sich auf die Erstellung innovativer Anwendungen, und profitieren Sie von den Vereinfachungen, die Ihnen Azure dabei bietet. Vollständig verwaltete Datenbanken automatisieren Aufgaben wie das Konfigurieren und Verwalten der Hochverfügbarkeit, der Notfallwiederherstellung sowie von Sicherungen und der regionsübergreifenden Datenreplikation, wodurch Sie Zeit und Geld sparen können.

Und weiter im bunten Galopp:

Profitieren Sie von fortschrittlichen Sicherheitsfunktionen, der Auswahlmöglichkeit zwischen Hochverfügbarkeit in derselben Zone oder mit Zonenredundanz und einer SLA (Vereinbarung zum Servicelevel) von bis zu 99,99 Prozent. In diesem Migrationsleitfaden erfahren Sie, wie Sie Ihre lokale MySQL-Datenbank zu Azure migrieren.

Yo Bro and Sis … yes, was rauchen die da eigentlich bei MS? Das Zeugs hätte ich auch gerne … take this:

So geht es weiter z.B. mit Services zu Sicherheit und Zugriffskontrolle – dem Azure Active Directory, zu Migration von on premise in die Cloud, zu Verwaltung und Governance bis hin zu KI und Machine Learning – Azure Bot Service für die Kundenkommunikation. Und schon sind wir wieder bei Terminator und dem Aufstand der Maschinen.

Werbung

5. Azure Virtual Desktop

Doch jetzt zum eigentlichen Thema: Azure oder Windows Virtual Desktop WVM und Cloud basiertes Deployment von Arbeitsplätzen, die eigentlich logische Weiterentwicklung von virtuellen Servern!

Wow, aber eigentlich ein schon sehr alter Hut, sorry. An die etwas Älteren unter uns: wir erinnern uns noch an Citrix und Thin Clients? – und an die Jüngeren unter uns: schon mal gehört? Genau! Damals kostete Hardware noch richtig Kohle und man setzte eben nur einfache Geräte zur Ein- und Ausgabe ein – quasi nur Bildschirm und Tastatur, während der eigentliche Desktop auf dem Server im Keller lief. Oder es bestanden Zutrittsbeschränkungen wie z.B. Reinraum in Pharmaunternehmen und der Admin konnte da nicht einfach so mal reinhuschen und nachschauen oder was richten.

Und überhaupt wiederholt sich die IT immer wieder mit eigentlich uralten Konzepten nur unter neuen hypen Namen – nur so mal am Rande.

Egal, das Konzept bietet schon neben den ganzen Cloud Vorteilen wie Kostenreduzierung und Sicherheit durch einen großen Anbieter weitere Vorteile – auch wenn facebook da gerade failed.

  • im Büro: Laptop einfach zuklappen und dann Zuhause im HomeOffice eigenen Laptop wieder an – und genau an der Excel Tapete oder Powerpoint weitermachen, an der man vorher gearbeitet hat … schon cool

  • leistungsstarke CPU, Graphikkarte, Arbeitsspeicher? Egal – brauchen nur noch Gamer, der Desktop läuft auf jedem Ausgabegerät, egal ob Laptop, Tablet oder Smartphone

  • Sicherheit: der Anbieter – also hier MS – kümmert sich um die Sicherheit seiner Rechenzentren, z.B. DDoS Abwehr und damit um die Sicherheit der Nutzerdaten. MS betreibt deshalb sogar ein Rechenzentrum für DE genau in Frankfurt – wobei es dem Hacker von Büro 121 ziemlich egal sein wird, wo der Server denn jetzt im Netz hängt

  • Kosten: na klar – alles genau kalkulierbar und bitte an MS zahlen. Keine dubiosen und unfähigen Dienstleister mit völlig überhöhten Forderungen mehr

  • Skalierbarkeit: Das eigene Forschungs- oder Entwicklungsprojekt braucht auf einmal mehr Rechenleistung, es besteht höherer Workload wegen neuen notwendigen Simulationen? Dazu buchen – no problem!

Werbung:

Zum Schluss und Ausblick

Puh, erst mal wieder runterkommen! Klar, jeder neue Weg zeigt erstmal tausend neue Fragen auf.

Vor allem drängt sich hier die Frage zu Hyprid Cloud Lösungen auf: wie z.B. geht das Ganze mit on premise und Cloud zusammen? Lokales AD mit Azure Directory Services spiegeln? DBs von der Public in die Private Cloud spiegeln? 

Nicht zu vergessen: es braucht immer eine richtig fette Mbit Internetverbindung – hat der Bagger auf der Nachbarbaustelle mal das Kabel gekappt, ist es aus und vorbei!

Das neue Stichwort heißt deshalb Hybrid Cloud, von beiderlei Wesen, also eine Mischung zwischen on- und offline, damit in einem solchen Ernstfall wenigstens das Wichtigste noch läuft.

Und weiter geht es mit Security, Datenschutz und DSGVO, ISO 27001, Tracking oder Sicherheit vor Manipulation durch den Big Player, whatever … wir erinnern uns an Alibaba Cloud … und das sind nur einige der vielen weiteren Fragen, die in einer konkreten Strategie dediziert aufgearbeitet und immer wieder hinterfragt und angepasst werden müssen … sonst wird das nix!

Und ganz zum Schluss nochmal kurz zurück zum Machine Learning, IoT und Predictive Maintenance Lösungen mit Azure … Windräder! Ja wirklich Windräder! Die haben doch tatsächlich mechanische Getriebe und die gehen schon mal kaputt … schwer zu erreichen und zu reparieren, da in zig hundert Metern Höhe eingebaut. Jetzt versieht man ein solches Getriebe einfach mit Sensoren, die den Lauf und die Vibrationen eines solchen Getriebes messen und kann dann vorhersagen – also predictive – ob, wann und welches Bauteil dieses Getriebes als nächstes denn Geist aufgibt. Und eben schon mal Ersatzteile, Kran oder gleich Helikopter vorbestellen und alles vorbereiten … prima, läuft!

Egal, wir Tekkies zusammen rocken das Ding und werden unseren heutigen Planeten zu einem besseren Ort machen, ganz sicher!

Werbung:

KPIs und SLAs in der IT auf den Punkt! – 529

the mindblowing ai art gallery - visit: nextgen-art.com

Lesezeit 3 Minuten

„Do you see difficulties in every new opportunity or opportunities in every new difficulty?“

Content:

Besonders hohe Bedeutung für ein effizientes IT-Controlling spielen Key Performance Indicators und Service Level Agreements – die eben – wie der Name schon sagt – Leistungen und Services sichtbar, quantitativ fassbar und dadurch letztendlich bewertbar machen sollen.

Kurz zum Unterschied: KPIs kommen mehr intern zum Einsatz und bewerten z.B die Leistung des Service Desk oder die Performance eines Projekts, SLAs finden dagegen zumeist in der Bewertung der Leistung eines externen Dienstleisters ihren Einsatz und regeln darüber hinaus auch noch weitere Aspekte wie Definition von Art und Umfang der Serviceerbringung oder auch strategische Aspekte wie z.B. langfristig geplanter Ausbau der IT Infrastruktur.

So weit, so gut – doch jetzt zum eigentlichen Problem:

KPIs und SLAs sind zunächst einmal Indikatoren, die die Realität in Zahlen fassen – statistische Kenngrößen wie z.B. eben der Mittelwert, Prozentangaben oder absolute Zahlen.

Zahlen sind immer gut, gerade in der IT – Zahlen sind objektiv und unbestechlich – wir lieben Zahlen und wir glauben an Zahlen!

Aber stimmt das wirklich???

Werbung

Tasten wir uns an das Problem heran mit dem klassischen Beispiel über die Aussagekraft eines Mittelwertes:

Mit meiner linken Hand fasse ich in das Gefrierfach meines Kühlschranks mit -30 Grad, die Rechte lege ich auf eine Herdplatte mit 100 Grad – ergibt einen Mittelwert von 35 Grad [(100-30)/2], also alles in bester Ordnung!

Und so geht es in der Welt der IT mit diesen bunten KPIs und SLAs munter weiter.

Mittelwert:

Ein beliebtes Beispiel: ein externer Dienstleister garantiert eine mittlere Reaktionszeit von 1,5 Stunden und die monatliche Auswertung ergibt auch exakt diesen Wert – alles prima! Bei genauerer Betrachtung hat dieser Dienstleister aber in einigen Fällen schon nach 10 Minuten zurückgerufen, manchmal aber auch erst am nächsten Tag – Gefrierfach und Herdplatte eben.

Was ist hier passiert? Der absolute Mittelwert hat ohne ergänzende Angaben zur Range keinerlei Aussagekraft – oder man nimmt gleich den Median – alle Werte werden ihrer Ausprägung nach sortiert und der Median gibt dann den 50 Prozent Schnitt an.

Prozentangaben:

Ein weiteres beliebtes Beispiel: da garantiert z.B. ein externer Dienstleister eine Serververfügbarkeit von 99 Prozent – wow, das sieht klasse aus!

Kurz den Taschenrechner bemüht ergibt das aber einen Ausfall von 87.6 Stunden über das ganze Jahr gerechnet [(365×24)x0,01] und sieht – so betrachtet – nun nicht mehr wirklich toll aus – für einen Webshopbetreiber völlig inakzeptabel.

Was ist hier passiert? Nun, der Indikator und die Messgröße wurden falsch gewählt! Nicht die garantierte Laufzeit, sondern die maximale Ausfallzeit ist entscheidend – und dann bitte in Stunden oder Tagen und nicht in Prozent – glatter Fall von Augenwischerei.

Absolute Anzahl:

Alarm im Service Desk! Die Anzahl ungelöster Tickets im System ist in der letzten Woche rasant angestiegen! Doch bei genauerer Betrachtung ergibt sich: alles nur völlig unwichtige Prio 4 Tickets – also Incidents, die niemanden wirklich stören oder von der Arbeit abhalten – halt nur etwas nervig.

Was ist hier passiert? Selbst absolute – scheinbar objektive – Zahlenwerte müssen stets hinterfragt und mit zusätzlichen qualitativen Informationen hinterlegt und untermauert werden, bevor es zu einer Bewertung der Situation kommen kann.

Fazit:

Ganz einfach: genau hinsehen, hinterfragen, nochmals hinterfragen:

“Was sagt mir diese Kennzahl jetzt genau?”

Und vor allem einen anderen Blickwinkel einnehmen – und schon gar nicht an Zahlen glauben!

Werbung

the nextGen IT – 522

„Do you see difficulties in every new opportunity or opportunities in every new difficulty?“

Lesezeit 4 Minuten

um es gleich auf den Punkt zu bringen:

der Informations- und Kommunikationstechnologie kommt in heutigen Unternehmen ohne Zweifel eine überragende Rolle hinsichtlich Innovation und Wettbewerbsfähigkeit zu und diese Bedeutung wächst stetig. 

Doch wie muss eine typische IT-Abteilung im Unternehmen heute aufgestellt sein, um dieser Rolle voll und ganz gerecht zu werden?

Hier gibt es neue Ansätze!

1. Daily Business

Zunächst einmal sollte die IT im Unternehmen im Tagesgeschäft völlig geräuschlos und im Hintergrund laufen. Die originäre Aufgabe hier besteht darin, alle Systeme optimal am Laufen zu halten und den Anwender mit seinen Fragen zusätzlich perfekt zu unterstützen und mit einem Lächeln im Gesicht zu hinterlassen. 

Zentraler Bestandteil ist natürlich ein schlagkräftiger Service Desk, der am besten eine über 100 Prozent Erstlösungsquote aufweisen kann.

Mit Auswertung von Zahlen aus der Vergangenheit, mit Definition von prädiktiven Kennzahlen und Einsatz von KI [python] sowie mit ständigem Testen von typischen Anwendungsszenarien können hier mögliche Software- oder Userfehler schon im Vorfeld ermittelt werden – also noch bevor sie auftreten – und entsprechend proaktiv darauf reagiert werden.

Weiter muss der Service Desk entsprechend qualitativ und quantitativ aufgestellt sein, sollte trotz allem dennoch mal ein Fehler durchdringen. 

Als simples Beispiel lässt sich etwa das zu erwartende Anrufaufkommen an einem bestimmten Wochentag – vormittags oder nachmittags – durch Auswertung von Vergangenheitsdaten ermitteln und die Hotline entsprechend besetzen – kein Anwender hängt gerne stundenlang in der Warteschleife.

Generelle Zielsetzung im daily Business muss eine positive und durch Kommunikation und Kooperation geprägte UX sein.

Werbung

2. Wertschöpfungsbeitrag

Generell läuft es heute immer noch so: die Fachabteilung kommt mit einer bestimmten Anforderung auf die IT zu, die IT ermittelt und sagt geht nicht oder geht doch und setzt dann diese konkrete Anforderung der Fachabteilung um.

Die Stoßrichtung hier muss jedoch eine Andere sein, da die Fachabteilung sowieso oftmals keine Ahnung hat. Vielmehr ist es Aufgabe der IT, neue technische Möglichkeiten und Trends hinsichtlich Mehrwert für das Unternehmen unter Beachtung von Compliance, Budget und Risikoabschätzung zu bewerten und für einen möglichen Einsatz im Unternehmen zu evaluieren.

In diesem strategischen Ansatz nimmt die IT nicht mehr die typische reaktive Position ein, sondern geht proaktiv und mit konkreten Vorschlägen auf die Fachabteilung zu. Die IT selbst wird zur aktiven und treibenden Kraft in der Weiterentwicklung der Infrastruktur, der Prozesse und Services und trägt so – im Rahmen der Unternehmensstrategie – proaktiv zur Steigerung der Wertschöpfung und Wettbewerbsfähigkeit des Unternehmens bei.

Werbung

3. Perspektive

Um der oben beschriebenen Aufgabe gerecht zu werden, muss die IT-Abteilung natürlich ihren heilen rosaroten Technikplaneten verlassen und auch andere Perspektiven einnehmen – so gibt es vielleicht neue technische Lösungen, allerdings recht teuer und der Verantwortliche im Controlling bekommt gleich einen Herzkasper. Oder es gibt faszinierende neue technische Lösungen, die in der Praxis jedoch nur wenig verändern und nur echte ITler begeistern können.

Ohne Zweifel, die Sachlage verkompliziert sich erheblich, sobald man seinen heilen rosaroten Technikplaneten verlässt. Bevor man sich jetzt in dem Dickicht und Details aus Strategie, Budget, Risiko und sonstigem völlig verirrt, gibt es eine einfache Lösung und Orientierung – die simple Frage: „was hat der Anwender bzw. Kunde oder das Unternehmen letztendlich davon?“

Eine solche komplexitätsreduzierende und einfache Metaperspektive hilft hier ohne Zweifel weiter!

Werbung

Digital 2020? – 837

Werbung

Lesezeit 4 Minuten

Digital 2020? Kurze Einordnung und eine Studie der Unternehmensberatung Kearney – 837

Schöne neue Welt! Da reibt man sich doch nur noch völlig verwundert die Augen und wähnt sich gleich im Jahr 2035:

 

Die Chinesen sind auf dem Mond gelandet, sammeln dort Steine ein und bringen diese auch noch auf die Erde zurück [vorerst noch unbemannt] – und sind auch schon auf dem Mars gelandet [vorerst ohne Steine zurück zu bringen und nur mit Raumsonde]!

Und die EU will den Hyperscalern wie AWS [schon seit 2006], Azure oder Google Cloud [beide 2010] mit GAIA-X Konkurrenz machen und damit zu einem besonders sicheren und vertrauenswürdigen, vor bösen Mächten geschützten, Technologie- und Datenknoten weltweit aufsteigen.

Weiter ist 5G und IoT in aller Munde – vollständig autonomes Fahren sowieso – und – etwas weniger dramatisch – endlich hat sich Home Office durchgesetzt, wir skypen und zoomen nur noch mit unseren Colegas. 

Sogar an Schulen gibt es endlich Tablets und digitale Lernplattformen.

 

Und sogar meine Steuererklärung kann ich mittlerweile digital über das Netz einreichen und von Dokumenten auf Papier wird explizit abgeraten. Hui!

 

Aber stimmt das alles wirklich? Wie sieht die digitale Realität 2020 wirklich aus?

Nun, EU GAIA-X scheitert wohl an nationalen Interessen und Datenschutzbestimmungen – schöne Grüße von der DSGVO – und zusätzlich befremdlich erscheint, dass auch Alibaba und Huawei – sicher auf völlig korrekten Ausschreibungswegen – zu den Gründungsunternehmen dieser besonders vertrauenswürdigen und sicheren EU Datenwolke gehören.

5G wird wohl nur in einzelnen Campus Hotspots als Ergänzung zum WLAN umgesetzt und es gibt immer noch Funklöcher [!], also nix Empfang, gar Nichts – und damit hat sich wohl auch IoT erledigt, wobei auch hier niemand genau weiß, was das denn sein soll – typisches Buzzword.

Mein Fitnessarmband und TV mit Netflix im WLAN reichen mir völlig und mein Kühlschrank soll bitte auch nichts völlig von alleine nachbestellen, das bekomme ich gerade so noch selbst hin – auch wenn ich mich dafür von meinem Laptop verabschieden und vor die Tür muss – grrrr.

 

Vom vollständig autonomen Fahren haben sich mittlerweile auch alle Automobilhersteller wieder verabschiedet – selbst Tesla – man freut sich ja schon, wenn das eigene Kfz im Stau selbständig bremst und wieder anfährt und halbwegs die Spur hält, nur in Baustellen bei gelben Fahrbahnmarkierungen halt nicht.

 

Naja, wenigstens Videochat funktioniert, wenn auch ohne die sonst so wichtigen sozialen und informellen Informationskanäle in der Kaffeeküche – und Schulen bekommen gleich 100 Eus pro Tablet, aber wie soll damit bitteschön die minderbemittelte Familie ihrem Knirps oder gleich mehreren ein Tablet damit bezahlen? Aldi?

 

Und meine voll digitale Steuererklärung ist auch raus – aber auch hier musste ich zuerst einen supergeheimen PIN Code beantragen, der mir dann per Post und berittenem Boten auf Papier zugestellt wurde. Prima!

Werbung

So, jetzt zur eigentlich wichtigen Betrachtung der deutschen Unternehmenslandschaft, hierzu gibt es eine interessante Studie der Unternehmensberatung Kearney mit dem Ergebnis:

 

Den deutschen Unternehmen fehlt der Mut bei der Digitalisierung und Transformation!

 

Kearney unterscheidet die befragten Unternehmen dabei in:

 

“digitale Verweigerer”:

Ja klar, ein Bekleidungshaus mit 175 Jahren Familientradition wird ihrer im Durchschnitt 85 Jahre alten Stammkundschaft keine neuen digital Paymentfunktionen via Smartphone anbieten. Hier liegen die Probleme tiefer.

 

“digital Klagende”:

Auch klar, habe ich ein Unternehmen irgendwo am Ende eines Industriegebiets und irgendwo im Osten, dann freue ich mich überhaupt über eine Internetverbindung – an Cloud mit großen Datenmengen ist hier gar nicht zu denken, lieber den eigenen Server im Keller weiter laufen lassen.

Zudem gibt es Fragen zum Datenschutz, personenbezogene Daten sollten doch besser auf Servern mit Standort D gespeichert werden – die Telekom Cloud mit eben diesen Standorten ist leider gescheitert und auch dem nordkoreanischen Hacker von Büro 121 ist es sowieso völlig egal, wo denn der Server jetzt im Netz hängt.

 

“risikoscheue Standard Digitalisierer 40%”:

Man muss eben mitmachen, irgendwie. Immer mehr Lieferanten und Kunden fordern eine digitale und voll integrierte E2E Lieferkette.

Vom eigentlichen Ziel der Digitalisierung – der Weitblick, Zielsetzung und Priorisierung – fehlt jedoch jede Spur.

 

“nicht disruptive Digitalisierer”:

Die neuen digitalen Potenziale sind wohl erkannt, dennoch möchte man sich vom bisherigen und Umsatz bringenden Geschäftsmodell nicht verabschieden – bitte keine Veränderung!

Auch hier fehlt oft Mut, eine langfristige Zielsetzung und klare Priorisierung – auf Digitalisierung muss aber konsequenterweise auch Transformation folgen.

 

“ambitionierte digital Getriebene”:

Digitalisierung und Potential sind vollständig erkannt, aber gut gemeint ist nicht immer gut gemacht.

Mut ist vorhanden, aber auch hier fehlt oft langfristige Zielsetzung und klare Priorisierung.

 

So weit, so gut …

 

Organisationale Ambidextrie [Beidhändigkeit] heißt jetzt hier das neue Zauberwort und wird zum zeitgemäßen Modell im Rahmen des Digital Leaderships, Exploitation und Exploration!

Bestehendes optimieren und Neues erkunden – Effizienz und Innovation gleichzeitig vorantreiben und zusammenbringen – das wird zur Ausschlag gebenden Bedeutung in diesem Zusammenhang und in der aktuellen Situation.

 

 

Werbung

Soweit zum Thema “Digitalisierung und digitale Transformation 2020?” – spannend – und ich möchte mich gerne weiter mit diesem dringenden und wichtigem Thema befassen.

 

Weiteres auf Anfrage,

 

Vielen Dank für Deine Zeit / Kind regards – und ich hoffe etwas unterhalten zu haben