KI und das Schreckgespenst Bias

Künstliche Intelligenz? Ja genau, der nächste billionenschwere Hype, die Lösung für alle Probleme jedes Unternehmens und der Menschheit überhaupt. Der Drops mit Digitalisierung und Transformation ist schon lange gelutscht, sorgt gelegentlich noch für etwas Aufregung.

Aber bei dem Begriff KI läuft es einem immer noch leicht über den Rücken – man denkt unweigerlich an den Film Terminator und der Aufstand der Maschinen‘. Wie wohl bekannt, haben diese irgendwann einmal beschlossen, die Menschheit sei überflüssig und sogar gefährlich für den Planeten – und haben die Menschheit deshalb ausgerottet. Naja, nicht ganz, sonst wäre der Film ja schon nach fünf Minuten zu Ende und es gäbe nichts Weiteres zu erzählen.

Aber erst einmal Entwarnung: heutige KI-Systeme sind von echter Intelligenz – wenn es sowas geben sollte – in etwa so weit entfernt wie das Brain einer Stubenfliege von Albert Einstein. Aber man weiß ja nie, wie schnell sich dieses Computerzeugs entwickelt …

1. das Problem

Nehmen wir doch mal meinen uralten Texas Instruments TI-30 von damals. Dort tippe ich eine beliebig hohe 5-stellige Zahl ein und ziehe davon per Subtraktion jetzt irgendetwas ab. Einfach – und auf das Ergebnis des TI kann ich mich zu 100 Prozent verlassen.

Jetzt ins nächste Jahrhundert und zu einem Vergleichsportal im Internet. Dort frage ich z.B. die günstigsten Angebote für einen Kredit ab und bekomme das Ergebnis im Vergleich von 100 Banken in richtiger Reihenfolge angezeigt. Jetzt ist es aber an mir zu entscheiden – gibt es evtl. irgendwelche Zusatzfeatures wie Ratenpause oder ist mir eine bestimmte Bank besonders sympathisch? Ich entscheide!  

Und jetzt genau hier kommt das eigentliche Problem mit KI-Systemen – die KI entscheidet! Das Problem: ist das Ergebnis, was die KI ermittelt hat überhaupt richtig? Und ist die Entscheidung, die KI auf dieser Basis getroffen hat, überhaupt richtig? Und wie können wir das überhaupt feststellen?

Ok, das Problem ist jetzt noch etwas abstrakt und schwirrt so in der Luft. Also ein Beispiel: ein großer Konzern erhält pro Jahr mehrere zehntausende Bewerbungen auf alle möglichen Stellen. Um jetzt die HR [Personalabteilung] zu entlasten, wird ein KI basiertes System eingeführt, was schon mal im Vorwege völlig ungeeignete Bewerber für eine bestimmte Stelle anhand von Lebenslauf und anhand von Vergleichen mit der Besetzung ähnlicher Positionen herausfiltern soll – prima, läuft!

Jetzt wird eine höhere Management- oder Abteilungsleiterposition neu ausgeschrieben, viele Bewerbungen gehen ein und das KI-System schlägt auf einmal nur noch männliche, weiße und Ü40 Bewerber vor – nix mehr mit weiblich, mit Migrationshintergrund und jünger, obwohl fachlich durchaus erfahren, geeignet und wertvoll für das Unternehmen??

Und es kommt noch schlimmer, es stellen sich auch ethische Fragen! In KI-basierten Systemen im Gesundheitsbereich können Krankheitsdiagnosesysteme z.B. in der Radiologie bestimmte Muster im Gewebe und damit Tumore schon im Frühstadium erkennen oder auch nicht – und entscheiden somit … über Leben und Tod!

Ok, jetzt nicht mal so schwarzmalen und einfach mal den gesunden Menschenverstand gegen den Rechenknecht einsetzen. Aber dennoch wird mit KI eindeutig eine rote Linie überschritten und die grundsätzliche Frage lautet: wie erkennen, kontrollieren oder besser wie verhindern man diesen Bias in der KI?

2. der Bias

So what? Der Begriff kommt aus der Psychologie oder genauer Verhaltenspsychologie und bezeichnet das Phänomen einer Verzerrung – in einer Umfrage kann durch gezielte suggestive Fragestellungen zu einer bestimmen Aussage hingeführt oder gezwungen werden, um damit bewusst oder unbewusst ein bestimmtes gewünschtes Umfrageergebnis zu erzielen.

Wie antworten wie auf eine Frage? Nun, zuerst ist da mal unsere Erfahrung, die wir in unserem Leben bisher gesammelt haben – verabschiede dich von der Mär objektiver Erfahrungen – Wahrnehmung ist immer subjektiv, selektiv und aktiv. Diese Erfahrungen sind unsere Datenbasis!

Und weiter? Nun, jetzt kommt es auf die Fragestellung an. Enthält die Fragestellung z.B. durch bestimmte Formulierung eine Wertung in die eine oder andere Richtung? Bin ich dadurch vielleicht gleich einverstanden mit der einen oder anderen Aussage? Diese Fragestellungen ist die Programmierung!

[und selbst ich als rein logisch denkender Vulkanier falle darauf gelegentlich immer noch rein]

Und genau so funktionieren auch KI basierte Systeme und genau hier liegen die Ansatzpunkte zu Optimierung und Kontrolle!

Datenbasis und Programmierung!

3. overfitted oder underfitted – Bias, Varianz und die ground line

What the hell? Wir bleiben erst einmal bei der Datenbasis, der Erfahrung eines KI-Systems und Basis der Entscheidungsfindung. 

Klar, ein solches System muss mit Daten ‚gefüttert‘ werden – z.B. mit Bildern eines sich anbahnenden Krebsgeschwürs in der Radiologie oder – weniger dramatisch – mit den typischen Merkmalen der Besetzung einer bestimmten Stelle für Personalentscheidungen.

Doch was passiert, wenn der Rechenknecht mit zu vielen Daten zur Mustererkennung gefüttert wird – overfitted? Wir erinnern uns, das Personalsystem schlägt auf einmal nur noch männliche Bewerber und Ü40 ohne Migrationshintergrund vor. Eben statistische Verzerrung oder Bias.

Und umgekehrt, was passiert, wenn der Rechenknecht mit zu wenigen Daten zur Mustererkennung gefüttert wird – underfitted? Klar, jetzt kommt bei jeder Abfrage alles Mögliche und nur keine klare Aussage raus. Eben Varianz oder völlige Uneindeutigkeit.

Und jetzt noch einmal ein kurzer philosophischer Schwenk: die echte und einzige Wahrheit gibt es natürlich nicht – man kann nur versuchen, sich einer von allen Seiten akzeptierten ground line anzunähern und die Datenbasis auf overfitted oder underfitted hin zu untersuchen und zu optimieren.

Im Personalsystem lässt man z.B. einfach die Angaben zu Geschlecht, Alter oder sonstige diffamierende Daten außen vor – was aber letztendlich noch nicht vollständig garantiert, dass die KI und der Algorithmus in dieser Hinsicht nicht doch noch etwas ausknobelt. 

4. die Abfrage

Und weiter im bunten Galopp, nachdem die Frage zur Datenbasis geklärt scheint. Und ebenso klar, selbst die dickste SQL Datenbank ist noch keine KI und liefert irgendwelche Mustererkennung oder Entscheidungen, dazu bedarf es jetzt schlauer Programmierung.

… Fortsetzung folgt!

Erfolg im Anwendersupport – auf den Punkt! – 676

Lesezeit 5 Minuten

 

Werbung

um es gleich auf den Punkt zu bringen

Abseits von ausgefeilter strategischer Ausrichtung, Prozessdesign und raffinierter Implementierung gibt es vier einfache Punkte, die den Anwendersupport in der Praxis sofort erfolgreich machen und eine positive UX gewährleisten … ja wirklich:

Kommunikation, Priorisierung, Kennzahlen und Dokumentation.

1. Kommunikation:

Gerade das Vermitteln von komplexen Inhalten stellt im Support immer wieder eine besondere Herausforderung dar – gilt es doch, eine zielgruppengerechte Ansprache zu finden und den Anwender einzubinden und abzuholen.

Schließlich macht es schon einen großen Unterschied, ob ich mich mit einem Azubi, digital native und mit social media aufgewachsen, unterhalte – oder mit der etwas älteren Dame aus der Buchhaltung, die mit diesem ganzen Computerkrams sowieso auf Kriegsfuß steht.

Im reinen Telefonsupport kommen zusätzliche Herausforderungen hinzu.

Da gibt es zuerst den kooperativen und folgsamen Anwender, der eben genau meinen telefonischen Anweisungen folgt – den etwas hektischen Anwender, hin und wieder zwei Klicks voraus, den man deshalb etwas einbremsen muss mit dem Hinweis, doch bitte genau meinen Anweisungen zu folgen – und dann gibt es noch den chaotischen Anwender, der überall panisch draufklickt und bei dem ein reiner telefonischer Support nicht mehr funktioniert. Hier geht dann nur noch Teamviewer und den Desktop übernehmen oder – wen möglich und besser – gleich persönlich vorbei schauen.

Grundsätzliche wichtige Eigenschaften im Support sind vor allem Coolnes und buddhistische Gelassenheit – und die Fähigkeit, auch deeskalierend einwirken zu können, um einen aufgebrachten Anwender sachlich aber bestimmt wieder auf den Teppich zu bringen – bis zu einem gewissen Punkt, Hanswurst lasse ich natürlich nicht mit mir machen.

Übrigens kann man auch hinter Corona Maske oder am Telefon ein Lächeln erkennen – an den Augen und der Stimme!

Werbung

2. Priorisierung:

Ein alter Hut – jedes Ticket, Störung oder Incident muss zuerst einmal klar und nach definierten Kriterien eingeordnet werden – und zwar nach Anzahl der betroffenen User [affected user] und nach Art der Störung [incident].

Ist jetzt z.B. ein major service wie etwa Email ausgefallen und alle User sind betroffen, so gilt Prio 1 – alle verfügbaren Kräfte die Füße hoch, evtl. externe Dienstleister hinzuziehen – und diesen Incident so schnell wie möglich beheben!

Handelt es sich aber um ein “Geister Incident” – selten und nur schwer oder gar nicht zu reproduzieren – und es sind auch nur 1 bis 3 User betroffen, so gilt Prio 4 und Ruhe bewahren – damit kann man sich dann beschäftigen, wenn Zeit ist und es nichts Weiteres zu tun gibt.

Eine klare Priorisierung eines Incident ist auch gegenüber dem Anwender leicht verständlich kommunizierbar – nicht der, der am lautesten schreit, kommt auch zuerst dran.

Werbung

3. prädiktive Kennzahlen und KI:

Zum einen kann man mit entsprechend definierten Kennzahlen [z.B. Median anstatt Mittelwert!] den Service in der Vergangenheit qualitativ bewerten – zum anderen aber ermöglichen Kennzahlen auch einen Blick in die Zukunft. Mit Daten aus der Vergangenheit und KI [Stichwort python] lassen sich Trends erkennen und machen so einen proaktiven Service möglich, der nicht nur reagiert, sondern technische Störungen prädiktiv schon im Vorfeld erkennt und behebt!

Zur Erhebung von Daten im Support muss es übrigens nicht immer ein monströses und völlig überdimensioniertes Ticketsystem sein. Gerade in kleineren Unternehmen bietet sich hier die – vielfach verschmähte – Excel Tabelle an, allerdings mit sehr viel Sorgfalt und einer extra Portion Liebe gepflegt und bearbeitet.

Besser auf diesem Wege Daten erheben als nur auf Zuruf oder aus dem Bauch heraus zu reagieren.

4. Dokumentation:

Das Wichtigste zum Schluss – ok, auch wenn jeder echte ITler nur bei dem Wort schon mittelschweren bis schweren Hautausschlag bekommt: Dokumentation!

Aufbau und  Pflege einer Wissensdatenbank mit viel Liebe und Hingabe ist von zentraler Bedeutung. So muss der Mitarbeiter im Support nicht immer wieder das Rad neu erfinden, sondern kann direkt auf geprüfte und erfolgreiche Lösungsansätze zurückgreifen!

Im Rahmen eines Self Service kann eine solche Knowledge Base auch direkt für den Anwender zugänglich gemacht werden und so die Zahl der Tickets reduzieren.

So, ich hoffe das war nützliche Anregung für den Alltag und viel Spaß mit Euren Anwendern!

(übrigens unter Sysadmins eine böse Beschimpfung: “Du Anwender …!“)

Markus

Werbung

Genial Schreiben – ja wirklich!

… oh no, nicht noch so ein schlaubi Schlumpf Motivationsgeschwafel und Ratgeber – egal, reinziehen und Lesezeit nur 3 Minuten! … wenn du lesen kannst

Ok, der Abgabetermin deiner Hausarbeit steht schon drohend und apokalyptisch vor der Tür – und wirft schon dunkle Schatten voraus?

Oder du musst im Job irgendeinen Report oder Dokumentation oder sonstigen Schwachsinn zu was auch immer dringend abliefern? [z.B. ‘mein Konzept nach ITIL zur E2E seamless Prozesskette im IT Sevice’]

what ever

Panik! – völlige Schreibblockade in deinem Brain und du weißt nicht, wie und vor allem wo anfangen? Nix, niente, nada … gähnende Leere im Brain – oder völliges Durcheinander und Konfusion [nein, nicht Kernfusion – das ist wieder was anderes, dann leuchtet es dir aus den Ohren]

Zuerst gilt es Ruhe zu bewahren, alles wird gut… und: ‘Der Gelassene ist immer erfolgreicher als der Getriebene!’ [Konfuzius]

Oder war es doch andersherum? ‘Der Erfolglose ist immer gelassener als der Erfolgreiche’ … egal

Versuche doch einfach mal folgendes Vorgehen und die strukturierte Methode mO mit erprobten HowTos zur Umsetzung – extra im Text fett markiert – und es läuft, garantiert!

puh … also erst mal wieder runterkommen und weiter:

1. Brainstorming

– zuerst einmal: nicht gleich an den Laptop – nehme dir erst einmal einen Block [ja genau, dieses komische Dings aus Papier und noch überall käuflich zu erwerben] und einen Kugelschreiber – old school

– jetzt überlege dir einfach, was du als Nächstes eigentlich schreiben willst – um was geht es als Nächstes?

– nehme dir dabei nicht zu viel vor, immer der Reihe nach – der Rest kommt schon noch

– Alles, was dir jetzt dazu einfällt, was du gelesen hast, was du zitieren willst und was unbedingt rein muss – aufschreiben, egal in welcher Reihenfolge – aufschreiben !!!

– in dieses Brainstorming kannst du auch noch Unterstreichungen, Nummerierung [wichtig=1 oder völlig unwichtig=5] oder Pfeile von einem Punkt zum Nächsten einbauen, um dir Zusammenhänge zwischen versch. Punkten besser zu visualisieren

– in etwa so – und tobe dich da richtig aus – je wilder desto besser – und schreie einfach mal deinen Kollegen, deinen Freund oder Freundin oder deine Mutter an … kannst dich nachher ja noch dafür entschuldigen … aber raus damit! [und vielleicht so schreiben, dass du es am nächsten Tag auch noch lesen kannst]

 

– und nehme dir Zeit dafür – das Ganze muss nicht auf einmal fertig werden – wenn dir später noch was einfällt, gut und immer rein damit!

2. Struktur und Konzept

– jetzt rupfe diesen Zettel raus aus dem Block und lege in neben eine leere Seite deines Blocks [dieses komische Dings aus Papier]

– versuche jetzt, dieses wilde Durcheinander in eine sinnvolle Reihenfolge oder Argumentationskette zu bekommen

– versuche einen gewissen Spannungsbogen aufzubauen, also den Leser erst mit allgemein Bekanntem abzuholen, um dann weiter und tiefer ins Thema einzusteigen

– versuche, Zusammenhänge zwischen den einzelnen Punkten herzustellen – durch Wiederholung oder Verweis auf vorherige Punkte, wiederhole Wichtiges – so wird das Ganze rund und geschmeidig für den Leser

– alle bereits ins Konzept übernommene und übertragene Punkte im Brainstorming Zettel dick durchstreichen, damit du den Überblick behältst

3. Text

– so, jetzt an die Tasten, an den Laptop und los

er dann und erst jetzt in aller Ruhe an sprachlichen Feinheiten und Formulierungen feilen

– keine kilometerlangen Bandwurmsätze schreiben – klar – aber auch nicht in den Schreibstil eines Viertklässlers verfallen!

– der Satzbau und Schreibstil sollte für den Leser schon herausfordernd sein und damit deine Souveränität im Umgang mit dem Thema ausdrücken

– nicht jeden Fachausdruck immer gleich erklären, sondern einfach mal so im Raum stehen lassen und weiterschreiben – und den Leser dumm dastehen lassen [Ok, nicht übertreiben damit!]

– denke auch immer an den Leser und die Zielgruppe, die du mit deiner Schreibe erreichen und begeistern möchtest – für wen schreibst du?

– was auch hilft: lese das, was du da gerade geschrieben hast, dir selbst einfach mal laut vor – oder aufnehmen und abspielen – ja wirklich! – und höre dir dann selbst zu – mal ausprobieren!

– zum Schluss – ok Geschmackssache: bleibe frech, provokant und crazy in deinem Style – der Leser muss sich min. zweimal pro Seite denken: ‘Nee, das hat der doch jetzt nicht wirklich geschrieben?’

– zum Schluss 2 – nicht, aber überhaupt nicht irgendwie politisch werden – das hat in einer seriösen wissenschaftlichen Arbeit nichts zu suchen – vielleicht auf fazebuk!

So verhinderst du Langeweile, eingeschlafene Füße und hältst den Leser wach und faszinierst am Ende mit deiner Schreibe!

4. Also

– erst Brainstorming und Gedanken sammeln – egal wie durcheinander – old school auf Papier, wichtig! … haptisches und sensorisches Erlebnis usw.

– dann dieses wilde Durcheinander irgendwie in eine Struktur oder Argumentationskette bringen

– dann erst den Laptop anmachen und an Sprache und Ausdruck feilen …

– und wenn überhaupt nichts mehr läuft: eine Runde Joggen oder spazieren gehen, um den Kopf wieder frei zu bekommen!

Sicher, das funktioniert ... und los!


Azure – die Cloud Wundertüte von Microsoft – 1433

Lesezeit: vergnügliche 6 Minuten

1. Content

Tja, wo soll ich hier bloß anfangen? Festzuhalten ist erst einmal die allgemeine Aussage:

“Wir brauchen mehr Digitalisierung und KI, wir müssen in die Cloud und die Welt wird gut!” – in früheren Zeiten sagte man übrigens: “Oh Herr, wir brauchen ein Wunder!”.

Es ist wohl langsam an der Zeit, diesen Hype mal aufzurollen – und um dann in dem konkreten Beispiel MS Azure und Virtual Desktop zu münden.

Zum Thema KI mit Terminator und dem Aufstand der Maschinen oder mit Vollendung Beethovens 10. unvollendeter Sinfonie – weil vorher gestorben – durch KI folgt dann noch ein extra Beitrag, versprochen!

Werbung

2.Historisches

Alles begann eigentlich in der Computersteinzeit 1998 mit VMware und den beiden Informatikern Mendel Rosenblum und Diane Greene. Ziel war es, eine Technik zu entwickeln, um physische Computersysteme mit Hilfe von Software abzubilden und zu abstrahieren – also virtuelle Server oder eben VMs. Wieso? Die Hardware wurde immer leistungsfähiger und so ein richtig dicker physischer Server war mit nur einer einzelnen Datenbank nur noch gelangweilt.

Jetzt einfach alle DBs und Anwendungen eines Unternehmens auf einen einzelnen – oder auch mehrere – dicke Server zu packen, wäre zwar prinzipiell möglich, aber keine so gute Idee. Da beeinflusst sich dann irgendwas untereinander und gegenseitig, die Fehlersuche wird zur reinsten Katastrophe und Alptraum – und muss das dicke Ding mal neu gestartet werden, liegt gleich die ganze Firma lahm, nicht gut.

Also Hyperviser drauf, der dem OS und der DB einen Server vorgaukelt und die dicken Ressourcen an RAM und CPU einfach auf diese virtuellen Server verteilt bzw. zuteilt – so ein virtueller Server lässt sich dann auch prima mal neu starten, ohne gleich den ganzen Rest lahm zulegen.

Übrigens läuft auch eine Linux VM unter Windows problemlos auch auf einem völlig altersschwachen Laptop – naja, mit gewissen Reaktionszeiten und allzu eilig sollte es man auch nicht haben – aber einfach mal so zum ausprobieren.

3. The next Step

Jetzt treffen gleich zwei glorreiche Erkenntnisse aufeinander. Amazon erkannte 2002 das Problem eigener ungenutzter Serverkapazitäten in seinen Rechenzentren – also Leerlauf – und dachte sich: “Wieso diese eigentlich nicht verscherbeln – also verkaufen und zu Kohle machen?”.

Auf Anwender- bzw. Unternehmensseite bestand jetzt einer dieser neuen virtuellen Server nur noch aus einem .vmdk File und die Frage war: “Wieso die eigenen dicken Server im Keller noch selbst weiterbetreiben und nicht einfach zu Amazon schieben?”.

Kohle gespart, Amazon happy, eine Win Win Situation – alles gut!

Hier hat das Cloud Computing also seinen Anfang und nahm schließlich seinen Lauf. 

Nach Amazon mit seinem Elastic Cloud Computing EC2 und heute AWS kamen schließlich 2008 die Google Cloud und 2010 Microsoft mit Azure dazu. 

Ach so, und es gibt noch die interessanterweise sehr erfolgreiche Alibaba Cloud oder auch bekannt unter Aliyun – zwar in Singapur registriert – aber trotzdem möchte ich da nicht meine Daten oder Website ablegen, sonst stehen auf einmal noch komische Typen bei mir vor der Tür. 

Oder meine F&E Ergebnisse werden zur Beute des roten Drachen und irgendein dubioses Start-up bringt auf einmal ein Produkt auf den Markt, was technologisch genau auf meiner Entwicklung aufbaut – seltsam.

4. Heute

Diese genannten Cloud Services haben sich bis heute zu waren Ökosystemen im Computing weiterentwickelt und bieten – neben klassischen Storage und VMs – Services, Dienstleistungen, Apps und noch mehr an, die alles Bisherige umkrempeln und in Frage stellen. Alleine die MS Azure Cloud besteht aus mittlerweile 17000! zertifizierten Apps und Diensten und es gibt nichts, was man da bei MS nicht buchen könnte!

Einen kurzen und unterhaltsamen Überblick liefert die Azure Startseite:

https://azure.microsoft.com/de-de/services/

Beispiel gefällig? Programming! Herkömmliche Anwendungen wurden einmal programmiert, sind monolithisch, in Stein gemeiselt und lassen sich nur schwer ändern. Heutige Anwendungen dagegen bestehen aus zugebuchten Services – Stichwort Cloud native Programming und MicroServices – und bieten neue Möglichkeiten hinsichtlich Sicherheit und Skalierbarkeit.

Evtl. erscheint es sinnvoll, eine Ein- und Ausgabe Warteschlange – eine Queue – vom Rest der Applikation zu trennen. Läuft diese Warteschlange jetzt über – Stichwort DDoS Attacke oder verteilter Dienstverweigerungsangriff, so reißt das nicht gleich die gesamte Applikation mit in den Abgrund. Dazu bietet alleine Azure eine Reihe von fünf Services zur Queue Verwaltung mit unterschiedlichen Schwerpunkten und zur Entkoppelung bzw. Elastizität einer Anwendung: 

Azure Event Grid, Azure Event Hubs, Azure Service Bus, Azure Notification Hubs und Azure Queue Store … hier steige ich jetzt aber aus, wer sich mehr davon geben möchte gerne unter: 

Noch mehr? Gerne – Datenbanken!

Wählen Sie zwischen vollständig verwalteten relationalen, NoSQL- und In-Memory-Datenbanken, für die proprietäre sowie Open-Source-Engines zur Verfügung stehen. Fokussieren Sie sich auf die Erstellung innovativer Anwendungen, und profitieren Sie von den Vereinfachungen, die Ihnen Azure dabei bietet. Vollständig verwaltete Datenbanken automatisieren Aufgaben wie das Konfigurieren und Verwalten der Hochverfügbarkeit, der Notfallwiederherstellung sowie von Sicherungen und der regionsübergreifenden Datenreplikation, wodurch Sie Zeit und Geld sparen können.

Und weiter im bunten Galopp:

Profitieren Sie von fortschrittlichen Sicherheitsfunktionen, der Auswahlmöglichkeit zwischen Hochverfügbarkeit in derselben Zone oder mit Zonenredundanz und einer SLA (Vereinbarung zum Servicelevel) von bis zu 99,99 Prozent. In diesem Migrationsleitfaden erfahren Sie, wie Sie Ihre lokale MySQL-Datenbank zu Azure migrieren.

Yo Bro and Sis … yes, was rauchen die da eigentlich bei MS? Das Zeugs hätte ich auch gerne … take this:

So geht es weiter z.B. mit Services zu Sicherheit und Zugriffskontrolle – dem Azure Active Directory, zu Migration von on premise in die Cloud, zu Verwaltung und Governance bis hin zu KI und Machine Learning – Azure Bot Service für die Kundenkommunikation. Und schon sind wir wieder bei Terminator und dem Aufstand der Maschinen.

Werbung

5. Azure Virtual Desktop

Doch jetzt zum eigentlichen Thema: Azure oder Windows Virtual Desktop WVM und Cloud basiertes Deployment von Arbeitsplätzen, die eigentlich logische Weiterentwicklung von virtuellen Servern!

Wow, aber eigentlich ein schon sehr alter Hut, sorry. An die etwas Älteren unter uns: wir erinnern uns noch an Citrix und Thin Clients? – und an die Jüngeren unter uns: schon mal gehört? Genau! Damals kostete Hardware noch richtig Kohle und man setzte eben nur einfache Geräte zur Ein- und Ausgabe ein – quasi nur Bildschirm und Tastatur, während der eigentliche Desktop auf dem Server im Keller lief. Oder es bestanden Zutrittsbeschränkungen wie z.B. Reinraum in Pharmaunternehmen und der Admin konnte da nicht einfach so mal reinhuschen und nachschauen oder was richten.

Und überhaupt wiederholt sich die IT immer wieder mit eigentlich uralten Konzepten nur unter neuen hypen Namen – nur so mal am Rande.

Egal, das Konzept bietet schon neben den ganzen Cloud Vorteilen wie Kostenreduzierung und Sicherheit durch einen großen Anbieter weitere Vorteile – auch wenn facebook da gerade failed.

  • im Büro: Laptop einfach zuklappen und dann Zuhause im HomeOffice eigenen Laptop wieder an – und genau an der Excel Tapete oder Powerpoint weitermachen, an der man vorher gearbeitet hat … schon cool

  • leistungsstarke CPU, Graphikkarte, Arbeitsspeicher? Egal – brauchen nur noch Gamer, der Desktop läuft auf jedem Ausgabegerät, egal ob Laptop, Tablet oder Smartphone

  • Sicherheit: der Anbieter – also hier MS – kümmert sich um die Sicherheit seiner Rechenzentren, z.B. DDoS Abwehr und damit um die Sicherheit der Nutzerdaten. MS betreibt deshalb sogar ein Rechenzentrum für DE genau in Frankfurt – wobei es dem Hacker von Büro 121 ziemlich egal sein wird, wo der Server denn jetzt im Netz hängt

  • Kosten: na klar – alles genau kalkulierbar und bitte an MS zahlen. Keine dubiosen und unfähigen Dienstleister mit völlig überhöhten Forderungen mehr

  • Skalierbarkeit: Das eigene Forschungs- oder Entwicklungsprojekt braucht auf einmal mehr Rechenleistung, es besteht höherer Workload wegen neuen notwendigen Simulationen? Dazu buchen – no problem!

Werbung:

Zum Schluss und Ausblick

Puh, erst mal wieder runterkommen! Klar, jeder neue Weg zeigt erstmal tausend neue Fragen auf.

Vor allem drängt sich hier die Frage zu Hyprid Cloud Lösungen auf: wie z.B. geht das Ganze mit on premise und Cloud zusammen? Lokales AD mit Azure Directory Services spiegeln? DBs von der Public in die Private Cloud spiegeln? 

Nicht zu vergessen: es braucht immer eine richtig fette Mbit Internetverbindung – hat der Bagger auf der Nachbarbaustelle mal das Kabel gekappt, ist es aus und vorbei!

Das neue Stichwort heißt deshalb Hybrid Cloud, von beiderlei Wesen, also eine Mischung zwischen on- und offline, damit in einem solchen Ernstfall wenigstens das Wichtigste noch läuft.

Und weiter geht es mit Security, Datenschutz und DSGVO, ISO 27001, Tracking oder Sicherheit vor Manipulation durch den Big Player, whatever … wir erinnern uns an Alibaba Cloud … und das sind nur einige der vielen weiteren Fragen, die in einer konkreten Strategie dediziert aufgearbeitet und immer wieder hinterfragt und angepasst werden müssen … sonst wird das nix!

Und ganz zum Schluss nochmal kurz zurück zum Machine Learning, IoT und Predictive Maintenance Lösungen mit Azure … Windräder! Ja wirklich Windräder! Die haben doch tatsächlich mechanische Getriebe und die gehen schon mal kaputt … schwer zu erreichen und zu reparieren, da in zig hundert Metern Höhe eingebaut. Jetzt versieht man ein solches Getriebe einfach mit Sensoren, die den Lauf und die Vibrationen eines solchen Getriebes messen und kann dann vorhersagen – also predictive – ob, wann und welches Bauteil dieses Getriebes als nächstes denn Geist aufgibt. Und eben schon mal Ersatzteile, Kran oder gleich Helikopter vorbestellen und alles vorbereiten … prima, läuft!

Egal, wir Tekkies zusammen rocken das Ding und werden unseren heutigen Planeten zu einem besseren Ort machen, ganz sicher!

Werbung:

KPIs und SLAs in der IT auf den Punkt! – 529

Lesezeit 3 Minuten

„Do you see difficulties in every new opportunity or opportunities in every new difficulty?“

Content:

Besonders hohe Bedeutung für ein effizientes IT-Controlling spielen Key Performance Indicators und Service Level Agreements – die eben – wie der Name schon sagt – Leistungen und Services sichtbar, quantitativ fassbar und dadurch letztendlich bewertbar machen sollen.

Kurz zum Unterschied: KPIs kommen mehr intern zum Einsatz und bewerten z.B die Leistung des Service Desk oder die Performance eines Projekts, SLAs finden dagegen zumeist in der Bewertung der Leistung eines externen Dienstleisters ihren Einsatz und regeln darüber hinaus auch noch weitere Aspekte wie Definition von Art und Umfang der Serviceerbringung oder auch strategische Aspekte wie z.B. langfristig geplanter Ausbau der IT Infrastruktur.

So weit, so gut – doch jetzt zum eigentlichen Problem:

KPIs und SLAs sind zunächst einmal Indikatoren, die die Realität in Zahlen fassen – statistische Kenngrößen wie z.B. eben der Mittelwert, Prozentangaben oder absolute Zahlen.

Zahlen sind immer gut, gerade in der IT – Zahlen sind objektiv und unbestechlich – wir lieben Zahlen und wir glauben an Zahlen!

Aber stimmt das wirklich???

Werbung

Tasten wir uns an das Problem heran mit dem klassischen Beispiel über die Aussagekraft eines Mittelwertes:

Mit meiner linken Hand fasse ich in das Gefrierfach meines Kühlschranks mit -30 Grad, die Rechte lege ich auf eine Herdplatte mit 100 Grad – ergibt einen Mittelwert von 35 Grad [(100-30)/2], also alles in bester Ordnung!

Und so geht es in der Welt der IT mit diesen bunten KPIs und SLAs munter weiter.

Mittelwert:

Ein beliebtes Beispiel: ein externer Dienstleister garantiert eine mittlere Reaktionszeit von 1,5 Stunden und die monatliche Auswertung ergibt auch exakt diesen Wert – alles prima! Bei genauerer Betrachtung hat dieser Dienstleister aber in einigen Fällen schon nach 10 Minuten zurückgerufen, manchmal aber auch erst am nächsten Tag – Gefrierfach und Herdplatte eben.

Was ist hier passiert? Der absolute Mittelwert hat ohne ergänzende Angaben zur Range keinerlei Aussagekraft – oder man nimmt gleich den Median – alle Werte werden ihrer Ausprägung nach sortiert und der Median gibt dann den 50 Prozent Schnitt an.

Prozentangaben:

Ein weiteres beliebtes Beispiel: da garantiert z.B. ein externer Dienstleister eine Serververfügbarkeit von 99 Prozent – wow, das sieht klasse aus!

Kurz den Taschenrechner bemüht ergibt das aber einen Ausfall von 87.6 Stunden über das ganze Jahr gerechnet [(365×24)x0,01] und sieht – so betrachtet – nun nicht mehr wirklich toll aus – für einen Webshopbetreiber völlig inakzeptabel.

Was ist hier passiert? Nun, der Indikator und die Messgröße wurden falsch gewählt! Nicht die garantierte Laufzeit, sondern die maximale Ausfallzeit ist entscheidend – und dann bitte in Stunden oder Tagen und nicht in Prozent – glatter Fall von Augenwischerei.

Absolute Anzahl:

Alarm im Service Desk! Die Anzahl ungelöster Tickets im System ist in der letzten Woche rasant angestiegen! Doch bei genauerer Betrachtung ergibt sich: alles nur völlig unwichtige Prio 4 Tickets – also Incidents, die niemanden wirklich stören oder von der Arbeit abhalten – halt nur etwas nervig.

Was ist hier passiert? Selbst absolute – scheinbar objektive – Zahlenwerte müssen stets hinterfragt und mit zusätzlichen qualitativen Informationen hinterlegt und untermauert werden, bevor es zu einer Bewertung der Situation kommen kann.

Fazit:

Ganz einfach: genau hinsehen, hinterfragen, nochmals hinterfragen:

“Was sagt mir diese Kennzahl jetzt genau?”

Und vor allem einen anderen Blickwinkel einnehmen – und schon gar nicht an Zahlen glauben!

Werbung

the nextGen IT – 522

„Do you see difficulties in every new opportunity or opportunities in every new difficulty?“

Lesezeit 4 Minuten

um es gleich auf den Punkt zu bringen:

der Informations- und Kommunikationstechnologie kommt in heutigen Unternehmen ohne Zweifel eine überragende Rolle hinsichtlich Innovation und Wettbewerbsfähigkeit zu und diese Bedeutung wächst stetig. 

Doch wie muss eine typische IT-Abteilung im Unternehmen heute aufgestellt sein, um dieser Rolle voll und ganz gerecht zu werden?

Hier gibt es neue Ansätze!

1. Daily Business

Zunächst einmal sollte die IT im Unternehmen im Tagesgeschäft völlig geräuschlos und im Hintergrund laufen. Die originäre Aufgabe hier besteht darin, alle Systeme optimal am Laufen zu halten und den Anwender mit seinen Fragen zusätzlich perfekt zu unterstützen und mit einem Lächeln im Gesicht zu hinterlassen. 

Zentraler Bestandteil ist natürlich ein schlagkräftiger Service Desk, der am besten eine über 100 Prozent Erstlösungsquote aufweisen kann.

Mit Auswertung von Zahlen aus der Vergangenheit, mit Definition von prädiktiven Kennzahlen und Einsatz von KI [python] sowie mit ständigem Testen von typischen Anwendungsszenarien können hier mögliche Software- oder Userfehler schon im Vorfeld ermittelt werden – also noch bevor sie auftreten – und entsprechend proaktiv darauf reagiert werden.

Weiter muss der Service Desk entsprechend qualitativ und quantitativ aufgestellt sein, sollte trotz allem dennoch mal ein Fehler durchdringen. 

Als simples Beispiel lässt sich etwa das zu erwartende Anrufaufkommen an einem bestimmten Wochentag – vormittags oder nachmittags – durch Auswertung von Vergangenheitsdaten ermitteln und die Hotline entsprechend besetzen – kein Anwender hängt gerne stundenlang in der Warteschleife.

Generelle Zielsetzung im daily Business muss eine positive und durch Kommunikation und Kooperation geprägte UX sein.

Werbung

2. Wertschöpfungsbeitrag

Generell läuft es heute immer noch so: die Fachabteilung kommt mit einer bestimmten Anforderung auf die IT zu, die IT ermittelt und sagt geht nicht oder geht doch und setzt dann diese konkrete Anforderung der Fachabteilung um.

Die Stoßrichtung hier muss jedoch eine Andere sein, da die Fachabteilung sowieso oftmals keine Ahnung hat. Vielmehr ist es Aufgabe der IT, neue technische Möglichkeiten und Trends hinsichtlich Mehrwert für das Unternehmen unter Beachtung von Compliance, Budget und Risikoabschätzung zu bewerten und für einen möglichen Einsatz im Unternehmen zu evaluieren.

In diesem strategischen Ansatz nimmt die IT nicht mehr die typische reaktive Position ein, sondern geht proaktiv und mit konkreten Vorschlägen auf die Fachabteilung zu. Die IT selbst wird zur aktiven und treibenden Kraft in der Weiterentwicklung der Infrastruktur, der Prozesse und Services und trägt so – im Rahmen der Unternehmensstrategie – proaktiv zur Steigerung der Wertschöpfung und Wettbewerbsfähigkeit des Unternehmens bei.

Werbung

3. Perspektive

Um der oben beschriebenen Aufgabe gerecht zu werden, muss die IT-Abteilung natürlich ihren heilen rosaroten Technikplaneten verlassen und auch andere Perspektiven einnehmen – so gibt es vielleicht neue technische Lösungen, allerdings recht teuer und der Verantwortliche im Controlling bekommt gleich einen Herzkasper. Oder es gibt faszinierende neue technische Lösungen, die in der Praxis jedoch nur wenig verändern und nur echte ITler begeistern können.

Ohne Zweifel, die Sachlage verkompliziert sich erheblich, sobald man seinen heilen rosaroten Technikplaneten verlässt. Bevor man sich jetzt in dem Dickicht und Details aus Strategie, Budget, Risiko und sonstigem völlig verirrt, gibt es eine einfache Lösung und Orientierung – die simple Frage: „was hat der Anwender bzw. Kunde oder das Unternehmen letztendlich davon?“

Eine solche komplexitätsreduzierende und einfache Metaperspektive hilft hier ohne Zweifel weiter!

Werbung

Digital 2020? – 837

Werbung

Lesezeit 4 Minuten

Digital 2020? Kurze Einordnung und eine Studie der Unternehmensberatung Kearney – 837

Schöne neue Welt! Da reibt man sich doch nur noch völlig verwundert die Augen und wähnt sich gleich im Jahr 2035:

 

Die Chinesen sind auf dem Mond gelandet, sammeln dort Steine ein und bringen diese auch noch auf die Erde zurück [vorerst noch unbemannt] – und sind auch schon auf dem Mars gelandet [vorerst ohne Steine zurück zu bringen und nur mit Raumsonde]!

Und die EU will den Hyperscalern wie AWS [schon seit 2006], Azure oder Google Cloud [beide 2010] mit GAIA-X Konkurrenz machen und damit zu einem besonders sicheren und vertrauenswürdigen, vor bösen Mächten geschützten, Technologie- und Datenknoten weltweit aufsteigen.

Weiter ist 5G und IoT in aller Munde – vollständig autonomes Fahren sowieso – und – etwas weniger dramatisch – endlich hat sich Home Office durchgesetzt, wir skypen und zoomen nur noch mit unseren Colegas. 

Sogar an Schulen gibt es endlich Tablets und digitale Lernplattformen.

 

Und sogar meine Steuererklärung kann ich mittlerweile digital über das Netz einreichen und von Dokumenten auf Papier wird explizit abgeraten. Hui!

 

Aber stimmt das alles wirklich? Wie sieht die digitale Realität 2020 wirklich aus?

Nun, EU GAIA-X scheitert wohl an nationalen Interessen und Datenschutzbestimmungen – schöne Grüße von der DSGVO – und zusätzlich befremdlich erscheint, dass auch Alibaba und Huawei – sicher auf völlig korrekten Ausschreibungswegen – zu den Gründungsunternehmen dieser besonders vertrauenswürdigen und sicheren EU Datenwolke gehören.

5G wird wohl nur in einzelnen Campus Hotspots als Ergänzung zum WLAN umgesetzt und es gibt immer noch Funklöcher [!], also nix Empfang, gar Nichts – und damit hat sich wohl auch IoT erledigt, wobei auch hier niemand genau weiß, was das denn sein soll – typisches Buzzword.

Mein Fitnessarmband und TV mit Netflix im WLAN reichen mir völlig und mein Kühlschrank soll bitte auch nichts völlig von alleine nachbestellen, das bekomme ich gerade so noch selbst hin – auch wenn ich mich dafür von meinem Laptop verabschieden und vor die Tür muss – grrrr.

 

Vom vollständig autonomen Fahren haben sich mittlerweile auch alle Automobilhersteller wieder verabschiedet – selbst Tesla – man freut sich ja schon, wenn das eigene Kfz im Stau selbständig bremst und wieder anfährt und halbwegs die Spur hält, nur in Baustellen bei gelben Fahrbahnmarkierungen halt nicht.

 

Naja, wenigstens Videochat funktioniert, wenn auch ohne die sonst so wichtigen sozialen und informellen Informationskanäle in der Kaffeeküche – und Schulen bekommen gleich 100 Eus pro Tablet, aber wie soll damit bitteschön die minderbemittelte Familie ihrem Knirps oder gleich mehreren ein Tablet damit bezahlen? Aldi?

 

Und meine voll digitale Steuererklärung ist auch raus – aber auch hier musste ich zuerst einen supergeheimen PIN Code beantragen, der mir dann per Post und berittenem Boten auf Papier zugestellt wurde. Prima!

Werbung

So, jetzt zur eigentlich wichtigen Betrachtung der deutschen Unternehmenslandschaft, hierzu gibt es eine interessante Studie der Unternehmensberatung Kearney mit dem Ergebnis:

 

Den deutschen Unternehmen fehlt der Mut bei der Digitalisierung und Transformation!

 

Kearney unterscheidet die befragten Unternehmen dabei in:

 

“digitale Verweigerer”:

Ja klar, ein Bekleidungshaus mit 175 Jahren Familientradition wird ihrer im Durchschnitt 85 Jahre alten Stammkundschaft keine neuen digital Paymentfunktionen via Smartphone anbieten. Hier liegen die Probleme tiefer.

 

“digital Klagende”:

Auch klar, habe ich ein Unternehmen irgendwo am Ende eines Industriegebiets und irgendwo im Osten, dann freue ich mich überhaupt über eine Internetverbindung – an Cloud mit großen Datenmengen ist hier gar nicht zu denken, lieber den eigenen Server im Keller weiter laufen lassen.

Zudem gibt es Fragen zum Datenschutz, personenbezogene Daten sollten doch besser auf Servern mit Standort D gespeichert werden – die Telekom Cloud mit eben diesen Standorten ist leider gescheitert und auch dem nordkoreanischen Hacker von Büro 121 ist es sowieso völlig egal, wo denn der Server jetzt im Netz hängt.

 

“risikoscheue Standard Digitalisierer 40%”:

Man muss eben mitmachen, irgendwie. Immer mehr Lieferanten und Kunden fordern eine digitale und voll integrierte E2E Lieferkette.

Vom eigentlichen Ziel der Digitalisierung – der Weitblick, Zielsetzung und Priorisierung – fehlt jedoch jede Spur.

 

“nicht disruptive Digitalisierer”:

Die neuen digitalen Potenziale sind wohl erkannt, dennoch möchte man sich vom bisherigen und Umsatz bringenden Geschäftsmodell nicht verabschieden – bitte keine Veränderung!

Auch hier fehlt oft Mut, eine langfristige Zielsetzung und klare Priorisierung – auf Digitalisierung muss aber konsequenterweise auch Transformation folgen.

 

“ambitionierte digital Getriebene”:

Digitalisierung und Potential sind vollständig erkannt, aber gut gemeint ist nicht immer gut gemacht.

Mut ist vorhanden, aber auch hier fehlt oft langfristige Zielsetzung und klare Priorisierung.

 

So weit, so gut …

 

Organisationale Ambidextrie [Beidhändigkeit] heißt jetzt hier das neue Zauberwort und wird zum zeitgemäßen Modell im Rahmen des Digital Leaderships, Exploitation und Exploration!

Bestehendes optimieren und Neues erkunden – Effizienz und Innovation gleichzeitig vorantreiben und zusammenbringen – das wird zur Ausschlag gebenden Bedeutung in diesem Zusammenhang und in der aktuellen Situation.

 

 

Werbung

Soweit zum Thema “Digitalisierung und digitale Transformation 2020?” – spannend – und ich möchte mich gerne weiter mit diesem dringenden und wichtigem Thema befassen.

 

Weiteres auf Anfrage,

 

Vielen Dank für Deine Zeit / Kind regards – und ich hoffe etwas unterhalten zu haben

 

 

die blaue oder die rote Pille?-1014

Lesezeit 5 Minuten

Morpheus zu Neo nach eindrücklicher Warnung und Darstellung zur Matrix: “Wählst Du jetzt die blaue oder die rote Pille?” … nun, eines der wohl berühmtesten Zitate aus der neueren Filmgeschichte und aus dem sicherlich bahnbrechenden Film “Matrix”.

Und weiter: wählt Neo die blaue Pille, so bleibt sein bisheriges und etwas langweiliges Leben als Programmierer in seinen gewohnten Bahnen – nichts wird sich ändern und alles läuft einfach so weiter. Mit der roten Pille jedoch wird er quasi aufgeweckt und landet in der – sicherlich nicht sehr charmanten – Realität!

Allgemein so weit bekannt – nicht das ich hier jetzt irgend jemanden beleidigen möchte – isch schwör yo Bro and Sis!

https://www.youtube.com/watch?v=GL5D7sm9ixo

Aber hier nochmal die Kurzfassung für alle homo neanderthalensis da draußen, die den Film doch tatsächlich nicht kennen sollten.

Was ist passiert? Künstliche Intelligenz oder die Maschinen haben einen Atomkrieg angezettelt – und zwar einen richtig heftigen – Grund oder Motivation dafür erst einmal unbekannt. Die Erde liegt also in Schutt und Asche und die Menschheit ist fast ausgerottet. Die Maschinen stehen jetzt vor dem Problem, woher Energie oder Strom nehmen? Naheliegende Sonnenenergie fällt aus, da sich die Erde durch den Krieg in einem nuklearen Winter befindet und wohl noch für die nächsten zehntausende Jahre von einer kilometerdicken Staubschicht umhüllt ist, durch die kein Sonnenstrahl mehr dringt.

Also versetzen die Maschinen die wenigen noch verbliebenen Menschen in ein künstliches Koma, lagern diese dann in speziellen Tanks und nutzen die Körperwärme zur Stromerzeugung. Damit es diesen menschlichen Batterien nicht allzu langweilig wird, bekommen sie von einem richtig dicken Computer eine halbwegs angenehme Realität direkt in ihr Hirn eingespielt!

Aber es gibt natürlich auch einen Widerstand – Menschen, die noch nicht als künstliche Batterien benutzt werden und die auch nicht in dieser künstlich eingespielten, sondern in der echten Realität leben – Morpheus eben! Und selbstverständlich nimmt Neo die rote Pille und schließt sich diesem Widerstand an, sonst wäre der Film ja schon nach fünf Minuten zu Ende!

Soweit zum Film “The Matrix”. Jetzt noch etwas allgemeines Vorgeplänkel zum Aufwärmen, bevor ich den Hammer der Simulationshypothese von Nick Bostrom auspacke, viel Spaß!

 

1. Die Realität ist simuliert

Ok, also eine durchaus berechtigte Frage. Wer garantiert mir also, das ich gerade jetzt wirklich vor meinem Laptop sitze und diesen Text tippe? Oder umgekehrt, wer garantiert dir, dass du jetzt gerade vor deinem Laptop sitzt und diesen Text liest? Genau! Es sind eigentlich nur elektrische Impulse, die gerade in erhöhter Anzahl und ziemlich wirr durch mein Hirn flitzen – vielleicht noch etwas abgebremst und modelliert durch den synaptischen Spalt zwischen zwei Nervenzellen.

Aber wirklich ausgelöst durch meine Sinnesorgane? Also Auge, Gehör, Sonstiges? Oder vielleicht doch durch einen dicken Supercomputer eingespielt? Und mein Hirn schwimmt einfach so und heftig verkabelt in einer Nährstofflösung … The Matrix.

Und jetzt? Erst einmal tief Luft holen!

Die Sache mit dieser tatsächlichen Realität und Existenz hat übrigens schon Generationen – vor allem von Philosophen – umgetrieben. Zum Beispiel René Descartes – genialer Denker, Universalgelehrter, Wegbereiter der Aufklärung und der modernen Philosophie – hat dieses Problem ganz pragmatisch mit einem einfachen Satz beantwortet: “cogito ergo sum” – “Ich denke, also bin ich” – und Ende der Durchsage! Ok einverstanden … muss ich aber trotzdem nochmal drüber nachdenken.

Jetzt noch viel weiter zurück in das alte Griechenland. Na klar! Der alte bärtige Plato und sein Höhlengleichnis! Wir sitzen also in einer dunklen Höhle – gefesselt – und sehen nur die rückseitige Wand der Höhle. Alles, was jetzt vor dem Höhleneingang vorbeispaziert – was auch immer – wirft einen Schatten auf diese Wand. Wir können uns ja nicht einfach umdrehen – da gefesselt- und halten die Schatten auf der Wand für die tatsächliche Realität – wow!

 

2. Die "echte" Realität gibt es nicht

Nur mal so am Rande: “… aber ich sehe doch meine Umgebung und meine Realität, nehme sie war, das muss doch alles echt sein?” … Pustekuchen! Immer noch letzte Zweifel?

Gar nicht mal so weit entfernt vom alten Plato ist die aktuelle Wahrnehmungspsychologie: Diese sagt: “Wahrnehmung ist subjektiv, selektiv und aktiv!”. Es gibt keine “echte” Realität!

Subjektiv? Klar! Und zwar vom Individuum abhängig … fahre ich jetzt mit einem Beifahrer/in durch eine beliebige Stadt, so nimmt mein Beifahrer/in natürlich ganz andere Dinge am Wegesrand war als ich selbst, da ich ja auf Straße und Verkehrsgeschehen fokussiert bin – ich lebe in einer anderen Realität.

Selektiv? Auch klar! Und zwar von der Situation abhängig … habe ich jetzt zum Beispiel richtig Hunger, so fällt mir auf einmal ein unscheinbarer Burgerladen am Wegesrand auf, der mir vorher noch nie aufgefallen ist und obwohl ich die Strecke schon zigmal gefahren bin – durch meinen Hunger erweitert sich auf einmal meine Realität.

Aktiv? Ebenso klar! Will ich nichts mitbekommen und bin in meine Gedanken vertieft, laufe ich vielleicht schon mal feste gegen eine geschlossene Tür -Smombie halt.

 

3. Alles ist Simulation!

Doch wieder zurück zu der Sache mit der der Simulation. Der Philosoph Nick Bostrom hat dazu aktuell eine recht radikale Simulationshypothese entwickelt – Alles, vom Urknall, über Galaxien und Atome, Evolution bis hin zum Higgs Bosom ist nur simuliert!!! Wieso? Nun, eine Millionen von Jahre alte posthumane Zivilisation betreibt Forschung und will ihren eigenen Ursprung besser verstehen, fertig!

Das ganze Universum also als berechneter Raum und selbst dazu gibt es Einschätzungen: Seth Lloyd, US-amerikanischer Informatiker und Physiker, schätzte dazu in seinem Aufsatz “The Computational Universe” den Informationsgehalt des Universums seit seinem Anbeginn auf etwa 10120 Operationen bzw. Bits.

4. Beweise durch Fehler in der Simulation

Beweise für die eine oder andere Theorie sind jetzt natürlich schwierig aber nicht unmöglich, jede Simulation hat Fehler und die stellen wir immer häufiger fest.

Zuerst ganz einfach: geht es dir nicht auch manchmal so, das der aktuelle Tag mit nur minimalen Abweichungen den vorherigen Tagen gleicht? Du kommst dir wie in einem Hamsterrad vor? Klar, einen völlig neuen Tag zu programmieren und einzuspielen ist aufwendig. Einfacher ist es, den vorherigen Tag einfach etwas zu modifizieren und wiederzuverwenden – egal ob einfache oder totale Simulation..

Aber auch die aktuelle Physik hat Interessantes zu berichten, nämlich Messungen, die allen Naturkonstanten und Theorien widersprechen – Fehler in der Simulation! So gibt es zum Beispiel Teilchen, die sich mit Überlichtgeschwindigkeit bewegen oder Messungen ungleich verteilter kosmischer Hintergrundstrahlung – und auch das quantenphysikalische Phänomen der Verschränkung – also Informationsübertragung in Echtzeit über beliebige Entfernung hinweg – ist mittlerweile zumindest im Ansatz bewiesen – noch ein Fehler in der Simulation!

Ok, wie dem jetzt auch letztendlich sein mag, ich habe fertig – Kommentare und Kritik [auch vernichtend] sind gerne erwünscht und für mich erst einmal real!

Markus

erfolgreiches Patch Management – 732

Lesezeit 4 Minuten

Werbung

um es gleich auf den Punkt zu bringen:

„Never change a running system“- so lautet eine der goldenen Grundregeln in der IT und heißt auf Deutsch: Finger weg von einem sauber und rund laufenden System! So lässt sich auch erklären, dass in der Finanzbranche doch tatsächlich noch viele uralte Systeme laufen, die in der Jahrhunderte alten Programmiersprache COBOL und in Keilschrift umgesetzt wurden.

Doch die Realität sieht anders aus, aus verschiedenen Gründen muss oftmals ein stabil und rund laufendes System angefasst werden. Da gibt es z.B. Updates für das Betriebssystem, die kritische Sicherheitslücken schließen, oder aber Softwareupdates, die die Stabilität dieser Software erhöhen und neue Funktionalität mit sich bringen – oder aber der Support durch den Hersteller läuft aus.

Für großen Wirbel und manchmal auch blinden Aktionismus hat hier z.B. das Ende des Supports für Win 7 durch Microsoft gesorgt – dessen ungeachtet läuft übrigens auf den meisten Behördenrechnern diese Sicherheitslücke Win 7 noch immer völlig ungestört weiter.

Ist jetzt der endgültige Zeitpunkt gekommen und ein Update steht unweigerlich und hartnäckig vor der Tür, so bedarf dies zuerst buddhistischer Gelassenheit und weiter umfassender und sorgsamer Konzeption, Planung und Umsetzung – Patchmanagement eben!

Testen

Oberstes Gebot im eben beschriebenen Patchmanagement lautet jetzt: Testen, Testen und nochmals Testen! Updates sollten dabei aber nicht nur in einer kontrollierten und definierten Laborumgebung getestet werden – kann man machen, hat aber nur wenig Aussagekraft.

Vielmehr müssen solche Test auf eine breite Basis gestellt werden und dazu müssen Testuser herangezogen werden – aus möglichst unterschiedlichen Abteilungen mit unterschiedlicher Rechnerkonfiguration und Softwareausstattung. So kann man vielleicht schon im Vorfeld feststellen, dass die Finanz- und Buchhaltungssoftware das Betriebssystemupdate nicht so richtig mag, die ganze Sache schon im Vorfeld analysieren und zumindest einen Workaround dafür entwickeln, ohne gleich die gesamte Buchhaltung außer Gefecht zu setzen.

Ach ja, zusätzlich zu der ganzen Vorbereitung, Planen und Testen sollte man vielleicht auch noch einen netten wöchentlichen Newsletter an alle User raushauen und grob über das Vorhaben und den aktuellen Stand der Dinge informieren.

Und spätestens jetzt braucht das Projekt einen richtig knackigen Namen – sowas wie „the next Generation IT“ oder etwas kürzer „thenextGenIT“.

Überhaupt sollte man mal über eine solche proaktive Kommunikationspolitik und regelmäßigen Kontakt mit dem Kunden nachdenken – eben über einen solchen wöchentlichen Newsletter aus der IT!

Und gibt es mal nichts Konkretes zu berichten, so nutzt man den Newsletter zur Userschulung und packt coole LifeHacks rund um Windows, Office oder sonst was rein.

Werbung

Doch zurück zum eigentlichen Thema:

Zusätzlich kannst du mit sehr hoher Wahrscheinlichkeit davon ausgehen, dass es in der hintersten Ecke deines Netzwerks unter Garantie noch eine Software gibt – selbstgeschrieben und uralt, wird auch nur noch von drei Usern benutz, ist aber unglaublich wichtig! – die den Patch ebenso nicht mag und die man trotz genauester Planung einfach übersehen hat – ja wirklich, garantiert!

Zielführend ist es jetzt, ein bereits getestetes PowerShell Script in der Hinterhand zu haben, was den Patch erst mal vollständig von der Platte putzt und den vorherigen Zustand wieder herstellt. So läuft Alles erst mal wieder und man kann sich in Ruhe weitere Gedanken dazu machen.

Werbung

Dokumentation

Das Wichtigste zum Schluss – ok, schon allein das Wort Dokumentation sorgt bei echten ITlern für mittelschweren bis schweren Hautausschlag, bedeutet aber doch nichts weiteres, als festzuhalten, was man gemacht hat und was dabei herausgekommen ist – sehr hilfreich und wichtig für den Überblick – ohne Zweifel!

Völlig verstreute Dokumentation über Ticketsysteme und Excel Tabellen hinweg ist dabei jetzt nicht nur nervig und zeitraubend, eben dieser Überblick kommt dabei nicht zustande. Jetzt muss man aber pragmatisch bleiben und nicht gleich das Rad neu erfinden bzw. eine völlig neue Dokumentation aufbauen.

Vielmehr reicht es oft, die eingesetzten Tools zur Dokumentation nach definierten Kriterien zu analysieren und sich darauf aufbauend für ein bereits vorhandenes Tool zu entscheiden, was zukünftig hauptsächlich genutzt werden soll.

So kann sich z.B. das Ticketsystem als pragmatischste Lösung herausstellen, weil hier zusätzlich Tickets und Reports mit Dokumentation verknüpft werden können oder umgekehrt, was die Aussagekraft der Dokumentation weiter erhöht.

Jetzt nur noch alle alten Excel Tapeten mit dem Ticketsystem verknüpfen oder gleich übertragen – et voilà le travail!

So, ich hoffe das war nützliche Anregung für euer Projekt und viel Spaß mit Euren Anwendern!

(übrigens unter Sysadmins eine böse Beschimpfung: “Du Anwender …!”)

Meinungen oder auch vernichtende Kritik gerne erwünscht!

Markus

MAX800WORDS.COM

MAX800WORDS.COM