KPIs und SLAs in der IT auf den Punkt! – 529

Lesezeit 3 Minuten

„Do you see difficulties in every new opportunity or opportunities in every new difficulty?“

Content:

Besonders hohe Bedeutung für ein effizientes IT-Controlling spielen Key Performance Indicators und Service Level Agreements – die eben – wie der Name schon sagt – Leistungen und Services sichtbar, quantitativ fassbar und dadurch letztendlich bewertbar machen sollen.

Kurz zum Unterschied: KPIs kommen mehr intern zum Einsatz und bewerten z.B die Leistung des Service Desk oder die Performance eines Projekts, SLAs finden dagegen zumeist in der Bewertung der Leistung eines externen Dienstleisters ihren Einsatz und regeln darüber hinaus auch noch weitere Aspekte wie Definition von Art und Umfang der Serviceerbringung oder auch strategische Aspekte wie z.B. langfristig geplanter Ausbau der IT Infrastruktur.

So weit, so gut – doch jetzt zum eigentlichen Problem:

KPIs und SLAs sind zunächst einmal Indikatoren, die die Realität in Zahlen fassen – statistische Kenngrößen wie z.B. eben der Mittelwert, Prozentangaben oder absolute Zahlen.

Zahlen sind immer gut, gerade in der IT – Zahlen sind objektiv und unbestechlich – wir lieben Zahlen und wir glauben an Zahlen!

Aber stimmt das wirklich???

Werbung

Tasten wir uns an das Problem heran mit dem klassischen Beispiel über die Aussagekraft eines Mittelwertes:

Mit meiner linken Hand fasse ich in das Gefrierfach meines Kühlschranks mit -30 Grad, die Rechte lege ich auf eine Herdplatte mit 100 Grad – ergibt einen Mittelwert von 35 Grad [(100-30)/2], also alles in bester Ordnung!

Und so geht es in der Welt der IT mit diesen bunten KPIs und SLAs munter weiter.

Mittelwert:

Ein beliebtes Beispiel: ein externer Dienstleister garantiert eine mittlere Reaktionszeit von 1,5 Stunden und die monatliche Auswertung ergibt auch exakt diesen Wert – alles prima! Bei genauerer Betrachtung hat dieser Dienstleister aber in einigen Fällen schon nach 10 Minuten zurückgerufen, manchmal aber auch erst am nächsten Tag – Gefrierfach und Herdplatte eben.

Was ist hier passiert? Der absolute Mittelwert hat ohne ergänzende Angaben zur Range keinerlei Aussagekraft – oder man nimmt gleich den Median – alle Werte werden ihrer Ausprägung nach sortiert und der Median gibt dann den 50 Prozent Schnitt an.

Prozentangaben:

Ein weiteres beliebtes Beispiel: da garantiert z.B. ein externer Dienstleister eine Serververfügbarkeit von 99 Prozent – wow, das sieht klasse aus!

Kurz den Taschenrechner bemüht ergibt das aber einen Ausfall von 87.6 Stunden über das ganze Jahr gerechnet [(365×24)x0,01] und sieht – so betrachtet – nun nicht mehr wirklich toll aus – für einen Webshopbetreiber völlig inakzeptabel.

Was ist hier passiert? Nun, der Indikator und die Messgröße wurden falsch gewählt! Nicht die garantierte Laufzeit, sondern die maximale Ausfallzeit ist entscheidend – und dann bitte in Stunden oder Tagen und nicht in Prozent – glatter Fall von Augenwischerei.

Absolute Anzahl:

Alarm im Service Desk! Die Anzahl ungelöster Tickets im System ist in der letzten Woche rasant angestiegen! Doch bei genauerer Betrachtung ergibt sich: alles nur völlig unwichtige Prio 4 Tickets – also Incidents, die niemanden wirklich stören oder von der Arbeit abhalten – halt nur etwas nervig.

Was ist hier passiert? Selbst absolute – scheinbar objektive – Zahlenwerte müssen stets hinterfragt und mit zusätzlichen qualitativen Informationen hinterlegt und untermauert werden, bevor es zu einer Bewertung der Situation kommen kann.

Fazit:

Ganz einfach: genau hinsehen, hinterfragen, nochmals hinterfragen:

“Was sagt mir diese Kennzahl jetzt genau?”

Und vor allem einen anderen Blickwinkel einnehmen – und schon gar nicht an Zahlen glauben!

Werbung

the nextGen IT – 522

„Do you see difficulties in every new opportunity or opportunities in every new difficulty?“

Lesezeit 4 Minuten

um es gleich auf den Punkt zu bringen:

der Informations- und Kommunikationstechnologie kommt in heutigen Unternehmen ohne Zweifel eine überragende Rolle hinsichtlich Innovation und Wettbewerbsfähigkeit zu und diese Bedeutung wächst stetig. 

Doch wie muss eine typische IT-Abteilung im Unternehmen heute aufgestellt sein, um dieser Rolle voll und ganz gerecht zu werden?

Hier gibt es neue Ansätze!

1. Daily Business

Zunächst einmal sollte die IT im Unternehmen im Tagesgeschäft völlig geräuschlos und im Hintergrund laufen. Die originäre Aufgabe hier besteht darin, alle Systeme optimal am Laufen zu halten und den Anwender mit seinen Fragen zusätzlich perfekt zu unterstützen und mit einem Lächeln im Gesicht zu hinterlassen. 

Zentraler Bestandteil ist natürlich ein schlagkräftiger Service Desk, der am besten eine über 100 Prozent Erstlösungsquote aufweisen kann.

Mit Auswertung von Zahlen aus der Vergangenheit, mit Definition von prädiktiven Kennzahlen und Einsatz von KI [python] sowie mit ständigem Testen von typischen Anwendungsszenarien können hier mögliche Software- oder Userfehler schon im Vorfeld ermittelt werden – also noch bevor sie auftreten – und entsprechend proaktiv darauf reagiert werden.

Weiter muss der Service Desk entsprechend qualitativ und quantitativ aufgestellt sein, sollte trotz allem dennoch mal ein Fehler durchdringen. 

Als simples Beispiel lässt sich etwa das zu erwartende Anrufaufkommen an einem bestimmten Wochentag – vormittags oder nachmittags – durch Auswertung von Vergangenheitsdaten ermitteln und die Hotline entsprechend besetzen – kein Anwender hängt gerne stundenlang in der Warteschleife.

Generelle Zielsetzung im daily Business muss eine positive und durch Kommunikation und Kooperation geprägte UX sein.

Werbung

2. Wertschöpfungsbeitrag

Generell läuft es heute immer noch so: die Fachabteilung kommt mit einer bestimmten Anforderung auf die IT zu, die IT ermittelt und sagt geht nicht oder geht doch und setzt dann diese konkrete Anforderung der Fachabteilung um.

Die Stoßrichtung hier muss jedoch eine Andere sein, da die Fachabteilung sowieso oftmals keine Ahnung hat. Vielmehr ist es Aufgabe der IT, neue technische Möglichkeiten und Trends hinsichtlich Mehrwert für das Unternehmen unter Beachtung von Compliance, Budget und Risikoabschätzung zu bewerten und für einen möglichen Einsatz im Unternehmen zu evaluieren.

In diesem strategischen Ansatz nimmt die IT nicht mehr die typische reaktive Position ein, sondern geht proaktiv und mit konkreten Vorschlägen auf die Fachabteilung zu. Die IT selbst wird zur aktiven und treibenden Kraft in der Weiterentwicklung der Infrastruktur, der Prozesse und Services und trägt so – im Rahmen der Unternehmensstrategie – proaktiv zur Steigerung der Wertschöpfung und Wettbewerbsfähigkeit des Unternehmens bei.

Werbung

3. Perspektive

Um der oben beschriebenen Aufgabe gerecht zu werden, muss die IT-Abteilung natürlich ihren heilen rosaroten Technikplaneten verlassen und auch andere Perspektiven einnehmen – so gibt es vielleicht neue technische Lösungen, allerdings recht teuer und der Verantwortliche im Controlling bekommt gleich einen Herzkasper. Oder es gibt faszinierende neue technische Lösungen, die in der Praxis jedoch nur wenig verändern und nur echte ITler begeistern können.

Ohne Zweifel, die Sachlage verkompliziert sich erheblich, sobald man seinen heilen rosaroten Technikplaneten verlässt. Bevor man sich jetzt in dem Dickicht und Details aus Strategie, Budget, Risiko und sonstigem völlig verirrt, gibt es eine einfache Lösung und Orientierung – die simple Frage: „was hat der Anwender bzw. Kunde oder das Unternehmen letztendlich davon?“

Eine solche komplexitätsreduzierende und einfache Metaperspektive hilft hier ohne Zweifel weiter!

Werbung

Digital 2020? – 837

Werbung

Lesezeit 4 Minuten

Digital 2020? Kurze Einordnung und eine Studie der Unternehmensberatung Kearney – 837

Schöne neue Welt! Da reibt man sich doch nur noch völlig verwundert die Augen und wähnt sich gleich im Jahr 2035:

 

Die Chinesen sind auf dem Mond gelandet, sammeln dort Steine ein und bringen diese auch noch auf die Erde zurück [vorerst noch unbemannt] – und sind auch schon auf dem Mars gelandet [vorerst ohne Steine zurück zu bringen und nur mit Raumsonde]!

Und die EU will den Hyperscalern wie AWS [schon seit 2006], Azure oder Google Cloud [beide 2010] mit GAIA-X Konkurrenz machen und damit zu einem besonders sicheren und vertrauenswürdigen, vor bösen Mächten geschützten, Technologie- und Datenknoten weltweit aufsteigen.

Weiter ist 5G und IoT in aller Munde – vollständig autonomes Fahren sowieso – und – etwas weniger dramatisch – endlich hat sich Home Office durchgesetzt, wir skypen und zoomen nur noch mit unseren Colegas. 

Sogar an Schulen gibt es endlich Tablets und digitale Lernplattformen.

 

Und sogar meine Steuererklärung kann ich mittlerweile digital über das Netz einreichen und von Dokumenten auf Papier wird explizit abgeraten. Hui!

 

Aber stimmt das alles wirklich? Wie sieht die digitale Realität 2020 wirklich aus?

Nun, EU GAIA-X scheitert wohl an nationalen Interessen und Datenschutzbestimmungen – schöne Grüße von der DSGVO – und zusätzlich befremdlich erscheint, dass auch Alibaba und Huawei – sicher auf völlig korrekten Ausschreibungswegen – zu den Gründungsunternehmen dieser besonders vertrauenswürdigen und sicheren EU Datenwolke gehören.

5G wird wohl nur in einzelnen Campus Hotspots als Ergänzung zum WLAN umgesetzt und es gibt immer noch Funklöcher [!], also nix Empfang, gar Nichts – und damit hat sich wohl auch IoT erledigt, wobei auch hier niemand genau weiß, was das denn sein soll – typisches Buzzword.

Mein Fitnessarmband und TV mit Netflix im WLAN reichen mir völlig und mein Kühlschrank soll bitte auch nichts völlig von alleine nachbestellen, das bekomme ich gerade so noch selbst hin – auch wenn ich mich dafür von meinem Laptop verabschieden und vor die Tür muss – grrrr.

 

Vom vollständig autonomen Fahren haben sich mittlerweile auch alle Automobilhersteller wieder verabschiedet – selbst Tesla – man freut sich ja schon, wenn das eigene Kfz im Stau selbständig bremst und wieder anfährt und halbwegs die Spur hält, nur in Baustellen bei gelben Fahrbahnmarkierungen halt nicht.

 

Naja, wenigstens Videochat funktioniert, wenn auch ohne die sonst so wichtigen sozialen und informellen Informationskanäle in der Kaffeeküche – und Schulen bekommen gleich 100 Eus pro Tablet, aber wie soll damit bitteschön die minderbemittelte Familie ihrem Knirps oder gleich mehreren ein Tablet damit bezahlen? Aldi?

 

Und meine voll digitale Steuererklärung ist auch raus – aber auch hier musste ich zuerst einen supergeheimen PIN Code beantragen, der mir dann per Post und berittenem Boten auf Papier zugestellt wurde. Prima!

Werbung

So, jetzt zur eigentlich wichtigen Betrachtung der deutschen Unternehmenslandschaft, hierzu gibt es eine interessante Studie der Unternehmensberatung Kearney mit dem Ergebnis:

 

Den deutschen Unternehmen fehlt der Mut bei der Digitalisierung und Transformation!

 

Kearney unterscheidet die befragten Unternehmen dabei in:

 

“digitale Verweigerer”:

Ja klar, ein Bekleidungshaus mit 175 Jahren Familientradition wird ihrer im Durchschnitt 85 Jahre alten Stammkundschaft keine neuen digital Paymentfunktionen via Smartphone anbieten. Hier liegen die Probleme tiefer.

 

“digital Klagende”:

Auch klar, habe ich ein Unternehmen irgendwo am Ende eines Industriegebiets und irgendwo im Osten, dann freue ich mich überhaupt über eine Internetverbindung – an Cloud mit großen Datenmengen ist hier gar nicht zu denken, lieber den eigenen Server im Keller weiter laufen lassen.

Zudem gibt es Fragen zum Datenschutz, personenbezogene Daten sollten doch besser auf Servern mit Standort D gespeichert werden – die Telekom Cloud mit eben diesen Standorten ist leider gescheitert und auch dem nordkoreanischen Hacker von Büro 121 ist es sowieso völlig egal, wo denn der Server jetzt im Netz hängt.

 

“risikoscheue Standard Digitalisierer 40%”:

Man muss eben mitmachen, irgendwie. Immer mehr Lieferanten und Kunden fordern eine digitale und voll integrierte E2E Lieferkette.

Vom eigentlichen Ziel der Digitalisierung – der Weitblick, Zielsetzung und Priorisierung – fehlt jedoch jede Spur.

 

“nicht disruptive Digitalisierer”:

Die neuen digitalen Potenziale sind wohl erkannt, dennoch möchte man sich vom bisherigen und Umsatz bringenden Geschäftsmodell nicht verabschieden – bitte keine Veränderung!

Auch hier fehlt oft Mut, eine langfristige Zielsetzung und klare Priorisierung – auf Digitalisierung muss aber konsequenterweise auch Transformation folgen.

 

“ambitionierte digital Getriebene”:

Digitalisierung und Potential sind vollständig erkannt, aber gut gemeint ist nicht immer gut gemacht.

Mut ist vorhanden, aber auch hier fehlt oft langfristige Zielsetzung und klare Priorisierung.

 

So weit, so gut …

 

Organisationale Ambidextrie [Beidhändigkeit] heißt jetzt hier das neue Zauberwort und wird zum zeitgemäßen Modell im Rahmen des Digital Leaderships, Exploitation und Exploration!

Bestehendes optimieren und Neues erkunden – Effizienz und Innovation gleichzeitig vorantreiben und zusammenbringen – das wird zur Ausschlag gebenden Bedeutung in diesem Zusammenhang und in der aktuellen Situation.

 

 

Werbung

Soweit zum Thema “Digitalisierung und digitale Transformation 2020?” – spannend – und ich möchte mich gerne weiter mit diesem dringenden und wichtigem Thema befassen.

 

Weiteres auf Anfrage,

 

Vielen Dank für Deine Zeit / Kind regards – und ich hoffe etwas unterhalten zu haben

 

 

die blaue oder die rote Pille?-1014

Lesezeit 5 Minuten

Morpheus zu Neo nach eindrücklicher Warnung und Darstellung zur Matrix: “Wählst Du jetzt die blaue oder die rote Pille?” … nun, eines der wohl berühmtesten Zitate aus der neueren Filmgeschichte und aus dem sicherlich bahnbrechenden Film “Matrix”.

Und weiter: wählt Neo die blaue Pille, so bleibt sein bisheriges und etwas langweiliges Leben als Programmierer in seinen gewohnten Bahnen – nichts wird sich ändern und alles läuft einfach so weiter. Mit der roten Pille jedoch wird er quasi aufgeweckt und landet in der – sicherlich nicht sehr charmanten – Realität!

Allgemein so weit bekannt – nicht das ich hier jetzt irgend jemanden beleidigen möchte – isch schwör yo Bro and Sis!

https://www.youtube.com/watch?v=GL5D7sm9ixo

Aber hier nochmal die Kurzfassung für alle homo neanderthalensis da draußen, die den Film doch tatsächlich nicht kennen sollten.

Was ist passiert? Künstliche Intelligenz oder die Maschinen haben einen Atomkrieg angezettelt – und zwar einen richtig heftigen – Grund oder Motivation dafür erst einmal unbekannt. Die Erde liegt also in Schutt und Asche und die Menschheit ist fast ausgerottet. Die Maschinen stehen jetzt vor dem Problem, woher Energie oder Strom nehmen? Naheliegende Sonnenenergie fällt aus, da sich die Erde durch den Krieg in einem nuklearen Winter befindet und wohl noch für die nächsten zehntausende Jahre von einer kilometerdicken Staubschicht umhüllt ist, durch die kein Sonnenstrahl mehr dringt.

Also versetzen die Maschinen die wenigen noch verbliebenen Menschen in ein künstliches Koma, lagern diese dann in speziellen Tanks und nutzen die Körperwärme zur Stromerzeugung. Damit es diesen menschlichen Batterien nicht allzu langweilig wird, bekommen sie von einem richtig dicken Computer eine halbwegs angenehme Realität direkt in ihr Hirn eingespielt!

Aber es gibt natürlich auch einen Widerstand – Menschen, die noch nicht als künstliche Batterien benutzt werden und die auch nicht in dieser künstlich eingespielten, sondern in der echten Realität leben – Morpheus eben! Und selbstverständlich nimmt Neo die rote Pille und schließt sich diesem Widerstand an, sonst wäre der Film ja schon nach fünf Minuten zu Ende!

Soweit zum Film “The Matrix”. Jetzt noch etwas allgemeines Vorgeplänkel zum Aufwärmen, bevor ich den Hammer der Simulationshypothese von Nick Bostrom auspacke, viel Spaß!

 

1. Die Realität ist simuliert

Ok, also eine durchaus berechtigte Frage. Wer garantiert mir also, das ich gerade jetzt wirklich vor meinem Laptop sitze und diesen Text tippe? Oder umgekehrt, wer garantiert dir, dass du jetzt gerade vor deinem Laptop sitzt und diesen Text liest? Genau! Es sind eigentlich nur elektrische Impulse, die gerade in erhöhter Anzahl und ziemlich wirr durch mein Hirn flitzen – vielleicht noch etwas abgebremst und modelliert durch den synaptischen Spalt zwischen zwei Nervenzellen.

Aber wirklich ausgelöst durch meine Sinnesorgane? Also Auge, Gehör, Sonstiges? Oder vielleicht doch durch einen dicken Supercomputer eingespielt? Und mein Hirn schwimmt einfach so und heftig verkabelt in einer Nährstofflösung … The Matrix.

Und jetzt? Erst einmal tief Luft holen!

Die Sache mit dieser tatsächlichen Realität und Existenz hat übrigens schon Generationen – vor allem von Philosophen – umgetrieben. Zum Beispiel René Descartes – genialer Denker, Universalgelehrter, Wegbereiter der Aufklärung und der modernen Philosophie – hat dieses Problem ganz pragmatisch mit einem einfachen Satz beantwortet: “cogito ergo sum” – “Ich denke, also bin ich” – und Ende der Durchsage! Ok einverstanden … muss ich aber trotzdem nochmal drüber nachdenken.

Jetzt noch viel weiter zurück in das alte Griechenland. Na klar! Der alte bärtige Plato und sein Höhlengleichnis! Wir sitzen also in einer dunklen Höhle – gefesselt – und sehen nur die rückseitige Wand der Höhle. Alles, was jetzt vor dem Höhleneingang vorbeispaziert – was auch immer – wirft einen Schatten auf diese Wand. Wir können uns ja nicht einfach umdrehen – da gefesselt- und halten die Schatten auf der Wand für die tatsächliche Realität – wow!

 

2. Die "echte" Realität gibt es nicht

Nur mal so am Rande: “… aber ich sehe doch meine Umgebung und meine Realität, nehme sie war, das muss doch alles echt sein?” … Pustekuchen! Immer noch letzte Zweifel?

Gar nicht mal so weit entfernt vom alten Plato ist die aktuelle Wahrnehmungspsychologie: Diese sagt: “Wahrnehmung ist subjektiv, selektiv und aktiv!”. Es gibt keine “echte” Realität!

Subjektiv? Klar! Und zwar vom Individuum abhängig … fahre ich jetzt mit einem Beifahrer/in durch eine beliebige Stadt, so nimmt mein Beifahrer/in natürlich ganz andere Dinge am Wegesrand war als ich selbst, da ich ja auf Straße und Verkehrsgeschehen fokussiert bin – ich lebe in einer anderen Realität.

Selektiv? Auch klar! Und zwar von der Situation abhängig … habe ich jetzt zum Beispiel richtig Hunger, so fällt mir auf einmal ein unscheinbarer Burgerladen am Wegesrand auf, der mir vorher noch nie aufgefallen ist und obwohl ich die Strecke schon zigmal gefahren bin – durch meinen Hunger erweitert sich auf einmal meine Realität.

Aktiv? Ebenso klar! Will ich nichts mitbekommen und bin in meine Gedanken vertieft, laufe ich vielleicht schon mal feste gegen eine geschlossene Tür -Smombie halt.

 

3. Alles ist Simulation!

Doch wieder zurück zu der Sache mit der der Simulation. Der Philosoph Nick Bostrom hat dazu aktuell eine recht radikale Simulationshypothese entwickelt – Alles, vom Urknall, über Galaxien und Atome, Evolution bis hin zum Higgs Bosom ist nur simuliert!!! Wieso? Nun, eine Millionen von Jahre alte posthumane Zivilisation betreibt Forschung und will ihren eigenen Ursprung besser verstehen, fertig!

Das ganze Universum also als berechneter Raum und selbst dazu gibt es Einschätzungen: Seth Lloyd, US-amerikanischer Informatiker und Physiker, schätzte dazu in seinem Aufsatz “The Computational Universe” den Informationsgehalt des Universums seit seinem Anbeginn auf etwa 10120 Operationen bzw. Bits.

4. Beweise durch Fehler in der Simulation

Beweise für die eine oder andere Theorie sind jetzt natürlich schwierig aber nicht unmöglich, jede Simulation hat Fehler und die stellen wir immer häufiger fest.

Zuerst ganz einfach: geht es dir nicht auch manchmal so, das der aktuelle Tag mit nur minimalen Abweichungen den vorherigen Tagen gleicht? Du kommst dir wie in einem Hamsterrad vor? Klar, einen völlig neuen Tag zu programmieren und einzuspielen ist aufwendig. Einfacher ist es, den vorherigen Tag einfach etwas zu modifizieren und wiederzuverwenden – egal ob einfache oder totale Simulation..

Aber auch die aktuelle Physik hat Interessantes zu berichten, nämlich Messungen, die allen Naturkonstanten und Theorien widersprechen – Fehler in der Simulation! So gibt es zum Beispiel Teilchen, die sich mit Überlichtgeschwindigkeit bewegen oder Messungen ungleich verteilter kosmischer Hintergrundstrahlung – und auch das quantenphysikalische Phänomen der Verschränkung – also Informationsübertragung in Echtzeit über beliebige Entfernung hinweg – ist mittlerweile zumindest im Ansatz bewiesen – noch ein Fehler in der Simulation!

Ok, wie dem jetzt auch letztendlich sein mag, ich habe fertig – Kommentare und Kritik [auch vernichtend] sind gerne erwünscht und für mich erst einmal real!

Markus

erfolgreiches Patch Management – 732

Lesezeit 4 Minuten

Werbung

um es gleich auf den Punkt zu bringen:

„Never change a running system“- so lautet eine der goldenen Grundregeln in der IT und heißt auf Deutsch: Finger weg von einem sauber und rund laufenden System! So lässt sich auch erklären, dass in der Finanzbranche doch tatsächlich noch viele uralte Systeme laufen, die in der Jahrhunderte alten Programmiersprache COBOL und in Keilschrift umgesetzt wurden.

Doch die Realität sieht anders aus, aus verschiedenen Gründen muss oftmals ein stabil und rund laufendes System angefasst werden. Da gibt es z.B. Updates für das Betriebssystem, die kritische Sicherheitslücken schließen, oder aber Softwareupdates, die die Stabilität dieser Software erhöhen und neue Funktionalität mit sich bringen – oder aber der Support durch den Hersteller läuft aus.

Für großen Wirbel und manchmal auch blinden Aktionismus hat hier z.B. das Ende des Supports für Win 7 durch Microsoft gesorgt – dessen ungeachtet läuft übrigens auf den meisten Behördenrechnern diese Sicherheitslücke Win 7 noch immer völlig ungestört weiter.

Ist jetzt der endgültige Zeitpunkt gekommen und ein Update steht unweigerlich und hartnäckig vor der Tür, so bedarf dies zuerst buddhistischer Gelassenheit und weiter umfassender und sorgsamer Konzeption, Planung und Umsetzung – Patchmanagement eben!

Testen

Oberstes Gebot im eben beschriebenen Patchmanagement lautet jetzt: Testen, Testen und nochmals Testen! Updates sollten dabei aber nicht nur in einer kontrollierten und definierten Laborumgebung getestet werden – kann man machen, hat aber nur wenig Aussagekraft.

Vielmehr müssen solche Test auf eine breite Basis gestellt werden und dazu müssen Testuser herangezogen werden – aus möglichst unterschiedlichen Abteilungen mit unterschiedlicher Rechnerkonfiguration und Softwareausstattung. So kann man vielleicht schon im Vorfeld feststellen, dass die Finanz- und Buchhaltungssoftware das Betriebssystemupdate nicht so richtig mag, die ganze Sache schon im Vorfeld analysieren und zumindest einen Workaround dafür entwickeln, ohne gleich die gesamte Buchhaltung außer Gefecht zu setzen.

Ach ja, zusätzlich zu der ganzen Vorbereitung, Planen und Testen sollte man vielleicht auch noch einen netten wöchentlichen Newsletter an alle User raushauen und grob über das Vorhaben und den aktuellen Stand der Dinge informieren.

Und spätestens jetzt braucht das Projekt einen richtig knackigen Namen – sowas wie „the next Generation IT“ oder etwas kürzer „thenextGenIT“.

Überhaupt sollte man mal über eine solche proaktive Kommunikationspolitik und regelmäßigen Kontakt mit dem Kunden nachdenken – eben über einen solchen wöchentlichen Newsletter aus der IT!

Und gibt es mal nichts Konkretes zu berichten, so nutzt man den Newsletter zur Userschulung und packt coole LifeHacks rund um Windows, Office oder sonst was rein.

Werbung

Doch zurück zum eigentlichen Thema:

Zusätzlich kannst du mit sehr hoher Wahrscheinlichkeit davon ausgehen, dass es in der hintersten Ecke deines Netzwerks unter Garantie noch eine Software gibt – selbstgeschrieben und uralt, wird auch nur noch von drei Usern benutz, ist aber unglaublich wichtig! – die den Patch ebenso nicht mag und die man trotz genauester Planung einfach übersehen hat – ja wirklich, garantiert!

Zielführend ist es jetzt, ein bereits getestetes PowerShell Script in der Hinterhand zu haben, was den Patch erst mal vollständig von der Platte putzt und den vorherigen Zustand wieder herstellt. So läuft Alles erst mal wieder und man kann sich in Ruhe weitere Gedanken dazu machen.

Werbung

Dokumentation

Das Wichtigste zum Schluss – ok, schon allein das Wort Dokumentation sorgt bei echten ITlern für mittelschweren bis schweren Hautausschlag, bedeutet aber doch nichts weiteres, als festzuhalten, was man gemacht hat und was dabei herausgekommen ist – sehr hilfreich und wichtig für den Überblick – ohne Zweifel!

Völlig verstreute Dokumentation über Ticketsysteme und Excel Tabellen hinweg ist dabei jetzt nicht nur nervig und zeitraubend, eben dieser Überblick kommt dabei nicht zustande. Jetzt muss man aber pragmatisch bleiben und nicht gleich das Rad neu erfinden bzw. eine völlig neue Dokumentation aufbauen.

Vielmehr reicht es oft, die eingesetzten Tools zur Dokumentation nach definierten Kriterien zu analysieren und sich darauf aufbauend für ein bereits vorhandenes Tool zu entscheiden, was zukünftig hauptsächlich genutzt werden soll.

So kann sich z.B. das Ticketsystem als pragmatischste Lösung herausstellen, weil hier zusätzlich Tickets und Reports mit Dokumentation verknüpft werden können oder umgekehrt, was die Aussagekraft der Dokumentation weiter erhöht.

Jetzt nur noch alle alten Excel Tapeten mit dem Ticketsystem verknüpfen oder gleich übertragen – et voilà le travail!

So, ich hoffe das war nützliche Anregung für euer Projekt und viel Spaß mit Euren Anwendern!

(übrigens unter Sysadmins eine böse Beschimpfung: “Du Anwender …!”)

Meinungen oder auch vernichtende Kritik gerne erwünscht!

Markus

Oumuamua – der Botschafter – 1074

Lesezeit 5 Minuten

So what???

Werbung

Bereits 2017 sichteten Astronomen mit dem Teleskop Pan-STARRS-1 auf Hawaii – mehr durch Zufall – einen sehr außergewöhnlichen Himmelskörper, daher auch der Name auf hawaiianisch.

Doch der Reihe nach, folgende drei Auffälligkeiten dieses Objekts geben Rätsel auf:

Zuerst stammt dieses Objekt nicht aus unserem Planetensystem wie jeder ordentliche Komet oder Asteroid – also aus dem Asteroidengürtel zwischen Mars und Jupiter, dem Kuiper Gürtel jenseits des Pluto oder der Oortschen Wolke noch dahinter – sondern aus dem interstellaren Raum.

Und dieses Objekt trifft in seiner Flugbahn mit ziemlich strammen 88 Kilometern pro Sekunde oder ca 320 000 Stundenkilometer [die Erde macht gerade mal 30 Km pro Sekunde gleich 107 000 Stundenkilometer] nahezu von oben auf unsere Planetenebene – die Ebene, in der sich alle unsere Planeten um unsere Sonne drehen. Es muss daher aus den Tiefen des Weltalls kommen und kreuzt auf halber Strecke zwischen Sonne und Merkur.

Oumuamua zieht keinen Schweif hinter sich her. Ein gewöhnlicher Asteroid besteht in aller Regel aus gefrorenem Eis und Methan, deshalb auch schmutziger Schneeball genannt. Mit Kurs auf das innere Planetensystem wird ein solcher Asteroid nun durch den Sonnenwind quasi gegrillt, verliert dadurch einen Teil seiner Oberfläche und zieht einen Schweif hinter sich her. Oumuamua muss also etwas Festes aus Gestein oder vielleicht sogar Metall sein.

Die Form! Oumuamua hat eine noch nie bei anderen Himmelskörpern beobachtete Form! Er ist länglich, ja sogar zigarrenförmig und etwa 800 Meter lang – sehr merkwürdig.

Handelt es sich hier jetzt wirklich um ein natürliches Phänomen oder was steckt dahinter?

Werbung

Die uralte Zivilisation

Nun, ganz einfach und jetzt ganz festhalten: es handelt sich hier um ein Generationenraumschiff!

Vor hunderttausenden von Jahren gab es bereits in einer fernen Welt eine hoch technisierte Zivilisation. Die hatte allerdings ihren Heimatplaneten bereits ziemlich runtergerockt und sämtliche Ressourcen waren aufgebraucht. Oder noch schlimmer: der Heimatstern war am Ende seines Lebenszyklus, drohte zu einem weißen Riesen zu werden und damit die inneren Planeten dieses fernen Sonnensystems zu verschlingen. Eine also völlig aussichtslose Lage!

Um die eigene Zivilisation nun zu retten, entschied man sich, einige wenige Auserwählte zum nächsten bewohnbaren Planeten zu schicken um dort neu anzufangen. Man baute jetzt also das Raumschiff für diese Auserwählten – eben genau diese 800 Meter lang. Doch auch die uralte und technologisch fortgeschrittene Zivilisation konnte sich nicht den Gesetzen der Physik entziehen und eine Reise in die neue Heimat würde tausende oder gar zehntausende Jahre dauern, Generationen halt eben.

Deshalb installierte man einfach spezielle Kryocontainer, in denen die Besatzung diese Reise dann eben tiefgefroren antreten kann – das ganze mit einem Materie Antimaterie Generator versehen, der für die nächsten Äonen genug Energie für das Schiff und die Kryokapseln liefert.

Auf der Reise muss dann allerdings etwas fürchterlich schief gegangen sein, das Generationenschiff kam vom Kurs in die neue Welt ab und treibt seitdem ziellos durch die Weiten des Alls – unterwegs durchflog es immer mal wieder interstellare Staubwolken und setze so eine steinerne Außenschicht an.

Der Plan

Was jetzt tun mit Oumuamua?

Von Nutzen wären jetzt die bereits vielfältigen Überlegungen, wie man einen Asteroiden mit Kurs auf die Erde von seinem Einschlag auf die Erde hindern kann – Asteroidenabwehr durch Kursänderung.

So kann man z.B. einen Satelliten mit einer richtig dicken Schubdüse nah genug an das Objekt manövrieren, diese Schubdüse dann in Richtung des Objekts gradgenau ausrichten, zünden und damit die Flugbahn des Objekts leicht verändern – und bloß nicht verrechnen bei der ganzen Aktion! So fliegt der Asteroid mit eigentlichem Kurs Erde vielleicht in nur wenigen hundert Kilometern Höhe an der Erde vorbei, auch wenn es dabei heftigen Satelitenschrott geben dürfte.

Mit der gleichen Methode könnte man jetzt Oumuamua erst einmal abbremsen und dann gezielt in eine stabile Umlaufbahn um die Erde lenken – und wie gesagt, bloß nicht verrechnen!

Technisch sicherlich heikel, aber durchaus machbar – so sind die Japaner erst vor kurzem mit der Raumsonde Hayabusa 2 sogar direkt auf dem Asteroiden Ryugu gelandet – auch nur 900 Meter dick – und haben von dort sogar Proben zurück zur Erde gebracht, crazy!

In einer stabilen Umlaufbahn liegt Oumuamua dann quasi auf dem Präsentierteller und man könnte in aller Ruhe erst mal Sonden nach oben schicken, um die Oberfläche zu untersuchen – kennen wir ja schon vom Mars. Im nächsten Schritt schicken wir Bohrsonden hinauf, die sich dann tiefer in den Untergrund wühlen – kennen wir auch vom Mars, hat da aber noch nicht so richtig geklappt.

Und jetzt wird es spannend: Vielleicht stößt ein solcher Bohrroboter schon nach wenigen Metern Gestein auf die tatsächliche metallische Außenhülle des Generationenraumschiffs! Mit Drohnen erkunden wir dann erstmal vorsichtig das Innere, bevor wir echte Astronauten da reinschicken – und die finden dann in den Kryocontainern eben keine Aliens, sondern echte Menschen!

Werbung

Atlantis

Jetzt wird die Achterbahnfahrt richtig wild! Ja genau, es gibt recht viele Hinweise auf eine hochtechnologische Zivilisation hier auf unserer Erde – noch tausende oder gar zehntausende Jahre vor den alten Ägyptern oder Persern oder wem auch immer und bereits im Kontakt mit extraterrestrischen Zivilisationen – die Präastronautik und van Däniken lassen grüßen. Die traditionelle Archäologie scheut selbstverständlich diese Hinweise wie der Teufel das Weihwasser.

Zum Beispiel die Pyramiden – es wird von der herrschenden Archäologie kolportiert, die Cheops Pyramide wäre in gerade einmal 20 Jahren hochgezogen worden – 4 bis 6 Tonnen schwere Steine, davon 20 Millionen Stück, auf den Zentimeter genau bis auf 145 Meter hoch aufgestapelt und das mit den damaligen primitiven technologischen Mitteln der alten Ägypter, völlig absurd!

Vielmehr stammen diese Pyramiden von dieser vor zehntausenden Jahren untergegangenen Zivilisation und wurden von den Ägyptern einfach nur übernommen und wiederverwendet. Und so geht es weiter im völlig absurden Galopp in der hergebrachten traditionellen Archäologie.

Jetzt darf spekuliert werden, wieso diese uralte Zivilisation untergegangen ist. Die Range reicht dabei von disruptiven gesellschaftlichen Veränderungen wie bei den alten Römern bis hin zu Naturkatastrophen, explodierten Fusionsreaktoren oder Meteoriteneinschlägen, egal.

Was werden wir finden?

Doch zurück zum Generationenraumschiff Oumaumau. Selbst wenn wir dort keine Aliens oder Menschen in Kryocontainern finden oder alle bereits lange tot sind, so wird es dort auf jeden Fall Informationsaufzeichnungen geben. Diese Informationen einer extraterrestrischen oder zehntausende Jahre alten irdischen Zivilisation würde unserer heutigen Zivilisation und Technologie sicherlich einen mächtigen und gewaltigen Schub nach vorne versetzen.

Vielleicht sollte man doch mal bei Elon oder Jeff vorstellig werden und nach den Milliarden fragen, die sie so rausrücken könnten, um dieses Projekt umzusetzen – und bevor Oumuamua wieder in den Tiefen des Alls verschwunden ist.

Ach, und eine Sache noch: wieso hatten wir bis jetzt noch keinen Kontakt mit hochentwickelten extraterrestrischen Zivilisationen? Hatten wir, allerdings schon mehrere zehntausend Jahre her! Jetzt liegt unsere Erde in einem großen kosmischen Naturschutzgebiet! Man darf uns nur noch beobachten, aber nicht mehr aktiv Kontakt aufnehmen und so unsere Entwicklung beeinflussen – ganz einfach.

Werbung

Nonverbales in der Videoschalte – 565

schöne neue Welt 

Werbung

Lesezeit bunte 4 Minuten

Dank Fräulein Corinna und allgemein grassierender Pest und Cholera (neuerdings auch noch Afterpocken) hat sich der Segen der modernen Technik und vor allem des Videocalls endlich herauskristallisiert.


Klar, man muss nicht mehr vor die Tür, kann direkt vorher noch schnell eine Kippe oder Joint qualmen, ohne gleich als stinkender Aschenbecher von den Kollegen schräg angeschaut zu werden – man muss sich nur ein Hemd überstreifen und kann die bequeme Jogginghose anbehalten (nur nicht aufstehen und sich vielleicht doch vorher rasieren, auch Frauen) und viele weitere Vorteile z.B. für die Umwelt.

Brave new work!

Doch gerade der Videocall hat seine Tücken! Ich rede hier nicht von technischen Aspekten (ich setze voraus es läuft), verbalen Aspekten erfolgreicher Kriegs- äh Gesprächsführung wie z.B. mein Gegenüber argumentativ platt machen oder ähnliches, sondern vielmehr von den weit wichtigeren nonverbalen Aspekten in der Gesprächsführung – und hier liegt die Tücke!

Werbung

doch der Reihe nach

In einem echten face-to-face Gespräch ist der direkte Augenkontakt entscheidend – ich versuche also, meinem Gegenüber direkt in die Augen zu schauen so weit es geht – nicht übertreiben und mit stechendem Blick durchbohren.

Als ersten Vorteil signalisiere ich meinem Gegenüber großes Interesse an seinem Blah und zweitens kann ich direkt aus seiner Mimik, evtl. auch Gestik, lesen. Runzelt mein Gesprächspartner bei einer meiner Aussagen die Stirn? Zieht er die Augenbrauen nach oben? Lächelt er vielleicht oder schaut er gelangweilt irgendwo anders hin?

In der Erfahrung hat sich übrigens herausgestellt, das es sehr wichtig ist, den Anderen wenigstens einmal zum Lächeln zu bringen und ihn damit auf einer tieferen, emotionalen Ebene abzuholen.

Klar, die Mimik sagt wesentlich mehr aus als das gesprochene Wort – wir sind eben keine Roboter, obwohl die mittlerweile auch schon blinkende Lämpchen haben.

jetzt endlich zu den Tücken der Technik

Schaue ich jetzt in einem Videocall meinem Gegenüber – aus reiner Gewohnheit – direkt auf dem Bildschirm in die Augen, so schaue ich ihm eben nicht in die Augen! Für die andere Seite sieht es so aus, als würde ich etwas nach unten blicken – was für diese andere Seite sehr unangenehm und völlig desinteressiert wirkt.

Woran liegt das? An der Position der Webcam, die in aller Regel im oberen Bildschirmrahmen verbaut ist! Wenn ich also auf den Bildschirm schaue, sieht es in der oberen Webcam so aus, als schaue ich nach unten.

Um Augenkontakt herzustellen, muss ich also direkt nach oben in die Webcam schauen. Und hier liegt das Problem, schaue ich in die Webcam, habe ich nur noch schlecht den Bildschirm im Blick und kann auch nur noch schlecht den Gesichtsausdruck meines Gesprächspartners auf dem Bildschirm ablesen und kontrollieren (außer ich bin ein Leguan, der mit seinen zwei Augen in unterschiedliche Richtungen blicken kann).

die Strategie – ganz einfach

Spricht mein Gegenüber, zeige ich Interesse, stelle Augenkontakt her und schaue direkt in die Webcam.

Und umgekehrt, spreche ich, bin ich also auf die Reaktion und Mimik meines Gegenübers angewiesen, behalte ich mehr den Bildschirm im Blick.

Ganz einfach eben – oder ich mache die Webcam aus, ist halt kaputt bei Nachfragen.

Ein großer Vorteil von Videocalls soll hier nicht unerwähnt bleiben. Ich sehe mich selbst, wenn auch nur in einem klitzekleinen Fenster – aber immerhin, in echt habe ich das nicht!

Und zum Glück sind schon neue technische Lösungen für dieses Problem in Sicht, zumindest gibt es bei Smartphones Entwicklungen hin zu einer unsichtbaren Selfie Cam direkt in der Mitte des Bildschirms.

Werbung

ansonsten, gutes Gelingen – und immer an die Webcam denken!

 

und schau’ auch mal im shop vorbei:

max800words.com … crazy, bunt, sheeesh

 

Werbung

Die etwas andere Bewerbung 4.0 – Vorbereitung und Motivation – 687

Lesezeit 4 Minuten  … viel Spaß beim Lesen

1. Content

Warum ich diese Zeilen hier verfasse? Nun, es gibt tausende – nein, Myriaden – Bewerbungsratgeber, Blogs, Webseiten, sogar Bücher [ja, dieses Ding aus Papier!] – und was kommt dabei heraus?

Ein extrem langweiliger Bewerber – und kein für das Unternehmen wertvoller, interessanter und individueller neuer Mitarbeiter mit Wertschöpfungsbeitrag.

Denkst Du ernsthaft, ein Personaler, der den ganzen Tag zig mal oder mehr den gleichen Blah gehört und gelesen hat, erinnert oder interessiert sich genau für Dich? Genau!

Und hier liegt das Problem! Im Marketing geht es hier – ach, ich liebe dieses Marketingsprech – um die sogenannte unique selling proposition, die aufgebaut werden muss, keine Bewerbungsfloskeln.

Ich hoffe, mit diesem Beitrag etwas mehr Klarheit zu schaffen, sowohl für Festangestellte aber hauptsächlich für freelancer – wir lassen uns ab jetzt nicht mehr ausbeuten und knechten – wir sitzen am längeren Hebel!

2. Selbstfindung

Gerade bei freelancern mit hoher Projektfrequenz stellt sich immer wieder die Frage: “Will ich da wirklich arbeiten?“.

Die Range geht dabei von der Eisenbiegerbude irgendwo in der Pampa, aber mit interessantem Infrastrukturprojekt, bis hin zum hippen Startup irgendwo mitten in der City, dafür aber mit komischen Leuten.

Schwierige Frage, eventuell kommen noch monetäre Aspekte hinzu – bin ich pleite, nehme ich natürlich das erste Projekt was kommt.

Ziel hier muss immer sein: Der Gelassene ist erfolgreicher als der Getriebene!

3. Erstes Telefonat und Terminfindung

Die Sache ist relativ einfach – handelt es sich nicht um ein Telefoninterview, das steht auf einem anderen Blatt – sondern um eine simple Terminfindung für ein Gespräch – machst Du dich rar: “Oh, zu dem vorgeschlagenen Termin kann ich leider nicht, gibt es einen Ausweichtermin?”

Ich bin doch nicht der Affe, der pünktlich vom Baum hüpft und sofort antritt!

4. Erstes Gespräch – Vorbereitung

Leute, jetzt wird es ernst – richtig ernst, Alarm! wo soll ich bloß anfangen?

Also, irgendwelche wissenschaftlichen Studien haben herausgefunden, dass sich die Meinung über einen anderen Menschen, also über dich, innerhalb von ein bis zwei Sekunden bildet.

Deshalb dein Outfit:

Handelt es sich um eine erzkonservative Bude mit hundertjähriger Familientradition? Klar, bester Anzug, Krawatte und bei Männern kein Dreitagebart (bei Frauen auch nicht).

Normales Unternehmen, Job ohne Führungsposition: irgendwie abgefahrenes Sakko z.B. in quietschblau mit Jeans [ohne Löcher drin!] – evtl. Dreitagebart, sieht halt verwegener aus.

Hippes Startup mitten in der City: auf jeden Fall mit abgefahrenen bunten Sneakers.

Deshalb dein Look:

Evtl. machst Du vorher nochmal einen Abstecher in den Toaster [Solarium] – wenn die wieder geöffnet haben – damit du nicht gleich wie eine Wasserleiche rumläufst.

Alternative dazu sind ausgedehnte Spaziergänge bei schönem Wetter und Sonnenschein – ja wirklich! raus aus der Bude und weg vom Laptop! … fördert übrigens auch einen besonders elastischen Gang!

Und besorge dir vorher unbedingt noch ein solches FitBit Armband – so ein Dings, was Puls, Schrittanzahl und Kalorienverbrauch misst [kostet nicht viel]. Damit siehst Du dann gleich aus wie so ein Vertreter dieser radikalen und bekloppten Gesundheitsfraktion.

Und an alle hardcore Kettenraucher: versuche unbedingt deine gelb gequalmten Finger weg zu bekommen – geht z.B. mit Zahncreme oder Zitronensaft und etwas einwirken lassen.

Und was überhaupt nicht geht und vorher im Barber Shop unbedingt beseitigt werden muss: Hässliche Frisur, lange Nasenhaare oder Haare in den Ohren!

5. Erstes Gespräch – Vorstellung:

Dem Gesprächspartner möglichst gerade gegenübertreten, Schultern nach hinten, direkter Blickkontakt, nicht mit Blicken durchbohren und leichtes überlegenes Lächeln, kein breites dämliches Grinsen.

Händeschütteln:

möglichst formschlüssigen Kontakt zwischen eigener und fremder Hand herstellen – nicht nur luschig die Fingerspitzen – und dann zudrücken was geht – ok, bei Frauen vielleicht etwas weniger.

Ach nein, wir haben ja Corona und Ghetto-Fäusteln nur noch. Aber auch hier gilt: nicht nur luschig Faust an Faust sondern vielmehr genau zielen und dann feste drauf auf die Faust des Anderen – übe das Ganze aber mal vorher mit einer Person deines Vertrauens, damit es am Ende nicht peinlich wird …

… so, erst einmal habe ich fertig … weitere Tipps folgen dann in Teil 2 dieses Ratgebers: “Die Bewerbung – das Gespräch und der Erfolg”

Atomphysik für Nerds – 2307

Lesezeit 11 Minuten

1. Warum ich diese Zeilen hier verfasse? Nun: der Quantencomputer!

Die USA mit Google und Amazon, mehrere private Unternehmen – die Chinesen sowieso – arbeiten genau an dieser neuen Maschine – und selbst DE hat jetzt nochmal zwei Milliarden Eus an Fördergeldern rausgehauen, um hier nicht komplett jeden Anschluss zu verlieren.

Doch um was geht es? Ganz einfach: Aufgaben, an denen sich ein herkömmlicher Rechenknecht mehrere tausend Jahre die Chips heiß rechnen würde, erledigt diese neue Technologie in wenigen Sekunden!

Der Unterschied in der Rechenleistung zwischen einem Heim-PC und einem Quantencomputer ist dabei in etwa so groß wie der Unterschied zwischen einem Zeppelin und einem Hyperschall Jet – oder besser einer Saturn 5 Rakete!

Echtzeit Verkehrssimulation in großen Ballungsräumen, völlig neue Materialforschung oder medizinische Anwendungen und Simulationen, DNA Analyse, KI sowieso – mit Quantumcomputing alles jetzt kein Problem mehr.

Aber: Ein wirklich funktionierender Quantencomputer könnte allerdings auch jede komplexe kryptografische – auf Primzahlenzerlegung aufbauende – Verschlüsselung in wenigen Sekunden knacken! Alarm, sämtliche bisherige Datenverschlüsselung dieser Erde wäre sofort hinfällig! [Man munkelt übrigens, die drei Buchstaben Agentur hat so ein Ding schon lange im Keller stehen.]

Sicherlich kann es jetzt nun nicht schaden, hier einige physikalische Grundlagen und Theorien drauf zu haben, um im nächsten Gespräch mit Kollegen über diese Sache als Schlaubi Schlumpf dazustehen und Plan zu haben. Mega interessant und spannend ist es ohnehin – die Astrophysik mit ihrer komischen dunklen Materie und Energie kann dagegen einpacken – also auf zur Teilchenphysik und Atomtheorie.

Und weiter geht es im bunten Galopp – und vielleicht ist es jetzt an der Zeit, eine deutliche Warnung auszusprechen. Quantenphysik – also das Verhalten der aller kleinsten Teilchen – hat nichts, aber überhaupt nichts mehr mit unserer alltäglichen Erfahrungswelt zu tun und unser Hirn ist hier glatt überfordert!

Beschäftigt man sich zu lange damit, kann es passieren, dass man sich ganz schnell in einer dieser schicken weißen Jacken mit den zu langen Ärmeln, die man auf dem Rücken zusammenbinden kann, wiederfindet – auf zwei mal zwei Metern mit Wänden aus Gummi.

Dennoch ist die Quantenphysik, auch wenn wir sie mit unserem herkömmlichen Gehirn nicht mehr verstehen können, das Beste, was wir heute haben – ohne sie gäbe es keine Laser, keine bildgebenden Verfahren in der Medizin, keine Solarzellen und vieles mehr.

Zum Einstieg aber zuerst einmal etwas klassische Teilchenphysik:

Atomos, also das Unteilbare, nannten schon die alten Griechen in einem mehr philosophischen Ansatz die Urbausteine der Materie – Teilchenbeschleuniger und die Physik dazu gab es damals ja noch nicht.

 

2. Niels Bohr und die klassische Theorie

Erst Niels Bohr, dänischer und genialer Physiker 1885 – 1962, beschrieb den einsamen Lauf eines elektrisch negativ geladenen Elektrons in genau definierten Abständen, also Bahnen bzw. Schalen um seinen positiv geladenen Atomkern.

Very freaky stuff: Stelle dir jetzt nun ein Atom wie z.B. Wasserstoff als ein riesengroßes Fußballstadion vor, so zieht das Elektron seine einsamen Bahnen über die äußersten Besucherränge. Der Kern, also das Proton, liegt dann auf dem Anstoßpunkt in der Mitte des Spielfelds und hat die Größe eines Reiskorns, aber 99,5 Prozent der Masse des gesamten Atoms.

Chemische Bindung? Nach Bohr geht es ganz einfach um die äußerere Schale eines Atoms – die sogenannte Valenzschale – die immer mit Elektronen voll besetzt sein möchte bitteschön!

Sauerstoff z.B. hat jetzt allerdings nur sechs anstatt der nötigen acht Valenzelektronen zur vollen Besetzung in seiner äußeren Schale, und nun? Es teilt bzw. klaut sich halt die Elektronen zweier Wasserstoffatome, bindet diese damit an sich – und heraus kommt H2O, fertig! Kennen wir doch aus dem Chemieunterricht.

Negative und positive Ladungen ziehen sich gegenseitig an, einverstanden? Doch wieso stürzt jetzt nicht das negativ geladene Elektron in seinen positiv geladenen Kern, sondern zieht weiter unbeirrt seine Bahnen um diesen Kern?

3. Max Planck und das Quantum

Angefangen hat jetzt alles am Anfang des zwanzigsten Jahrhunderts mit Max Planck und der Spektralanalyse. Planck war damals ein noch eher unbedeutender Forscher in der damals noch eher unbedeutenden oder gar glorreichen theoretischen Physik und die Spektralanalyse ist gerade erst entdeckt worden – und war der neueste Hype!

In einem wenig spektakulären Experiment wollte Planck jetzt Strahlungsenergie genauer beobachten, erhitzte dazu einen Eisenklotz auf mehrere tausend Grad und beobachtete den Abkühlungsprozess eben dieses Klotzes mit dieser damals neuen und revolutionären Spektralanalyse.

Das Ergebnis daraus stürzte Planck in tiefe Depressionen – die Erklärung konnte letztendlich nur sein, dass die Energie im Abkühlungsprozess eben nicht gleichförmig wie in einer Gaußschen Glockenkurve, sondern in wohl definierten Paketen – eben in einem Quantum oder mehreren Quanten – abgegeben wird.

 

Flugs rechnete der Max aus seinen Daten noch das Plancksche Wirkungsquantum aus – die allerkleinste Wirkung bzw. Energiemenge, die es im Universum geben kann – formulierte noch die passende Gleichung dazu: E = h x f [Energie gleich Wirkungsquantum multipliziert mit der Frequenz] – und schon Stand die damalige Physik Kopf und der Grundstein der Quantenphysik war gelegt!

Albert Einstein stieg mit ein und konnte mit dieser neuen Theorie auf einmal seine völlig abstrusen experimentellen Ergebnisse zum photoelektrischen Effekt erklären und erhielt dafür 1921 den Nobelpreis – also nicht wie oft geglaubt für sein E = m x c² – und quasi von Planck geklaut.

Und es ging munter weiter mit Experimenten, dessen Ergebnisse völlig irre waren und die man sich damals noch überhaupt nicht erklären konnte.

Als nächstes berühmt wurde hier das Doppelspaltexperiment, was heute jeder halbwegs begabte Physiker mit entsprechendem Equipment nachbauen kann.

Schießt man nun ein Elektron auf ein Blech mit zwei Spalten, so sollte man meinen, das Elektron entscheidet sich für links oder rechts – tut es aber nicht, es geht durch beide Spalten gleichzeitig hindurch.

In der Auffangzone, heute sozusagen der Landing Page hinter dem Blech, bildet sich bei mehrfacher Wiederholung so etwas wie das Interferenzmuster einer Welle! Bisher war immer etwas eine Welle oder ein Teilchen – der Welle-Teilchen Dualismus eben – jetzt aber zeigte ein Teilchen, also das Elektron, eindeutige Welleneigenschaften!

OK, damit lässt sich jetzt wenigstens halbwegs verstehen, wieso das Elektron nicht in seinen Atomkern stürzt.

Erst Werner Heisenberg brachte dann 1927 wieder etwas Ruhe in diese ganze Aufregung, in dem er alle seltsamen Ergebnisse aus diesen seltsamen Experimenten zusammenführte und daraus seine Unschärferelation formulierte, die erste mathematische und fundamentale Grundlage der Quantenmechanik! Dafür gab es dann 1932 den Nobelpreis.

In dieser neuen Welt sind die Zustände der kleinsten Teilchen zunächst einmal unbestimmt. Man kann hier einfach nicht mehr zwei Eigenschaften eines Teilchen, wie z.B. Ort und Impuls gleichzeitig bestimmen, weil man schon allein durch die Messung der einen Eigenschaft die andere Eigenschaft beeinflusst.

Und weiter: Ein Elektron z.B. befindet sich jetzt nicht mehr an einem bestimmten Ort, sondern es gibt nur noch eine bestimmte Wahrscheinlichkeit, an dem sich dieses Elektron aufhalten könnte – sogenannte Orbitale. Chemische Bindungen entstehen jetzt durch Überlagerung dieser Orbitale.

Noch besser: ein Elektron kann auch an zwei verschiedenen Stellen gleichzeitig sein, z.B. gleichzeitig über und unter einem Benzolring, wirklich!

Noch mehr freaky stuff? Die Verschränkung!

Dieses Phänomen wurde zuerst nur in der Theorie vorhergesagt, mittlerweile gibt es aber tatsächlich experimentelle Ergebnisse aus irgendwelchen wilden Teilchenbeschleunigern, die die Richtigkeit dieser theoretischen Vorhersage zumindest Nahe legen.

Um was geht es? Ganz einfach, spiegelt man z.B. ein Photon – ein Lichtteilchen also – mit einer ganz raffinierten Optik, so kann man daraus zwei Photonen erzeugen und diese beiden Photonen sind jetzt miteinander verschränkt. Ändert man jetzt z.B. den Spin, also die Drehrichtung, des einen Photons, so nimmt der gespiegelte Gegenpart völlig ohne Zeitverzug eben diese neue Eigenschaft selbst an – auch wenn sich dieses gespiegelte Photon am anderen Ende des Universums befindet!

Informationsübertragung in Echtzeit über beliebige Entfernungen widerspricht jetzt allerdings der kosmischen Höchstgeschwindigkeit im Universum, der Lichtgeschwindigkeit. Albert Einstein fremdelte daher Anfangs mit dieser Aussage der Verschränkung und sprach, etwas spottend, von einer “spukhaften Fernwirkung”.

Ja, und so ging es dann immer weiter in der Teilchenphysik, die erste praktische Anwendung dieser Physik war dann leider die Atombombe mit Werner Heisenberg als geistigen Vater.

4. Und Heute

Aus heutiger Sicht waren diese Anfangszeiten der Teilchenphysik aber geradezu romantische Zeiten.

In der heutigen Teilchenphysik arbeiten internationale Forscherteams mit mehreren hundert Wissenschaftlern an Experimenten, um völlig abgefahrenen subatomaren Teilchen wie z.B. Neutrinos, Quarks, Bosonen und Higgs-Teilchen auf die Schliche zu kommen – freaky.

Wir haben heute unterirdische und ringförmige Teilchenbeschleuniger mit zwanzig Kilometer im Durchmesser, das LHC – Large Hadron Collider, in deren inneren Röhre absolutes Vakuum und fast absoluter Nullpunkt in der Temperatur herrscht – und in denen Teilchen gegenläufig auf fast Lichtgeschwindigkeit beschleunigt und zur gezielten Kollision gebracht werden können.

Ein Detektor so groß wie ein fünfstöckiges Haus – Stichwort ATLAS Detektor – misst dann, was genau bei dieser Kollision geschehen ist. Für Nerds: Das LHC ist für Kollisionen von 14 Teraelektronenvolt ausgelegt.

Kurze Story zwischendurch: Einmal lag diese LHC Maschine für mehrere Monate still, weil eine dieser tausenden Magnetspulen, mit denen Teilchen beschleunigt und gesteuert werden, ausgefallen ist. Jetzt einfach Deckel auf und neue Magnetspule rein geht nicht – das betroffene Segment musste erst mal über mehrere Monate von -270 Grad auf wieder halbwegs Zimmertemperatur herauf gekühlt werden!

Und weiter: Mit der anfallenden Datenmenge einer solchen Teilchenkollision sind dann aber erst mal richtig dicke – noch herkömmliche Supercomputer ein halbes Jahr beschäftigt, um dann auch nur ansatzweise zu verstehen, was da bei dieser Kollision passiert und entstanden ist.

Außerdem gehen die Kosten für eine solche Teilchenphysik mittlerweile in die Milliarden – Dollar oder Eus egal. Neue und noch größere Maschinen mit 52km Durchmesser sind bereits in Planung – die “Higgs-Fabrik“, in der eben diese gerade mal 2012 entdeckten Higgs-Teilchen, die der Materie ihre Masse verleihen, genauer untersucht werden sollen – und natürlich in China – Kostenpunkt drei Milliarden Dollars

So, genug der Theorie – ich denke, selbst nur die Hälfte von dem hier Geschriebenen lässt dich im Gespräch unter Kollegen fett punkten und dich ganz sicher als Schlaubi Schlumpf dastehen!

5. Der Zauberrechner

So, jetzt aber zum eigentlichen Thema: der Quantumcomputer!

Klar, ein herkömmlicher Rechenknecht rechnet mit Bits, also eins oder null, also Strom an oder aus – und das mittlerweile in einem völlig irren Takt. Der aktuell schnellste Supercomputer der Welt namens Summit – auch OLCF-4 genannt – schafft damit stolze 148,6 Petaflops, das heißt also knapp 149 Billiarden Kalkulationen pro Sekunde, Wahnsinn! Und außerdem kann man diese Dinger auch noch weltweit untereinander vernetzen.

Was kann ein Quantencomputer jetzt noch dagegen ausrichten?

Ganz einfach, ein solcher Computer rechnet jetzt nicht mehr mit Bits, sondern mit Quantum-Bits oder kurz QuBits!

Achtung! und jetzt alle gut festhalten – mein Gehirn macht auch gerade eine Rolle rückwärts:

– ein QuBit ist ein unbestimmter quantenmechanischer Zustand nach der Heisenbergschen Unschärferelation

– ein QuBit enthält gleichzeitig alle möglichen Werte zwischen Null und Eins

– ein QuBit enthält gleichzeitig alle möglichen Ergebnisse einer Berechnung!

Oder doch ganz einfach mit einer Münze erklärt, die zeigt jetzt mit Kopf oder Zahl nach oben. Wirft man diese Münze nach oben in einer Drehung, so kann man jetzt eben nicht mehr genau sagen, was gerade nach oben zeigt – beides, Kopf und Zahl halt gleichzeitig.

Puh, ist aber so und erklärt die enorme Rechenpower eines solchen Quantumcomputers!

In der praktischen Umsetzung ergeben sich jetzt aber gleich mehrere richtig heftige Probleme – wir sind hierzu und im Moment quasi noch in der Grundlagenforschung mit vielleicht gerade mal hundert QuBits, die aber auch nur ganz spezielle und maßgeschneiderte Aufgaben lösen können. Die Zerlegung der Zahl 15 als Ergebnis der Multiplikation ihrer Primzahlen 3 und 5 hat z.B. schon mal geklappt, immerhin.

Mit einem wirklich für alle möglichen Rechenaufgaben brauchbaren Quantumcomputer wird vielleicht in zehn oder fünfzehn Jahren gerechnet, oder leider noch länger wenn überhaupt.

Die Probleme gehen schon los mit der technischen Herstellung eines solchen unbestimmten Quantenzustands. Bauteile für eine solche Maschine kann man jetzt leider nicht bei ebay bestellen, die müssen extra berechnet, konstruiert und hergestellt werden.

Ein QuBit lässt sich jetzt ganz einfach – ha! – mit einem Ion bauen, also mit einem Atom, dem ein Elektron fehlt. Dieses Ion wird jetzt in einer Ionenfalle wie z.B. in einer Pauli-Falle [Wolfgang Pauli 1900-1958], oder auch Quadropol-Ionenfalle genannt, festgehalten.

Jetzt muss das Ganze nur noch im Vakuum auf nahe dem absoluten Nullpunkt heruntergekühlt werden – stabil gelagert und von sonstigem störenden Energieeintrag durch irgendwelche Strahlung von außen abgeschirmt sowieso.

Beschießt man jetzt dieses so gelagerte Ion mit einem über Zeit und Energie genau definierten Laserimpuls passiert Magisches!

Das QuBit geht für eine bestimmte Zeit – auch genannt Kohärenzzeit und bisher nur für wenige Millisekunden – in diese unbestimmte [wir haben eben aufgepasst?] Superposition zwischen Null und Eins über. Jetzt kann es ungestört mit anderen QuBits in einem Quantengitter vor sich hinrechnen – wie genau? da steige ich jetzt mal aus.

Das Problem besteht jetzt hier auf jeden Fall darin, diese Superposition solange aufrecht zu erhalten, bis alle Berechnungen durchgeführt sind – also die sogenannte Dekohärenz möglichst lange herauszuzögern.

Und das alles ist jetzt noch nicht das Ende der Probleme in der praktischen Umsetzung, weiter geht es mit Verfahren zur Fehlerkorrektur bis hin zu speziellen Algorithmen, mit denen eine solche Zaubermaschine dann rechnet. Ohne weitere Hilfe eines herkömmlichen Computers, eine Hybridlösung, wird es dann wohl auch weiterhin nicht gehen.

Letztendlich sieht es in diesem Quantencomputing in etwa so aus wie mit der klassischen EDV vielleicht in den 60er oder 70er Jahren. Selbst der Bordcomputer der Raumkapsel von Apollo 11, mit der doch tatsächlich Menschen zum Mond geflogen sind, hatte gerade mal die Rechenleistung eines etwas besseren Taschenrechners. Heute – nur wenige Jahrzehnte später – sind wir alle untereinander vernetzt und laufen mit kleinen – aus damaliger Sicht – Hochleistungscomputern am Ohr durch die Gegend.

 

Quantencomputer? Das wird schon! Übrigens gibt es bereits mit “IBM Q Systems One” den ersten, über die Cloud buchbaren Zaubercomputer mit immerhin schon 20 QuBits und 75 Mikrosekunden Kohärenzzeit – ab 50 Qubits wird übrigens mit Überlegenheit über jeden Supercomputer gerechnet.

 

Vielen Dank – BIG THX

 

Markus