Werft alte Zahlen weg!

Ich war nun ein paar Mal daran beteiligt, wenn IT Organisationen reinen Tisch machen wollten und eine grundsätzliche Neuaufstellung (in Bereichen) anstrebten, sei es durch große Joint-Ventures, Akquisen oder einfach weil das Business in einer Krise steckte.

Vielfach sind mir dort IT Organisationen begegnet, die durchaus wussten das einige Dinge deutlich in Schieflage waren oder einfach alles nur historisch gewachsen sind und jedwede Struktur zu hinterfragen war.

Was mich allerdings wundert ist, dass vielfach die neue Architektur auf bestehende Reports bzw. Zahlen aufgebaut werden sollte. Damit meine ich, das sehr früh noch bei der grundsätzlichen Planung des Veränderungsprozesses vorhandene Reports als Zahlengrundlage genutzt werden sollten.

Es kommen in solchen Veränderungsprozessen nur ganz wenige Beteiligte auf den Gedanken, dass das die Nutzung bestehender KPIs ein Fehler mit möglicherweise immensen Auswirkungen ist. Es liegt auf der Hand, dass die historische Organisation, also die Organisation die in Schieflage gekommen ist, mit diesen Zahlen und Berichten gesteuert hat.

Nur sehr wenige Zahlen in Reports sind objektiv. Die bisherige Organisation dürfte einige KPIs geschaffen haben, an denen Bereiche gemessen wurden, die jetzt angeschlagen dastehen. Natürlich werden KPIs fast immer interpretiert, getuned oder aufgehübscht. Die Messzahlen in vielen Organisationen müssen von Jahr zu Jahr in die gewünschte Richtung wachsen, also tun sie das auch.

Selbst bei Zahlen die mit guter Absicht designed wurden, sind Messpunkte, Konsolidierungen und Abschätzungen zur Berechnung gesetzt worden, dieses Design und seine Kompromisse sollte man sich stets genau ansehen. Viele Dinge sind gar nicht eindeutig oder gar leicht zu messen, also wird ein Stück interpretiert, das ist ganz normal.

Ich wäre sehr vorsichtig und würde nur überprüft saubere Rohdaten heranziehen. Bestehende Reports können eventuell dazu nützlich sein, die alte Organisation zu verstehen und Fehlerursachen bzw. Fehlleitungen zu ergründen.

  • Die meisten Reports werden Aussagelos sein, die wurden irgendwann mal auf dem grünen Tisch entwickelt und seitdem jeden Monat abgeheftet. Specht mit den Verantwortlichen welche Reports die nutzen, was sie daran nutzen und was sie zur Lenkung eingesetzt haben.
  • Bei manchem unsauberen Report ergibt das Monat zu Monat Delta eine brauchbare Aussage. Steigen die Einnahmen bei virtuellen Servern oder fallen diese, auch wenn die Gesamtsumme in Euro nicht mit dem Financial Reporting übereinstimmt. Bitte mit Vorsicht nutzen, manchmal sind Lücken enthalten die einen auf einem Auge Blind machen.
  • Apropos Übereinstimmung: Versucht doch einmal die selbe Zahl (KPI, PI) über verschiedene Business-Unit-Reports zu ermitteln. Anzahl der virtuellen Server einer BU aus den Daten der BU-Reports, CMDB und dem IT Monatsbericht. In einem der letzten Unternehmen waren die so zu ermittelten Abweichungen oft bei bei 15%-20%!
  • Zahlen die durch Interpolation hochgerechnet werden sind in dieser Form irreführend und lohnen keines Blickes. Fehler finden sich zum Beispiel in der Form, dass Zahlen von Hauptstandorten genutzt werden, um auf das Gesamtunternehmen mit einigen großen und vielen kleinen Standorten hochzurechnen. Kleine Standorte funktionieren aber oftmals anders. Sie haben bestimmte Services nicht, diverse Services mit zusätzlichem Aufwand oder ganz simpel eine Shadow IT.

Kurz und gut: Wenn ihr an Bord kommt, um ein auf Grund gelaufenes Schiff wieder in die Fahrrinne zu bekommen. Schmeißt die alten Karten weg und nutzt eure neuen Seekarten. Die alten Karten lassen sich ganz eventuell hernehmen, um die Ursache der Havarie zu ermitteln.

 

Kleinvieh macht viel Mist

Das ein oder andere Mal wird man damit konfrontiert, wenn sich nach dem Kauf heraus gestellt hat, dass ein anderes Produkt, ein anderer Service oder Serviceprovider die viel bessere Wahl gewesen wäre. „Hätte ich mal bei euch gekauft“, kann eine banale Aussage sein oder deutet auf ein Problem in der Entscheidung hin.

Eine der Ursachen kann eine simple Entscheidungsmatrix sein. Wenn sie wirklich verwendet wird und nicht einfach durch den Einkauf auf die Variable kleinster Preis verkürzt wird. Das Objektivieren durch Prozentwerte oder Punkte ist gar nicht so leicht und die Entscheidungsmatrix hat eine Tendenz von den entscheidenden Punkten wegzuleiten. Sie ist komplizierter als es auf den ersten Blick scheint.

Damit dieser Blog-Eintrag nicht Seiten füllt, werde ich im folgenden keinen IT Service einkaufen, sondern Äpfel mit Birnen vergleichen: Ich möchte ein Stück Obst für die morgige Wanderung einkaufen und fahre der Einfachheit halber zum Lebensmittelladen um die Ecke. Nun gibt es im Vorfeld einiges zu bedenken, um die Wahl zu erleichtern. Da gibt es Preis pro kg, mein Lieblingsobst Apfel und Birne sollen einen Vorzug bekommen, das Obst soll reif sein, nicht zu reif, da es ja den Tag im Rucksack überstehen soll, ist es Bio-Ware, ein lokales Produkt, etc. Aus dieser Sammlung entsteht nun eine Entscheidungsmatrix:

Kriterium max. Punktzahl
Preis pro 100g 30%
Apfel oder Birne 30%
Reifegrad 5%
Festigkeit 3%
EU-Bio-Label 3%
Demeter-Label 2%
Lokaler Anbieter 2%
Fair Gehandelt 2%
Nicht eingeschweißt 1%
Und so weiter und so weiter… …bis die Summe 100% ergibt.

Obiges ist ein ganz typischer Ansatz, die wichtigsten Kriterien bekommen so um die 60% und die restlichen 40% verteilen sich auf das Kleinvieh. Wenn diese Listen im Projekt reifen kommt typischerweise noch ganz viel Kleinvieh hinzu, weil neu hinzugezogenen Leuten noch etwas Zusätzliches einfällt. Der Prozentwert für ein zusätzliches Kriterium wird dann zuerst von den fetteren 5% Kleinvieh Kriterien stibitzt und weil 1% unteilbar erscheint, dann werden irgendwann sogar von den wichtigsten Kriterien Prozentpunkte abgezweigt. So dass dann die Verteilung Wichtig zu Restlich von 60/40 auf 50/50 oder weniger sinkt. Nur falls jemand auf die Idee kommt: Die Verwendung von absoluten Punktzahlen statt Prozentwerten macht die Sache nicht besser.

Weiterhin ist die arithmetische Bewertung oft nur schwach festgelegt, obwohl sie einen großen Einfluss auf die Gewichtung hat. Nehmen wir mal an, wir finden Physalis 2 €, Kiwis zu 1,30 €, Bananen zu 0,90 €, Birnen zu 0,80 €, Äpfel zu 0,70 € und Wassermelonen zu 0,30 €. Nun teilen wir die 30% für das Preiskriterium in 10 cent Stücke mit 2 € entsprechen 0% und 0 € 30%. Somit liegt die Banane bei 16,5%, der Apfel bei 19,5% und die Melone bei 25,5%. Das kann ja so gemeint sein, aber in diesem Beispiel fangen wir uns durch preisliche Ausreißer eine Bewertungslücke von ca. 10% nach oben und unten ein. Da die Bandbreite der möglichen Kandidaten verkleinert wird, ist ein Nebenkriterium wie Bio-Qualität nun ausreichend, damit eine Banane den günstigen Apfel locker überholen kann.

Darüber hinaus ist ein nicht zu verachtender Einfluss, dass manche Nebenkriterien sich einander bedingen. In dieser Tabelle ist ein Lebensmittel mit Demeter e.V.-Label ein Beispiel, da Demeter hinreichend für das EU-Bio-Label ist, bekommt dieses Kriterium 2%+3% = 5%. Wenn das so gewollt ist prima, meistens sind derartige Abhängigkeiten jedoch komplexer und schränken wenn es schlecht läuft die optimale Punktzahl für den besten Kandidaten ein.

Wie Anfangs schon erwähnt, Nebenkriterien sammeln sich im Laufe eines Projektverlaufs massiv an. Viele Leute bringen viele Ideen mit, auch kommen von den Anbietern in der ersten Runde noch viele Anregungen für weitere sinnvolle aber oft nicht wesentliche  Produkteigenschaften. Neben dem Strandgut gibt es aber noch eine zentrale Sammelstelle für Nebenkriterien, die Zukunftsfähigkeit. Nebenkriterien zum weiteren Ausbau oder Zukunftsfähigkeit des Produktes oder Service sind eine oft ungeschickt treibende Kraft..

Sicher gibt es konkret anstehende Notwendigkeiten. Bei IT Services fällt mir da die EU-Datenschutz-Grundverordnung (EU-DSGVO) ein. Diese tritt im Mai 2018 in Kraft und sollte bei Services die 2017 eingekauft werden beachtet werden. Ich meine jedoch Kriterien die einen möglichen Ausbau betreffen: Der Services könnte neben IT später auch Facility Management versorgen, dieses Client Produkt könnte eventuell in Zukunft auch auf Servern Anwendung finden, mit einem höheren Reifegrad in der IT könnten wir in Zukunft vielleicht dieses und jenes Feature benötigen. Diese Hätte-Könnte-Eventuell-Kriterien wachsen in manchen Entscheidungsmatrizen auf über 20%, sind aber für die Gegenwart unwichtig. Zum einen ist unklar was in Zukunft wirklich benötigt wird. In der Rückschau wird man sehen das tatsächlich eingesetzte Features dann nur 3% ausmachten und die restlichen 17% Zukunftspotential weiterhin brach liegen. Auch ist unklar wie sich die Produkte entwickeln, das aktuell top-moderne auf Zukunft ausgerichtete Produkt wird in zwei Jahren vielleicht ins Hintertreffen geraten sein.

Lösungen

Nebenkriterien sind Nebenkriterien, sie sollten wirklich limitiert sein. Zum Beispiel sollten sie in der Gesamtmenge nur 10% Einfluss nehmen können. Damit man sich mit Promillewerten nicht so schwer tut: Wie wäre es mit einer Nebentabelle? Eine Sammlung aller Nebenkriterien, bepunktet nach Gusto, die in Summe mit 10% eingeht. Noch sinnvoller ist natürlich Nebenkriterien zu streichen oder ohne Gewichtung als informative Liste aufzunehmen.

Bei den Hauptkriterien bitte sehr intensiv über die Objektivierung nachdenken, vorzugsweise mit einer passenden Entscheidung aus der Vergangenheit durchspielen. Heißt Preis geht zu 50% ein, dass der günstige Kandidat 50% und der zweit-günstigste Kandidat 48% bekommt?

Gerade bei Entscheidungen deren Produkte oder Services Neuland sind, unbedingt Abhängigkeiten der Kriterien vermeiden. Abhängige Kriterien können meist zu einem Kriterium zusammengefasst werden. Komplexere Entscheidungsmethodiken, die zum Beispiel Bayessche Netze beinhalten, sind bei einem solchen Vorhaben oft unangebracht, da sie zwar mathematisch transparent aber recht schwer mit den Anforderungen des Vorhabens zu durchdringen sind.

Bei der Zukunftssicherheit empfiehlt es sich eine Strategie zu entwickeln. Ein Ergebnis könnte sein, Agilität zu bewahren in dem man Produkte oder Services schnell umbauen kann, das heißt bei Laufzeiten oder Abnahmemengen flexibel bleibt. Aber auch das ist abzuwägen.

Entscheidungsmatix ähnliche Fallen

Risikobetrachtungen werden oft ähnlich simpel aufgestellt. Dort gibt es vielleicht sogar eine Richtlinie die sagt, dass ein Risiko eine Eintrittswahrscheinlichkeit von mindestens 0.5% haben muss. Somit wandert das Risiko in eine Gegend, die nur dadurch geprägt ist, weil den Leuten dort so viele Anwendungsfälle einfallen. Zu den Lösungen kann hier ggf. nach mit Clusterung oder Kategorisierung gearbeitet werden, so dass ähnliche Risiken gemeinsam betrachtet werden.

Ähnliche Probleme finden sich auch in Assessment-Methodiken oder Entscheidungsunterstützung von Beratern. Auch diese Tools neigen dazu, dass unwichtige Nebenkriterien eine kleine Beachtung erfahren und damit in Summe Mist bauen. Bei komplexeren Verfahren lohnt sich in jedem Fall mit einem leeren Zettel zu beginnen, die Entscheidungskriteren zu skizzieren und den Zettel kurz vor Entscheidung wieder heraus zu kramen.

Obejektivierung fühlt sich gut an, ist so manches Mal aber nicht optimal.

Innovation und Erfindung

Vielen Kunden geht es darum, wie innovativ ein Provider ist. Dabei ist die Auslegung des Begriffs Innovation sehr breit und spannend. Neulich haben wir mal sehr schlechte Noten im Bereich „Innovation“ eines Angebots bekommen. Anscheinend hatten zählt dieser Kunden zu Innovation nur Erfindung oder Selbstoptimierung. Was war geschehen?

Für den Aspekt Innovation hatten wir einen Kundenworkshop, bei dem die Innovationen bei einem vergleichbaren Referenzkunden vor Ort besprochen wurden. Nun muss man wissen, dass dieser Referenzkunde sehr gut auf Verbesserungsvorschläge reagiert. Insbesondere auch Verbesserungen bei denen auch er etwas Investieren oder Ändern muss. Tatsächlich kann man leicht feststellen, dass die finanziell wirkungsvollsten Änderungen beidseitige Prozessverbesserungen, eliminieren von Verschwendung (Lean Waste) und Automatisierung. Hier wurden nachweislich Kosten von bis zu 30% eingespart.

Gemeinsame evolutionäre Verbesserung war aber für diesen Kunden keine Innovation. Im Nachhinein wären in diesem Fall Innovationen Einsparungen im Betrieb ohne Interaktion mit dem Kunden gewesen. Eine Ecke bei der kontinuierlichen Verbesserung die äußerst langweilig ist. Bei den heutigen schon sehr optimierten Services schafft man so nur wenige Prozentpunkte im Jahr. Bei Commodity Dienstleistungen ist auch keine umwälzende Revolution zu erwarten, die große Einsparungen erwarten lässt.

Ein typisches Schema was sich bei Auftraggebern, die sich selber nicht beteiligen wollen, oft findet sind intern eingefahrene Strukturen. Nicht nur die Lieferanten sollen alles auf ihrer Insel selber optimieren, dieses Inseldenken gilt auch für die Konzernteile untereinander. Solche Umgebungen sind in sich äußerst träge. Als Anbieter  könnte man unredlicherweise große Einsparungen durch Innovation behaupten und mit einiger Sicherheit darauf hoffen, das derlei Änderungen auch bei minimalen Einfluss auf andere Konzernteile nicht durch das Change Advisory Board kommen.

Innovation ist das Anwenden von Erfindungen zum eigenen Nutzen. Wird ein Service dazu genutzt den Geschäftswert zu steigern und Innovation nur auf den Service beschränkt, so scheiden sehr viele Teile des Gesamtprozesses als Optimierungskandidaten aus. Insbesondere auch disruptive Änderungen, die nicht nur Bestandteile sondern den Gesamtkomplex in Frage stellen.

Meist wird in einer solchen Kultur Tools und Methoden mit einer großen Wichtigkeit und Wucht diskutiert. „Tool X taugt überhaupt gar nichts, wir konzentrieren und nun auf Tool Y“ oder „Methode A ist unmodern und hat sich in der Industrie nicht bewährt. Wir implementieren jetzt Methode B“.

Für Außenstehende ist es dann ganz wunderbar mit anzusehen, wird ein Service Managment, Kundenmanagement oder im Allgemeinen ein Prozess-Managment-Tool auf einer Insel eingeführt, so bleibt es bei guter Implementierung auf die Insel beschränkt. Mit den Nachbarinseln mag man nicht kommunizieren und erklärt lieber schnell die Konzernweite Einführung des Tool für erfolgreich.

Nach dem Anfangserfolg auf der Insel vergehen dann meist wieder Jahre oder Management-Wechsel, bis jemand feststellt, dass die Kundendaten, Vertriebsprozesse, Fertigungsprozesse oder internen IT Abläufe wie User-Life-Cycle immer noch sehr heterogen sind. Dann beginnt die Suche nach einem innovativen Tool weiter. Darf es diesmal was mit KI sein oder einfach eine Nummer größer.

Das alte Tool neu aufgesetzt mit interner Beteiligung, Befähigung und Governance wäre zielführender, aber es ist der Glaube an ein Wunder der Innovation. Neues Tool, neues Glück.

Ein besonders schönes Erlebnis hatte ich mit einem Kunden, dessen funkelnagelneues ITSM Tool sehr umständlich zu bedienen uns zu beherrschen war. Obwohl dieses Tool damals zu den Innovativsten am Markt zählte. Das Tool war sehr verbogen und eignete sich nicht zum arbeiten. Darauf Angesprochen konnte der Kunde leider auch nichts mehr machen. Originalaussage: Für das Feintunen ist kein Budget mehr da, da die erste Welle 300% zu teuer war, nun hat das Management beschlossen in dieses Tool nicht mehr zu investieren.

Wer hat Angst vor dem künstlich intelligenten Mann?

In den letzten Jahren nehmen Warnungen vor den Auswirkungen von künstlicher Intelligenz (KI, AI) zu. Dabei hat sich von den Informatik-Grundlagen künstlicher Intelligenz bis hin zu unserer Wahrnehmung kaum etwas geändert. In meinen Augen ein großes Missverständnis.

Die Furcht manifestiert sich in Maschinenwesen, die intelligenter als Menschen werden und die Macht übernehmen. Die Angst vor der technologische Singularität, der Tag ab dem die Maschinen über die Menschheit herrschen.

All das hat wenig mit dem aktuellen Forschungs- oder Entwicklungsstand von Künstlicher Intelligenz (Artificial Intelligence) zu tun. Woher diese Furcht ihre Nahrung bekommt kann ich nur vermuten. Zum Einen ist es die Science-Fiction-Literatur zum Anderen nutzt die KI Forschung bewusst irreführende Begriffe aus dem kognitiven Umfeld wie Intelligenz, Neuronen oder Denkleistungsvergleich mit Insekten oder Katzen. Aber alles der Reihe nach.

Menschliche Roboter in der Literatur

Schon frühe Science Fiction Literatur zum Beispiel von Isaac Asimov beschäftigt sich mit Robotern, die in Entscheidung-Dilemmas stecken, eine kindliche Intelligenz haben und somit sehr menschenähnlich sind.

Ein durchgängiges Roboter-Thema sind menschenähnliche Androiden, denen es nur noch eines Emotions-Chip bedarf bis sie menschlich – mit allen Vor- und Nachteilen – reagieren. Man denke nur an Data aus Star Trek Next Generation, der starr vor Angst seinem Freund nicht helfen kann oder den Androiden aus Dark Matter, die mit dem Human-Upgrade-Chip als Mensch durchgeht aber Fehler macht und den Chip deshalb wieder entfernt.

Diese Science Fiction Geschichten lassen nur einen Schluss zu: In Zukunft gibt es Maschinenwesen denen man zur Vorsicht Emotionen vorenthalten sollte, damit diese nicht die potenteren Menschen-Nachfolger werden. Es gibt aber im Moment gar keinen Hinweis darauf, dass es eine solche Art von Robotern je geben wird, egal ob mit oder ohne Emotionschip.

Forschung attraktiv bewerben

Die Entwickler von KI Systemen scheuen keinen Vergleich zu biologischen Systemen. Ihr neuronales Netz ist so Intelligent wie eine Libelle oder gar eine Katze. Eine künstliche Intelligenz schlägt den Menschen in Schach, Quizzspielen oder ganz aktuell in Go.

Als Informatiker finde ich diese werbenden Vergleiche sehr problematisch. Ein lernender Algorithmus hat aber auch gar nichts mit menschlichem Lernen zu tun, sondern ist ein statistisches Verfahren. Kein Mensch lernt so. Ein künstliches neuronales Netz hat nahezu nichts mit biologischen Neuronalen Netzen zu tun, eventuell sind Basisfunktionen unserer Neuronen ähnlich.

Das in der Berichterstattung diese Art von Vergleichen von der Presse akzeptiert werden sagt viel darüber aus, was wir alles über das menschliche Gehirn noch nicht wissen. Das ist in etwa so als wenn man das Rad am Auto mit einem menschlichen Bein vergleicht. Das Rad am Auto funktioniert doch in etwa so wie ein Knie, oder? Beide sind die Bauteile, die für Bewegung verantwortlich sind. Ganz grob sei doch erlaubt zu sagen ein Rad funktioniert wie unser Knie! Findet Ihr nicht? Irgendwas am Knie dreht, also darf ich das Rad doch bitteschön Bein nennen.

Ihr findet den obigen Absatz abstrus? Er ist auch abwegig, aber genau so abwegig sind die Vergleiche von Künstlicher Intelligenz mit Katzen oder Menschen.

Wahrnehmung schärfen

Es braucht gar keinem Ausflug in die Informatik der künstlichen Intelligenz – auch wenn ich sehr spannend finde und einen Ausflug empfehlen kann. Nein, alles was Ihr zur Analys braucht ist Eure Wahrnehmung. Verhalten sich heutige Systeme intelligent? Lassen wir uns mal auf einige Feststellungen ein.

Computer werden besser als wir, sie schlagen Menschen Weltmeister im Schach oder Go. Ich meine dazu, dass Computer in diesem Sinne schon immer besser als wir waren. Die ersten Computer haben Schussbahn-Tabellen schneller als Rechensäle voller Menschen berechnet. Euer Handy kann sich Termine besser merken als Ihr. Das hat eher etwas mit Speicher und Rechenpower zu tun als mit Intelligenz. Computer sind Hilfsmittel, die unsere Arbeit schon immer unterstützt haben.

Selbst-regelnde Prozesse sehen für uns manchmal intelligent aus, da sie auf ein Ziel zulaufen. Die Regeln dahinter sind jedoch oft äußerst einfach, deshalb meist auch störanfällig. Während Computer sehr gut elementare Qualitätssicherung übernehmen können, scheitern sie jedoch bei nicht berücksichtigten Zuständen. Während ein menschlicher Qualitätssicherer eine unvorhergesehene Situation manchmal retten kann, schaffen dies Regelsysteme nicht, sondern laufen erst einmal ins Chaos. Es ist im Moment auch nicht entferntesten daran zu denken, dass Künstliche Intelligenz die menschliche Koordinationsfähigkeit eines Projektleiters irgendwann einmal erreichen kann.

Auch andere für Menschen einfach auszuführende Tätigkeiten werden sind computergestützt wahnsinnige Herausforderungen, die teilweise seit Jahrzehnten nur langsame Fortschritte machen. Das erkennen von Bildbestandteilen etwa eine Katze auf einem Tisch in einem Wohnzimmer oder auch das übersetzen von Texten. Hier ist der Computer was er ist: Ein Hilfsmittel. Wenn mir mein Handy ein chinesisches Straßenschild übersetzen kann ist das absolut nützlich, aber ganz wenig intelligent.

Data und der Android haben selbst ohne Emotions-Chip eine Art Bewusstsein, auch hier absolute Fehlanzeige in aktuellen Systemen. Die einzige Furcht bleibt, wenn KI-Systeme mal so viel Rechenleistung haben wie Menschengehirne, könnte ja eventuell so etwas auch hier passieren. Das ist wie ein fortgeschrittenes Rad mal Eigenschaften eines Knies übernehmen kann.

Großer Fortschritt entsteht oft genau daraus, dass über den Tellerrand hinaus gedacht und nicht nachgeahmt wurde. Mit dem Auto fahren wir heute sehr viel schneller, als ein Mensch, Pferd oder Gepart laufen kann. Genau das wurde mit dem Computer geschaffen, ein Computer kann wahnsinnig große Datenmengen verarbeiten. In der Künstlichen Intelligenz werden genau diese Rechenleistungen genutzt, nur ganz wenige Sparten der KI befassen sich mit biologischer Informationsverarbeitung.

Angst oder besser Furcht

Ich habe keine Angst vor der technologischen Singularität, also das intelligente Maschinen die Macht übernehmen. Aber ich habe Furcht vor vielen kommenden gesellschaftlichen Herausforderungen die meist Informatik-gestützt sind.

Ich möchte ein letztes Mal mein Rad-Beispiel benutzen. Rad oder Auto haben wenig direkte Auswirkungen auf menschliches Laufen gehabt. Wir Menschen sind in bergigen Waldstücken selbst Geländewagen überlegen. Die Auswirkungen des Autos auf unsere Landschaft und Gesellschaft sind aber immens.

Auswirkungen von Künstlicher Intelligenz sind zum Beispiel selbst-lernende Algorithmen, die über die Höhe eurer Autoversicherung bestimmen. Dabei scheinen Versicherungen weder zu wollen, dass wir die Algorithmen kennen noch daran interessiert sind welche Entscheidungensmuster zu Grunde gelegt werden. Wird man da gerecht behandelt?

Intelligente Messenger versuchen Euch zu helfen und aus Eurer Kommunikation heraus zu erraten, dass ihr ein Restaurant sucht, einen Flug buchen wollt, etc. dabei lernt dieses System nicht nur wie ihr Kommuniziert, sondern errät ein Muster wann ihr was benötigt. es wird nicht nur so sein, dass Euer direkter Wunsch an einen Werbepartner geht, sondern man wird auch eine Verkaufsoption im Vorfeld erkennen.

Was ist mit Robotern, die in der Pflege unterstützen? Entlasten diese Pflegekräfte physisch und zeitlich, so dass diese mehr Zeit haben sich um den Menschen zu kümmern, oder sind diese ein willkommener Weg an Pflege zu sparen?

Oder wenn ihr bei der nächsten Einreise von einem KI System als verdächtig eingestuft und auf dem grünen Ausgang wie zufällig vom Zoll heraus-gewunken werdet. Bei der aktuellen Diskussion könnt ihr mal davon ausgehen, dass ihr weder erfahrt, dass wie ihr selektiert wurdet, noch das ein KI System dahinter steckt, dessen Algorithmus intransparent ist

Sich mit diesen Fragen zu beschäftigen ist viel spannender als Angst vor Künstlicher Intelligenz und Menschmaschine Fantasien. Der Kern der Problematik wird nach wie vor die Informationsverarbeitung und Intransparenz sein, die massive Auswirkungen auf unsere Kultur haben werden. Gerechte Systeme sind nicht zu vermuten, denn Intelligent ist bei KI wenig, das meiste bleibt Menschen-gemacht.

IT Service Management ist Rückständig

Manche für IT Service Management beratende Firmen nerven der immer wiederkehrenden Botschaft, wie Rückständig IT Management doch sei. Es mag mich besonders nerven, weil ich genau das Gegenteil glaube. Genauer, ich glaube dass Firmen in den Dingen, die sie produzieren meist ganz gut sind und unterstützende Prozesse seltener im Fokus von Optimierungen stehen.

Ich finde es deshalb sehr interessant im Alltagsleben Prozesse und Abläufe zu beobachten und zu vergleichen bzw. festzustellen, dass es dort nichts gibt. Schön war letztes Jahr eine Baustelle mit Vollsperrung einer Verbindungsstraße, gleichzeitig wurde die Gelegenheit genutzt eine Schienenstrecke zu renovieren, so dass auch der Schienenersatzverkehr durch die verstopfte Umleitung musste. Wäre das ein IT Verbund würden alle fehlendes Change Management bejammern.

Auch spannend ist seinen Alltag mal nach Service Level Targets zu hinterfragen. In welchem Zeitrahmen bekommt man eine Rückmeldung zu seinem Anliegen bei Behörden, Firmen oder Vereinen. Gemeint ist ein garantierter Rahmen in dem auch Vertragsstrafen akzeptiert würden. Da wird es meist dünn, übrig bleiben einige Franchise Restaurantketten bei denen der Burger in 10 min auf dem Tisch steht und sonst Geld zurück angeboten wird.

Beim IT Service Management gilt der Dreisprung Incident-Problem-Change in etwa als Anfang beziehungsweise als unterste Ebene bei der man noch von Professionalität sprechen darf. Ein ITSM Tool (Ticket Tool) und Service Desk als Single Point of Contact mit einer koordinierten, schriftlich aufgezeichneten Historie von Störungen, Bestellungen, Ursachen und Änderungen. Ein bisschen Kontinuierliche Verbesserung und schon entsteht langsam ein professionelle IT.

In anderen Industriebereichen ist das noch völlig unbekannt. Ein schönes Beispiel kam mir neulich in die Hand: Ein Auto-Katalog in meinem Briefkasten mit einem Anschreiben ich möge doch mal durchblättern, ob ich nicht eine Probefahrt mit einem der Modelle machen möchte.

Die Geschichte dahinter ist einige Jahre her, ein Neuwagen dieser Marke zickte nach ca. 3 Jahren rum. Es kam zu Kabelbrüchen durch Korrosion unter dem linken Scheinwerfer. Störung: Wagen sprang nicht mehr an. Die Reparaturen waren kurz, kostengünstig aber hielten nicht lange.

Leicht genervt bat ich die Werkstatt dieses Problem nun endgültig abzustellen, die Werkstatt könne den Wagen so lange haben wie sie mögen, um eine Nachhaltige Beseitigung der Ursache durchzuführen. Nach der Reparatur übergab mir der Werkstattmeister den Schlüssel mit den Worten: „Jetzt hält es für ein Autoleben“ Pause „vermutlich“. Resultat ca. 6 Monate später wieder ADAC.

Nun wandte ich mich an der Hersteller, dessen Hotline nur allerlei Beruhigungspillen verteilte und mir im Prinzip die letzte Reparatur als Gutschein erstattete. Diesen Gutschein lies ich mir in der Werkstatt ausbezahlen. Der Verkäufer empfahl den Gutschein für die nächste Inspektion einzulösen, woraufhin ich ihm leider mitteilen musste, dass das Auto bereits an den Händler einer anderen Marke in Zahlung gegeben wurde.

Soweit ganz normales Chaos, was eben mal passieren kann, wenn sich keiner zuständig fühlt. Kann einem in einer IT auch passieren, darum geht es nicht. Das interessante kommt in den nächsten Jahren. Das wäre in einer professionellen IT nicht so geschehen.

Ich wurde ca. drei Mal in Abstand von Monaten freundlich vom Hersteller angesprochen einen Fragebogen auszufüllen, ob ich mit meinem Auto nun zufrieden bin. Ich nahm brav teil und verneinte jeweils meine Zufriedenheit und teile auch im Notiz-Feld mit das Auto gar nicht mehr zu besitzen.

Per Post von der Werkstatt wurde ich jährlich an Inspektionstermine und deren Überschreitung erinnert. Nun kam nach Jahren eine Hochglanzbroschüre mit dem Angebot sich ein neues Modell dieser Marke anzusehen.

Sicherlich mag manchen Leser einwenden, dass da jemand seinen Marketingprozess nicht gut im Griff hat und es eigentlich nur eines engagierten Verkäufers braucht, dem auffällt das seit Jahren keine Inspektionen mehr durchgeführt wurden und der simpel mal anruft. Absolut richtig, mitdenkende Menschen sind oft der Kit der brüchige Prozesse zusammen hält.

Aber es geht auch wie in der IT üblich mit einem vernünftigen Incident Prozess, Problem Prozess und einer CMDB. Dort wäre die Störungshistorie nicht nur der Werkstatt sondern auch dem Autohersteller ersichtlich, so dass doch mal Aufwand in einen Tausch eines Teils des Kabelbaums investiert worden wäre.

Auch würde das Auto als Service gesehen, wäre die Störung nicht „Kabelbaum oxidiert“ sondern „Auto springt (auch nach Reparaturen) nicht mehr zuverlässig an“. Es ist ja relativ egal, ob die wieder mal was am Auto flicken. Entscheidend ist die Verfügbarkeit des Service Elements, dass mich nach Hause bringt.

Am Ende ist es ganz Einfach, es geht um den Geschäftswert der mit so einem Auto erzielt wird. Da sind in meinem Beispiel der Hersteller, der Händler (mit Werkstatt) und ich als Kunde. Eigentlich liefert der Prozessablauf alle Daten die benötigt sind.

Die richtigen Schlüsse daraus werden aber nicht gezogen. Egal wie die lauten, etwa „Stellt eine Lösung für das Problem (Ursache) zur Verfügung“ oder „Verkauft dem Kunden ein neues Auto mit Nachlass“. Stattdessen arbeitet jeder an seinen Aktivitäten: Die Herstellerhotline reagiert auf eine Beschwerde zu einer „100€“-Reparatur, die Werkstatt repariert nach Vorgabe, Kunde kauft sich ein anderes Auto.

Was bei mir bleibt ist der Eindruck, dass viele andere Industrien sich im Service Management mal anschauen sollten, was die IT dort macht und vor allem auch was in den letzten 10 Jahren dort gelernt wurde.

In der Herstellung von Produkten sind traditionelle Managementmethoden, wie zum Beispiel Lean oder Six-Sigma absolut etabliert und funktionieren prima. Ich glaube IT Service Management ist ein lohnenswerter Baukasten auch in anderen Industrien sobald ein Produkt in der Hand eines Kunden ist. Denn dann hat auch das simpelste Produkt oft Serviceeigenschaften.

Schaut Euch mal an, ob die IT Service Management Methoden was für Euch sind. Ich glaube es ist lohnenswert, zumindest aber mal spannend über den Tellerrand zu schauen.