Lean Management für Consultants

Bei Fujitsu wird in vielen Bereichen für die Service Erbringung eine Lean Managment Methodik Namens Sense&Respond® eingesetzt, um Verbesserungen im IT Betrieb zu erzielen. Diese hat mich vor einiger Zeit interessiert, dann fasziniert und vor ca. 2,5 Jahren kam die Idee auf dies auch in meinem Bereich das heißt für Presales Consultants einzusetzen.

Wir sind ein Team von Presales Beratern für End User Services, das heißt vielfach sind wir in unterschiedlichsten Projekten unterwegs, um Kunden zu beraten, Geschäftswert von Workplace zu beleuchten, Lösungen gemeinsam zu entwickeln, Angebote zu schreiben oder Probleme zu lösen.

Lean Managment dort anzuwenden stieß auf zwei typische Antworten. Erstens „Lean ist doch alt und out, warum machst Du nicht Agil?“ oder zweitens „Lean ist doch was für die Produktion, nicht für Beratung“.

Falls Ihr auch dieser Meinung seit kann ich Euch vielleicht mit folgenden Stichworten zum weiter lesen (und nachmachen) animieren:

  • In dem zentralen Bereich „Blueprints“ sind wir doppelt so Produktiv geworden
  • Wir haben unsere Weiterbildung zu 100% im Griff, was bei den aktuellen schnellen Entwicklungen im Workplace Bereich ein echter Vorteil ist
  • Bei Überstunden und Reisezeiten (ca. 30% der Zeit) sind wir weit besser als der Marktdurchschnitt und
  • Wir kennen tatsächlich unseren Wert als Berater für den Kunden, das heißt, was wir tun sollen und was Müll ist

Das Problem war tatsächlich sämtliche Lean Managment Methodiken und Erfahrungsberichte drehen sich um Produkte oder Services. Meist eine  laufende Fabrikation bei dem das gesamte Team eine gemeinsame Aufgabe hat. Bei uns ist nur die Arbeitsweise „Beratung“ ähnlich, die aktuellen Produkte „Schaffung von Geschäftswerten“ äußerst unterschiedlich. Es war demnach eine ganz schöne Reise Lean Methodiken bei uns Beratern anzuwenden. Von dieser Reise möchte ich Euch gerne in diesem Artikel und folgenden berichten, aber eine wichtige Warnung zuerst.

So ein Denkprinzip wie Lean entfaltet seinen Wert, in dem Teammitglieder selbst Verbesserungspotential heben und man gemeinsam darauf reagiert, daher auch der Name der Methode Sense&Respond: Nehme Dinge wahr und reagiere geeignet darauf.

Wenn Ihr Euch unsere Methoden anschaut, nehmt sie nur als Beispiel. Es kann sein das sie für Euren Bereich gar nichts taugen (aber natürlich auch sensationell sind :-). Tools und Methoden sind ein Baukasten der angepasst werden muss. Methoden dürfen keine sinnfreie extra Arbeit bedeuten, sondern sie müssen einen Wert haben.

Lean Management ist eine Reise mit Irrungen und Erkenntnissen, ich kann es nicht mit einem Schalter einschalten oder an ein Qualitätsteam delegieren. Ihr seid also gewarnt.

Mein Team ist in ganz Deutschland verteilt, das funktionierte in der Vergangenheit tatsächlich schon ziemlich gut, die räumliche Verteilung ist jedoch für die Einführung von Lean Sense&Respond nicht gerade förderlich. Wir haben für die ersten Schritte wie Definition der Mission sehr lange gebraucht auch die ersten Problem Solving Sessons zogen sich ewig. Für mehr Geschwindigkeit sorgen tatsächlich kleine Teilgruppen, die eine Maßnahme größtenteils vorbereiten und gemeinsam abstimmen. Die vorbereitenden Schritte muten zwar wie Pflichterfüllung an, schaffen aber ein gesichertes gemeinsames Verständnis.

Der für mich spürbarste Durchbruch war das Quality-Function-Deployment (QFD). Wir haben unsere internen wie externen Kunden befragt was sie sich von uns wirklich wünschen und warum. Also was wünscht ihr euch von einem Presales Team, nicht etwa was wünscht ihr euch von den Services, die wir helfen zu verkaufen. Viele der gefundenen Punkte kannten wir schon, aber das QFD hat diese in die richtige Priorität gesetzt, auch sind dort Punkte herausgekommen, die zu unserer Weiterentwicklung dienen. Zum Beispiel wünschen Kunden sich verursachungsgerechte Kosten am liebsten 1:1 abgebildet auf deren Kostenstellenstrukturen. Der Nachteil ist jedoch, das so ein Vorgehen die vorgegebenen Preisblätter verändert. Aber diese Anregung ist absolut vailde, denn nur so können wirklich effektiv Kosten vermieden werden. Aus dem QFD haben wir einen Satz Orientierungsregeln und Beratungs-Know-How geschaffen, die uns Vorgehensweisen gut abschätzen lassen und auch einige No-Gos beinhalten.

Unser wöchentliches virtuelles Teammeeting haben wir umgebaut, dies wird nun reihum moderiert und Erfolge, wie Bedenken (Concerns) strukturiert. Aus Concerns die das Team oder die Organisation angehen werden Nachfolgeaktivitäten abgeleitet. Dies kann ganz Lean üblich zum Beispiel eine Problem Solving Session sein. Das Wichtigste, was dabei entstanden ist, ist eine gegenseitige Verantwortung.

Als wir mit Sense&Respond angefangen haben bin ich in Concerns, die mir zugewiesen wurden untergegangen. Zum einen weil wir das erste Presales Team bei Fujitsu überhaupt sind, d.h. unsere Nachbarn in der Organisation kannten das nicht, zum anderen aber auch, weil wir das Mandat, was Lean einem jeden von uns gibt, nicht ganz verstanden haben beziehungsweise die Verantwortung dafür noch nicht verinnerlicht haben.

Ich muss zugeben, dass ich mir auf der ganzen Reise zu unserem eigenen Qualitätssteigerung-Baukasten immer wieder unsicher war. Viele Methoden und Vorgehensweisen, die wir erfunden haben, stellten sich in der Version 1.0 nach einigen Monaten als unbrauchbar heraus. Sie fingen an nach Bürokratie zu riechen, nervten oder waren Informationsgräber. Wir haben in den letzten 2,5 Jahren unsere Methoden nun zum dritten Mal nachgeschärft. Soll heißen manches wurde tatsächlich nur aufpoliert, weil man über die Zeit vergessen hatte, das diese Methode doch wertvoll ist und anderes wurde komplett neu gemacht oder über Bord geschmissen. Im Allgemeinen kann man sagen, wann immer wir eine neue Methodik oder Herangehensweise schaffen: Es dauert typischerweise ein Jahr bzw. ein Redesign bis das zu jedermanns Spaß läuft.

Nach den langen Monaten Erfahrung mit Sense&Respond ist das Hauptergebnis ein eng zusammenarbeitendes Team das mit großem Engagement Missstände angeht, Qualität verbessert und Effizienz fördert. Auch, wenn das in einer Organisation und Kunden immer anstrengende Phasen hat. Mein Team war ohnehin schon ein tolles Team, nun haben wir aber ein tiefes Verständnis unserer Mehrwerte und Macken. Die Mehrwerte fördern wir, helfen uns gegenseitig bei unseren Macken, und zwar viel selbstverständlicher als zuvor.

Ich habe diesen Blog-Beitrag als Beginn einer kleinen Serie gestartet, weil ich mir sicher bin das Lean Methodiken bei uns im Team eine lange Zukunft haben werden und auch andere Berater-Teams befruchten kann. Ich werde Euch hier an dieser Stelle gerne weitere Details berichten, sprecht mich aber auch gerne jederzeit an.

Werft alte Zahlen weg!

Ich war nun ein paar Mal daran beteiligt, wenn IT Organisationen reinen Tisch machen wollten und eine grundsätzliche Neuaufstellung (in Bereichen) anstrebten, sei es durch große Joint-Ventures, Akquisen oder einfach weil das Business in einer Krise steckte.

Vielfach sind mir dort IT Organisationen begegnet, die durchaus wussten das einige Dinge deutlich in Schieflage waren oder einfach alles nur historisch gewachsen sind und jedwede Struktur zu hinterfragen war.

Was mich allerdings wundert ist, dass vielfach die neue Architektur auf bestehende Reports bzw. Zahlen aufgebaut werden sollte. Damit meine ich, das sehr früh noch bei der grundsätzlichen Planung des Veränderungsprozesses vorhandene Reports als Zahlengrundlage genutzt werden sollten.

Es kommen in solchen Veränderungsprozessen nur ganz wenige Beteiligte auf den Gedanken, dass das die Nutzung bestehender KPIs ein Fehler mit möglicherweise immensen Auswirkungen ist. Es liegt auf der Hand, dass die historische Organisation, also die Organisation die in Schieflage gekommen ist, mit diesen Zahlen und Berichten gesteuert hat.

Nur sehr wenige Zahlen in Reports sind objektiv. Die bisherige Organisation dürfte einige KPIs geschaffen haben, an denen Bereiche gemessen wurden, die jetzt angeschlagen dastehen. Natürlich werden KPIs fast immer interpretiert, getuned oder aufgehübscht. Die Messzahlen in vielen Organisationen müssen von Jahr zu Jahr in die gewünschte Richtung wachsen, also tun sie das auch.

Selbst bei Zahlen die mit guter Absicht designed wurden, sind Messpunkte, Konsolidierungen und Abschätzungen zur Berechnung gesetzt worden, dieses Design und seine Kompromisse sollte man sich stets genau ansehen. Viele Dinge sind gar nicht eindeutig oder gar leicht zu messen, also wird ein Stück interpretiert, das ist ganz normal.

Ich wäre sehr vorsichtig und würde nur überprüft saubere Rohdaten heranziehen. Bestehende Reports können eventuell dazu nützlich sein, die alte Organisation zu verstehen und Fehlerursachen bzw. Fehlleitungen zu ergründen.

  • Die meisten Reports werden Aussagelos sein, die wurden irgendwann mal auf dem grünen Tisch entwickelt und seitdem jeden Monat abgeheftet. Specht mit den Verantwortlichen welche Reports die nutzen, was sie daran nutzen und was sie zur Lenkung eingesetzt haben.
  • Bei manchem unsauberen Report ergibt das Monat zu Monat Delta eine brauchbare Aussage. Steigen die Einnahmen bei virtuellen Servern oder fallen diese, auch wenn die Gesamtsumme in Euro nicht mit dem Financial Reporting übereinstimmt. Bitte mit Vorsicht nutzen, manchmal sind Lücken enthalten die einen auf einem Auge Blind machen.
  • Apropos Übereinstimmung: Versucht doch einmal die selbe Zahl (KPI, PI) über verschiedene Business-Unit-Reports zu ermitteln. Anzahl der virtuellen Server einer BU aus den Daten der BU-Reports, CMDB und dem IT Monatsbericht. In einem der letzten Unternehmen waren die so zu ermittelten Abweichungen oft bei bei 15%-20%!
  • Zahlen die durch Interpolation hochgerechnet werden sind in dieser Form irreführend und lohnen keines Blickes. Fehler finden sich zum Beispiel in der Form, dass Zahlen von Hauptstandorten genutzt werden, um auf das Gesamtunternehmen mit einigen großen und vielen kleinen Standorten hochzurechnen. Kleine Standorte funktionieren aber oftmals anders. Sie haben bestimmte Services nicht, diverse Services mit zusätzlichem Aufwand oder ganz simpel eine Shadow IT.

Kurz und gut: Wenn ihr an Bord kommt, um ein auf Grund gelaufenes Schiff wieder in die Fahrrinne zu bekommen. Schmeißt die alten Karten weg und nutzt eure neuen Seekarten. Die alten Karten lassen sich ganz eventuell hernehmen, um die Ursache der Havarie zu ermitteln.

 

Kleinvieh macht viel Mist

Das ein oder andere Mal wird man damit konfrontiert, wenn sich nach dem Kauf heraus gestellt hat, dass ein anderes Produkt, ein anderer Service oder Serviceprovider die viel bessere Wahl gewesen wäre. „Hätte ich mal bei euch gekauft“, kann eine banale Aussage sein oder deutet auf ein Problem in der Entscheidung hin.

Eine der Ursachen kann eine simple Entscheidungsmatrix sein. Wenn sie wirklich verwendet wird und nicht einfach durch den Einkauf auf die Variable kleinster Preis verkürzt wird. Das Objektivieren durch Prozentwerte oder Punkte ist gar nicht so leicht und die Entscheidungsmatrix hat eine Tendenz von den entscheidenden Punkten wegzuleiten. Sie ist komplizierter als es auf den ersten Blick scheint.

Damit dieser Blog-Eintrag nicht Seiten füllt, werde ich im folgenden keinen IT Service einkaufen, sondern Äpfel mit Birnen vergleichen: Ich möchte ein Stück Obst für die morgige Wanderung einkaufen und fahre der Einfachheit halber zum Lebensmittelladen um die Ecke. Nun gibt es im Vorfeld einiges zu bedenken, um die Wahl zu erleichtern. Da gibt es Preis pro kg, mein Lieblingsobst Apfel und Birne sollen einen Vorzug bekommen, das Obst soll reif sein, nicht zu reif, da es ja den Tag im Rucksack überstehen soll, ist es Bio-Ware, ein lokales Produkt, etc. Aus dieser Sammlung entsteht nun eine Entscheidungsmatrix:

Kriterium max. Punktzahl
Preis pro 100g 30%
Apfel oder Birne 30%
Reifegrad 5%
Festigkeit 3%
EU-Bio-Label 3%
Demeter-Label 2%
Lokaler Anbieter 2%
Fair Gehandelt 2%
Nicht eingeschweißt 1%
Und so weiter und so weiter… …bis die Summe 100% ergibt.

Obiges ist ein ganz typischer Ansatz, die wichtigsten Kriterien bekommen so um die 60% und die restlichen 40% verteilen sich auf das Kleinvieh. Wenn diese Listen im Projekt reifen kommt typischerweise noch ganz viel Kleinvieh hinzu, weil neu hinzugezogenen Leuten noch etwas Zusätzliches einfällt. Der Prozentwert für ein zusätzliches Kriterium wird dann zuerst von den fetteren 5% Kleinvieh Kriterien stibitzt und weil 1% unteilbar erscheint, dann werden irgendwann sogar von den wichtigsten Kriterien Prozentpunkte abgezweigt. So dass dann die Verteilung Wichtig zu Restlich von 60/40 auf 50/50 oder weniger sinkt. Nur falls jemand auf die Idee kommt: Die Verwendung von absoluten Punktzahlen statt Prozentwerten macht die Sache nicht besser.

Weiterhin ist die arithmetische Bewertung oft nur schwach festgelegt, obwohl sie einen großen Einfluss auf die Gewichtung hat. Nehmen wir mal an, wir finden Physalis 2 €, Kiwis zu 1,30 €, Bananen zu 0,90 €, Birnen zu 0,80 €, Äpfel zu 0,70 € und Wassermelonen zu 0,30 €. Nun teilen wir die 30% für das Preiskriterium in 10 cent Stücke mit 2 € entsprechen 0% und 0 € 30%. Somit liegt die Banane bei 16,5%, der Apfel bei 19,5% und die Melone bei 25,5%. Das kann ja so gemeint sein, aber in diesem Beispiel fangen wir uns durch preisliche Ausreißer eine Bewertungslücke von ca. 10% nach oben und unten ein. Da die Bandbreite der möglichen Kandidaten verkleinert wird, ist ein Nebenkriterium wie Bio-Qualität nun ausreichend, damit eine Banane den günstigen Apfel locker überholen kann.

Darüber hinaus ist ein nicht zu verachtender Einfluss, dass manche Nebenkriterien sich einander bedingen. In dieser Tabelle ist ein Lebensmittel mit Demeter e.V.-Label ein Beispiel, da Demeter hinreichend für das EU-Bio-Label ist, bekommt dieses Kriterium 2%+3% = 5%. Wenn das so gewollt ist prima, meistens sind derartige Abhängigkeiten jedoch komplexer und schränken wenn es schlecht läuft die optimale Punktzahl für den besten Kandidaten ein.

Wie Anfangs schon erwähnt, Nebenkriterien sammeln sich im Laufe eines Projektverlaufs massiv an. Viele Leute bringen viele Ideen mit, auch kommen von den Anbietern in der ersten Runde noch viele Anregungen für weitere sinnvolle aber oft nicht wesentliche  Produkteigenschaften. Neben dem Strandgut gibt es aber noch eine zentrale Sammelstelle für Nebenkriterien, die Zukunftsfähigkeit. Nebenkriterien zum weiteren Ausbau oder Zukunftsfähigkeit des Produktes oder Service sind eine oft ungeschickt treibende Kraft..

Sicher gibt es konkret anstehende Notwendigkeiten. Bei IT Services fällt mir da die EU-Datenschutz-Grundverordnung (EU-DSGVO) ein. Diese tritt im Mai 2018 in Kraft und sollte bei Services die 2017 eingekauft werden beachtet werden. Ich meine jedoch Kriterien die einen möglichen Ausbau betreffen: Der Services könnte neben IT später auch Facility Management versorgen, dieses Client Produkt könnte eventuell in Zukunft auch auf Servern Anwendung finden, mit einem höheren Reifegrad in der IT könnten wir in Zukunft vielleicht dieses und jenes Feature benötigen. Diese Hätte-Könnte-Eventuell-Kriterien wachsen in manchen Entscheidungsmatrizen auf über 20%, sind aber für die Gegenwart unwichtig. Zum einen ist unklar was in Zukunft wirklich benötigt wird. In der Rückschau wird man sehen das tatsächlich eingesetzte Features dann nur 3% ausmachten und die restlichen 17% Zukunftspotential weiterhin brach liegen. Auch ist unklar wie sich die Produkte entwickeln, das aktuell top-moderne auf Zukunft ausgerichtete Produkt wird in zwei Jahren vielleicht ins Hintertreffen geraten sein.

Lösungen

Nebenkriterien sind Nebenkriterien, sie sollten wirklich limitiert sein. Zum Beispiel sollten sie in der Gesamtmenge nur 10% Einfluss nehmen können. Damit man sich mit Promillewerten nicht so schwer tut: Wie wäre es mit einer Nebentabelle? Eine Sammlung aller Nebenkriterien, bepunktet nach Gusto, die in Summe mit 10% eingeht. Noch sinnvoller ist natürlich Nebenkriterien zu streichen oder ohne Gewichtung als informative Liste aufzunehmen.

Bei den Hauptkriterien bitte sehr intensiv über die Objektivierung nachdenken, vorzugsweise mit einer passenden Entscheidung aus der Vergangenheit durchspielen. Heißt Preis geht zu 50% ein, dass der günstige Kandidat 50% und der zweit-günstigste Kandidat 48% bekommt?

Gerade bei Entscheidungen deren Produkte oder Services Neuland sind, unbedingt Abhängigkeiten der Kriterien vermeiden. Abhängige Kriterien können meist zu einem Kriterium zusammengefasst werden. Komplexere Entscheidungsmethodiken, die zum Beispiel Bayessche Netze beinhalten, sind bei einem solchen Vorhaben oft unangebracht, da sie zwar mathematisch transparent aber recht schwer mit den Anforderungen des Vorhabens zu durchdringen sind.

Bei der Zukunftssicherheit empfiehlt es sich eine Strategie zu entwickeln. Ein Ergebnis könnte sein, Agilität zu bewahren in dem man Produkte oder Services schnell umbauen kann, das heißt bei Laufzeiten oder Abnahmemengen flexibel bleibt. Aber auch das ist abzuwägen.

Entscheidungsmatix ähnliche Fallen

Risikobetrachtungen werden oft ähnlich simpel aufgestellt. Dort gibt es vielleicht sogar eine Richtlinie die sagt, dass ein Risiko eine Eintrittswahrscheinlichkeit von mindestens 0.5% haben muss. Somit wandert das Risiko in eine Gegend, die nur dadurch geprägt ist, weil den Leuten dort so viele Anwendungsfälle einfallen. Zu den Lösungen kann hier ggf. nach mit Clusterung oder Kategorisierung gearbeitet werden, so dass ähnliche Risiken gemeinsam betrachtet werden.

Ähnliche Probleme finden sich auch in Assessment-Methodiken oder Entscheidungsunterstützung von Beratern. Auch diese Tools neigen dazu, dass unwichtige Nebenkriterien eine kleine Beachtung erfahren und damit in Summe Mist bauen. Bei komplexeren Verfahren lohnt sich in jedem Fall mit einem leeren Zettel zu beginnen, die Entscheidungskriteren zu skizzieren und den Zettel kurz vor Entscheidung wieder heraus zu kramen.

Obejektivierung fühlt sich gut an, ist so manches Mal aber nicht optimal.

Innovation und Erfindung

Vielen Kunden geht es darum, wie innovativ ein Provider ist. Dabei ist die Auslegung des Begriffs Innovation sehr breit und spannend. Neulich haben wir mal sehr schlechte Noten im Bereich „Innovation“ eines Angebots bekommen. Anscheinend hatten zählt dieser Kunden zu Innovation nur Erfindung oder Selbstoptimierung. Was war geschehen?

Für den Aspekt Innovation hatten wir einen Kundenworkshop, bei dem die Innovationen bei einem vergleichbaren Referenzkunden vor Ort besprochen wurden. Nun muss man wissen, dass dieser Referenzkunde sehr gut auf Verbesserungsvorschläge reagiert. Insbesondere auch Verbesserungen bei denen auch er etwas Investieren oder Ändern muss. Tatsächlich kann man leicht feststellen, dass die finanziell wirkungsvollsten Änderungen beidseitige Prozessverbesserungen, eliminieren von Verschwendung (Lean Waste) und Automatisierung. Hier wurden nachweislich Kosten von bis zu 30% eingespart.

Gemeinsame evolutionäre Verbesserung war aber für diesen Kunden keine Innovation. Im Nachhinein wären in diesem Fall Innovationen Einsparungen im Betrieb ohne Interaktion mit dem Kunden gewesen. Eine Ecke bei der kontinuierlichen Verbesserung die äußerst langweilig ist. Bei den heutigen schon sehr optimierten Services schafft man so nur wenige Prozentpunkte im Jahr. Bei Commodity Dienstleistungen ist auch keine umwälzende Revolution zu erwarten, die große Einsparungen erwarten lässt.

Ein typisches Schema was sich bei Auftraggebern, die sich selber nicht beteiligen wollen, oft findet sind intern eingefahrene Strukturen. Nicht nur die Lieferanten sollen alles auf ihrer Insel selber optimieren, dieses Inseldenken gilt auch für die Konzernteile untereinander. Solche Umgebungen sind in sich äußerst träge. Als Anbieter  könnte man unredlicherweise große Einsparungen durch Innovation behaupten und mit einiger Sicherheit darauf hoffen, das derlei Änderungen auch bei minimalen Einfluss auf andere Konzernteile nicht durch das Change Advisory Board kommen.

Innovation ist das Anwenden von Erfindungen zum eigenen Nutzen. Wird ein Service dazu genutzt den Geschäftswert zu steigern und Innovation nur auf den Service beschränkt, so scheiden sehr viele Teile des Gesamtprozesses als Optimierungskandidaten aus. Insbesondere auch disruptive Änderungen, die nicht nur Bestandteile sondern den Gesamtkomplex in Frage stellen.

Meist wird in einer solchen Kultur Tools und Methoden mit einer großen Wichtigkeit und Wucht diskutiert. „Tool X taugt überhaupt gar nichts, wir konzentrieren und nun auf Tool Y“ oder „Methode A ist unmodern und hat sich in der Industrie nicht bewährt. Wir implementieren jetzt Methode B“.

Für Außenstehende ist es dann ganz wunderbar mit anzusehen, wird ein Service Managment, Kundenmanagement oder im Allgemeinen ein Prozess-Managment-Tool auf einer Insel eingeführt, so bleibt es bei guter Implementierung auf die Insel beschränkt. Mit den Nachbarinseln mag man nicht kommunizieren und erklärt lieber schnell die Konzernweite Einführung des Tool für erfolgreich.

Nach dem Anfangserfolg auf der Insel vergehen dann meist wieder Jahre oder Management-Wechsel, bis jemand feststellt, dass die Kundendaten, Vertriebsprozesse, Fertigungsprozesse oder internen IT Abläufe wie User-Life-Cycle immer noch sehr heterogen sind. Dann beginnt die Suche nach einem innovativen Tool weiter. Darf es diesmal was mit KI sein oder einfach eine Nummer größer.

Das alte Tool neu aufgesetzt mit interner Beteiligung, Befähigung und Governance wäre zielführender, aber es ist der Glaube an ein Wunder der Innovation. Neues Tool, neues Glück.

Ein besonders schönes Erlebnis hatte ich mit einem Kunden, dessen funkelnagelneues ITSM Tool sehr umständlich zu bedienen uns zu beherrschen war. Obwohl dieses Tool damals zu den Innovativsten am Markt zählte. Das Tool war sehr verbogen und eignete sich nicht zum arbeiten. Darauf Angesprochen konnte der Kunde leider auch nichts mehr machen. Originalaussage: Für das Feintunen ist kein Budget mehr da, da die erste Welle 300% zu teuer war, nun hat das Management beschlossen in dieses Tool nicht mehr zu investieren.

Wer hat Angst vor dem künstlich intelligenten Mann?

In den letzten Jahren nehmen Warnungen vor den Auswirkungen von künstlicher Intelligenz (KI, AI) zu. Dabei hat sich von den Informatik-Grundlagen künstlicher Intelligenz bis hin zu unserer Wahrnehmung kaum etwas geändert. In meinen Augen ein großes Missverständnis.

Die Furcht manifestiert sich in Maschinenwesen, die intelligenter als Menschen werden und die Macht übernehmen. Die Angst vor der technologische Singularität, der Tag ab dem die Maschinen über die Menschheit herrschen.

All das hat wenig mit dem aktuellen Forschungs- oder Entwicklungsstand von Künstlicher Intelligenz (Artificial Intelligence) zu tun. Woher diese Furcht ihre Nahrung bekommt kann ich nur vermuten. Zum Einen ist es die Science-Fiction-Literatur zum Anderen nutzt die KI Forschung bewusst irreführende Begriffe aus dem kognitiven Umfeld wie Intelligenz, Neuronen oder Denkleistungsvergleich mit Insekten oder Katzen. Aber alles der Reihe nach.

Menschliche Roboter in der Literatur

Schon frühe Science Fiction Literatur zum Beispiel von Isaac Asimov beschäftigt sich mit Robotern, die in Entscheidung-Dilemmas stecken, eine kindliche Intelligenz haben und somit sehr menschenähnlich sind.

Ein durchgängiges Roboter-Thema sind menschenähnliche Androiden, denen es nur noch eines Emotions-Chip bedarf bis sie menschlich – mit allen Vor- und Nachteilen – reagieren. Man denke nur an Data aus Star Trek Next Generation, der starr vor Angst seinem Freund nicht helfen kann oder den Androiden aus Dark Matter, die mit dem Human-Upgrade-Chip als Mensch durchgeht aber Fehler macht und den Chip deshalb wieder entfernt.

Diese Science Fiction Geschichten lassen nur einen Schluss zu: In Zukunft gibt es Maschinenwesen denen man zur Vorsicht Emotionen vorenthalten sollte, damit diese nicht die potenteren Menschen-Nachfolger werden. Es gibt aber im Moment gar keinen Hinweis darauf, dass es eine solche Art von Robotern je geben wird, egal ob mit oder ohne Emotionschip.

Forschung attraktiv bewerben

Die Entwickler von KI Systemen scheuen keinen Vergleich zu biologischen Systemen. Ihr neuronales Netz ist so Intelligent wie eine Libelle oder gar eine Katze. Eine künstliche Intelligenz schlägt den Menschen in Schach, Quizzspielen oder ganz aktuell in Go.

Als Informatiker finde ich diese werbenden Vergleiche sehr problematisch. Ein lernender Algorithmus hat aber auch gar nichts mit menschlichem Lernen zu tun, sondern ist ein statistisches Verfahren. Kein Mensch lernt so. Ein künstliches neuronales Netz hat nahezu nichts mit biologischen Neuronalen Netzen zu tun, eventuell sind Basisfunktionen unserer Neuronen ähnlich.

Das in der Berichterstattung diese Art von Vergleichen von der Presse akzeptiert werden sagt viel darüber aus, was wir alles über das menschliche Gehirn noch nicht wissen. Das ist in etwa so als wenn man das Rad am Auto mit einem menschlichen Bein vergleicht. Das Rad am Auto funktioniert doch in etwa so wie ein Knie, oder? Beide sind die Bauteile, die für Bewegung verantwortlich sind. Ganz grob sei doch erlaubt zu sagen ein Rad funktioniert wie unser Knie! Findet Ihr nicht? Irgendwas am Knie dreht, also darf ich das Rad doch bitteschön Bein nennen.

Ihr findet den obigen Absatz abstrus? Er ist auch abwegig, aber genau so abwegig sind die Vergleiche von Künstlicher Intelligenz mit Katzen oder Menschen.

Wahrnehmung schärfen

Es braucht gar keinem Ausflug in die Informatik der künstlichen Intelligenz – auch wenn ich sehr spannend finde und einen Ausflug empfehlen kann. Nein, alles was Ihr zur Analys braucht ist Eure Wahrnehmung. Verhalten sich heutige Systeme intelligent? Lassen wir uns mal auf einige Feststellungen ein.

Computer werden besser als wir, sie schlagen Menschen Weltmeister im Schach oder Go. Ich meine dazu, dass Computer in diesem Sinne schon immer besser als wir waren. Die ersten Computer haben Schussbahn-Tabellen schneller als Rechensäle voller Menschen berechnet. Euer Handy kann sich Termine besser merken als Ihr. Das hat eher etwas mit Speicher und Rechenpower zu tun als mit Intelligenz. Computer sind Hilfsmittel, die unsere Arbeit schon immer unterstützt haben.

Selbst-regelnde Prozesse sehen für uns manchmal intelligent aus, da sie auf ein Ziel zulaufen. Die Regeln dahinter sind jedoch oft äußerst einfach, deshalb meist auch störanfällig. Während Computer sehr gut elementare Qualitätssicherung übernehmen können, scheitern sie jedoch bei nicht berücksichtigten Zuständen. Während ein menschlicher Qualitätssicherer eine unvorhergesehene Situation manchmal retten kann, schaffen dies Regelsysteme nicht, sondern laufen erst einmal ins Chaos. Es ist im Moment auch nicht entferntesten daran zu denken, dass Künstliche Intelligenz die menschliche Koordinationsfähigkeit eines Projektleiters irgendwann einmal erreichen kann.

Auch andere für Menschen einfach auszuführende Tätigkeiten werden sind computergestützt wahnsinnige Herausforderungen, die teilweise seit Jahrzehnten nur langsame Fortschritte machen. Das erkennen von Bildbestandteilen etwa eine Katze auf einem Tisch in einem Wohnzimmer oder auch das übersetzen von Texten. Hier ist der Computer was er ist: Ein Hilfsmittel. Wenn mir mein Handy ein chinesisches Straßenschild übersetzen kann ist das absolut nützlich, aber ganz wenig intelligent.

Data und der Android haben selbst ohne Emotions-Chip eine Art Bewusstsein, auch hier absolute Fehlanzeige in aktuellen Systemen. Die einzige Furcht bleibt, wenn KI-Systeme mal so viel Rechenleistung haben wie Menschengehirne, könnte ja eventuell so etwas auch hier passieren. Das ist wie ein fortgeschrittenes Rad mal Eigenschaften eines Knies übernehmen kann.

Großer Fortschritt entsteht oft genau daraus, dass über den Tellerrand hinaus gedacht und nicht nachgeahmt wurde. Mit dem Auto fahren wir heute sehr viel schneller, als ein Mensch, Pferd oder Gepart laufen kann. Genau das wurde mit dem Computer geschaffen, ein Computer kann wahnsinnig große Datenmengen verarbeiten. In der Künstlichen Intelligenz werden genau diese Rechenleistungen genutzt, nur ganz wenige Sparten der KI befassen sich mit biologischer Informationsverarbeitung.

Angst oder besser Furcht

Ich habe keine Angst vor der technologischen Singularität, also das intelligente Maschinen die Macht übernehmen. Aber ich habe Furcht vor vielen kommenden gesellschaftlichen Herausforderungen die meist Informatik-gestützt sind.

Ich möchte ein letztes Mal mein Rad-Beispiel benutzen. Rad oder Auto haben wenig direkte Auswirkungen auf menschliches Laufen gehabt. Wir Menschen sind in bergigen Waldstücken selbst Geländewagen überlegen. Die Auswirkungen des Autos auf unsere Landschaft und Gesellschaft sind aber immens.

Auswirkungen von Künstlicher Intelligenz sind zum Beispiel selbst-lernende Algorithmen, die über die Höhe eurer Autoversicherung bestimmen. Dabei scheinen Versicherungen weder zu wollen, dass wir die Algorithmen kennen noch daran interessiert sind welche Entscheidungensmuster zu Grunde gelegt werden. Wird man da gerecht behandelt?

Intelligente Messenger versuchen Euch zu helfen und aus Eurer Kommunikation heraus zu erraten, dass ihr ein Restaurant sucht, einen Flug buchen wollt, etc. dabei lernt dieses System nicht nur wie ihr Kommuniziert, sondern errät ein Muster wann ihr was benötigt. es wird nicht nur so sein, dass Euer direkter Wunsch an einen Werbepartner geht, sondern man wird auch eine Verkaufsoption im Vorfeld erkennen.

Was ist mit Robotern, die in der Pflege unterstützen? Entlasten diese Pflegekräfte physisch und zeitlich, so dass diese mehr Zeit haben sich um den Menschen zu kümmern, oder sind diese ein willkommener Weg an Pflege zu sparen?

Oder wenn ihr bei der nächsten Einreise von einem KI System als verdächtig eingestuft und auf dem grünen Ausgang wie zufällig vom Zoll heraus-gewunken werdet. Bei der aktuellen Diskussion könnt ihr mal davon ausgehen, dass ihr weder erfahrt, dass wie ihr selektiert wurdet, noch das ein KI System dahinter steckt, dessen Algorithmus intransparent ist

Sich mit diesen Fragen zu beschäftigen ist viel spannender als Angst vor Künstlicher Intelligenz und Menschmaschine Fantasien. Der Kern der Problematik wird nach wie vor die Informationsverarbeitung und Intransparenz sein, die massive Auswirkungen auf unsere Kultur haben werden. Gerechte Systeme sind nicht zu vermuten, denn Intelligent ist bei KI wenig, das meiste bleibt Menschen-gemacht.