Fischers Meinung:

Digitale Myopie!

Mario Fischer
Mario Fischer

Mario Fischer ist Herausgeber und Chefredakteur der Website Boosting und seit der ersten Stunde des Webs von Optimierungsmöglichkeiten fasziniert. Er berät namhafte Unternehmen aller Größen und Branchen und lehrt im neu gegründeten Studiengang E-Commerce an der Hochschule für angewandte Wissenschaften in Würzburg.

Mehr von diesem AutorArtikel als PDF laden

Myopie, also Kurzsichtigkeit, sollte vielleicht nicht nur der Augenarzt diagnostizieren. Zumindest fachbezogen müsste man auch vielen Managern diese visuelle Einschränkung bei der Früherkennung hoher Wellen, die auf Unternehmen zurollen, in den Heilungsplan schreiben. Natürlich denken viele, sie wären fit für die Herausforderung „Digitalisierung”. Oder sie glauben gar, sie wären damit schon durch. Nur sehr wenige stehen auf, heben den Finger und gestehen offen ein, dass sie völlig blank und überfordert sind, was den Umgang mit digitalen Methoden betrifft.

Das ganze Dilemma unserer Kurzsichtigkeit in Sachen Digitalisierung wird unter anderem wohl hauptsächlich dadurch verursacht, dass das Wort „Digitalisierung” so ein verdammt wachsweiches Wort ist. Man kann es irgendwie für alles verwenden, was statt auf Papier in einem Computer gespeichert wird. Und man tut es auch. Sogar Faxe sollen dem Vernehmen nach in einigen Unternehmen mittlerweile schon digital gespeichert werden. Jemand schreibt per MS Word eine Bestellung, „druckt” sie vermeintlich modern in einen Fax-Druckertreiber, der auf einem Windows-2000-Server arbeitet, und auf der Gegenstelle läuft das ebenfalls direkt auf einen Computerbildschirm statt in ein bzw. aus einem Faxgerät. Meist wird es dann zur Sicherheit aber doch noch mal ausgedruckt und in einem Ordner abgelegt. Fast digital? Ein Spruch sagt, dass ein mieser analoger Prozess durch das Digitalisieren nur zu einem werden kann: zu einem miesen digitalen Prozess. Aber wäre es das wirklich schon gewesen? Prozesse zu digitalisieren? Diese Forderung hörte ich schon während meines Studiums vor mittlerweile gefühlten 100 Jahren. Computer Integrated Manufactoring nannte man das damals – CIM-salabim. Das kann doch gar nicht so schwer sein, glaubten wir als Studenten.

Digitale Geschäftsmodelle

Die eigentliche Herausforderung liegt aber wohl eher darin, aus den gar nicht so neuen Möglichkeiten der Digitalisierung neue innovative Geschäftsmodelle zu entwickeln. Das kann vor allem durch die intelligentere Nutzung von Daten geschehen. Diese fallen heute überall und meist in sehr viel größerem Umfang an, als man gemeinhin auch als Unternehmen wahrnimmt. Man muss nur lernen, wirklich „hinzusehen”. Gepaart mit der enormen Steigerung der Verarbeitungsgeschwindigkeit, die dazu immer günstiger wird, ergibt sich erst die wahre Power einer Ergänzung des eigenen Angebotsportfolios. Hand aufs Herz: Wer weiß wirklich, welcher Datenschatz alleine auf dem eigenen oder gemieteten Webserver liegt? Damit meine ich nicht die einzelnen Webseiten, sondern die automatisch aufgezeichneten und feingranularen Mikro-Interaktionen der Besucher mit diesen Seiten. Die meisten nutzen der Einfachheit halber ihr angeflanschtes Trackingprogramm wie z. B. Google Analytics und lugen auf die Anzahl Visits bzw. darauf, ob diese gestiegen sind. Das soll ja immer gut und ein Grund zum Feiern sein.   

Dateningenieure gesucht

Doch wer kann mit dem enormen Datenansturm auf die Server und Datenbanken wirklich etwas anfangen, ihnen neue Erkenntnisse entlocken? Wer kann die Daten so analysieren und zerlegen, dass man damit etwas anstellen und sie gar für Entscheidungen heranziehen könnte? Hier liegt eines der großen Zukunftsprobleme versteckt. Es gibt nicht genügend wirklich ausreichend ausgebildete Mitarbeiter. Die Hochschulen reagieren systembedingt viel zu langsam und meist nur reaktiv auf den Bedarf. Dort ist man häufig noch immer damit beschäftigt, den E-Commerce-Trend zu verschlafen oder, wenn nicht, wenigstens schon mal zu planen, wie man diesem akademisch gut ausgebildete Absolventen entgegenstellen könnte. Der Arbeitsmarkt ist aber still und leider viel zu leise schon ein Stück weiter und braucht im E-Commerce mittlerweile neben Generalisten schon erste deutliche Spezialisierungen. Die nötigen Skills sind meist studienrichtungsübergreifend, was die Ausbildungsaufgabe nicht gerade leichter macht.

Es heißt oft, Mathematiker wollen nur wissen, ob sich eine Lösung berechnen lässt und wie man das beweist. Die Lösung selbst ist dabei eher unwichtig. Vielleicht müssen wir wieder mehr auch auf die Ergebnisse achten? Und: Mathe muss endlich sexy werden, von Lehrern vermittelt, denen man beibringt, was man mit Mathematik alles machen kann. Wir brauchen Mathematiker, die nicht nur besser erklären können, sondern solche mit Anwendungsbezug. Statt korrekt, aber langweilig mit weißen und schwarzen Kugeln in Urnen mit und ohne Zurücklegen als Beispiel zu agieren – ließe sich da nicht mit spannenderen Praxisbeispielen arbeiten? Warum nicht mal eine kleine Vorhersage für ein Mini-Amazon-System als Statistikaufgabe? Dann könnten die Schüler schon frühzeitig erkennen, dass man dieses Wissen vielleicht doch brauchen könnte – später. Wer legt im Berufsleben schon farbige Bälle in Schalen und zählt sie dabei? Wie wahrscheinlich ist es, dass man beim nächsten blinden Herausnehmen eine weiße Kugel erwischt? Pah – Gehirnlangweiler! Dann müssten die Lehrer aber halt auch etwas von den praktischen Anwendungen in Unternehmen wissen. Und hier fängt der Hamster an zu humpeln. Wie soll man das in die Lehrerausbildung integrieren? Und selbst wenn es gelänge – die positiven Auswirkungen würde man frühestens in zehn bis fünfzehn Jahren auf dem Arbeitsmarkt spüren. Man muss dabei im Kopf behalten, dass sogar die meisten Erwachsenen heute auf Anhieb nicht mal fehlerfrei Prozente berechnen können. Und jetzt brauchen wir plötzlich „Dateningenieure” und Menschen, die deutlich analytische(re) Fähigkeiten haben?  

Hard- zu Software

Stimmt es, dass Hardware immer unwichtiger wird? Unwichtig nicht in dem Sinne, dass man ohne sie auskäme. Unwichtig dahinhingehend, dass sie immer austauschbarer wird. Wer sie herstellt, wird unwichtiger. Welcher Prozessor steckt in einem Computer, Tablet oder Smartphone? Früher war das ein wichtiges Thema, heute wissen das meist nur Experten. Autos? Werden plötzlich von IT-Unternehmen gebaut bzw. lassen sie nach deren Vorgaben bauen. Das heißt nicht, dass sie heute schon annähernd besser wären als diejenigen, die wir mit viel Know-how in Deutschland bauen. Werden Autos zur Individualmobilität zukünftig noch wichtig sein? Die einen meinen: Ja, auf jeden Fall, immer. Andere vermuten, dass individuell persönliche Mobilität bzw. die Koordinierung dieser Aufgabe eine Softwareleistung ist. Kann die Hardware, das (selbstfahrende?) Transportmittel, dann von jeder halbwegs modern ausgestatteten Produktionseinrichtung nach Vorgabe hergestellt werden? Ist es heute noch wichtig, welcher Herstellername auf einem MP3-Player aufgedruckt ist – mal ausgenommen, wenn Apple draufsteht? Halt, stopp. Welcher MP3-Player? Die Funktion mobilen Musikhörens wurde von Smartphones einfach integriert. Die Notwendigkeit der Digitalisierung von Musik hinterfragt heute natürlich niemand mehr. Sie ist selbstverständlich und normal. In der Übergangsphase der analogen Kassetten- und Schallplattentechnik wurde sie allerdings auch von Experten als zu teuer und zu aufwendig belächelt. So wie wir heute über vieles lächeln, was die Zukunft angeht?

Nicht digitalisieren, sondern innovieren

Wenn man verstanden hat, dass die Zukunft eher in Software, Daten und der intelligenten Anwendung und Verbindung der beiden Welten liegt, lässt sich eben diese Zukunft oft auch weniger kurzsichtig und mit anderen Augen erkennen. Dabei stellen Daten ja eigentlich auch nichts anderes dar als geronnene Prozesspunkte. Sieht man von Datenaufzeichnungen über natürliche Gegebenheiten ab, lassen sich, auf das kurze Gras gezogen, gespeicherte Daten prinzipiell immer am Ende auf von Menschen induzierte und initiierte Prozesse zurückführen. Auch die von Maschinen, die für Menschen arbeiten und/oder von ihnen gesteuert werden. Da Menschen Dinge meist immer aus einem bestimmten Antrieb heraus tun, verbergen sich dahinter in der Regel Bedürfnisse. Wer Daten richtig interpretieren und sie auf die Beweggründe dekonstruieren kann, der kann somit auch jede Menge über Bedürfnisse lernen. Wer die wahren Bedürfnisse seiner Kunden für deren Problemlösungen kennt, kann bessere (digitale?) Produkte und Dienstleistungen entwickeln und anbieten.

Was man aus Daten lernen kann

Nehmen wir Netflix. Dort weiß man genau, wer welche Filme und Serien anschaut. Und wo die Zuschauer in der Masse abbrechen. Das ZDF strahlt auch Filme und Serien aus. Aber wissen die, wer sie anschaut, aufzeichnet oder wo jemand umschaltet? O. k., man versucht, das mit veralteten Methoden hochzurechnen, aber wirklich genaue Daten hat man dort nicht. Aus dem Wissen, welche Filme wirklich ankommen, nein genauer, sogar welche Szenen nie unterbrochen werden und welche häufiger, ließen sich aus Massedaten perfekte Plots ableiten. Und Serien, die bei Zuschauern praktisch Suchtverhalten auslösen, ließen sich anderen Nutzern empfehlen, die schnell lernen würden, wie gut diese Empfehlungen wirklich sind. Nicht die Studiobosse und deren Werbebudget steuern hier die Aufmerksamkeit, sondern echte, wahre Nutzerbedürfnisse, abgelegt und analysiert in Datenpunkten. Da könnte man bei Netflix und Amazon doch sogar auf die Idee kommen, eigene Serien nach den analysierten und als gut erkannten Mustern zu produzieren? Ach ja, das tun sie ja schon – und nach den schon nach kurzer Zeit abgeräumten Ehrungen und Preisen für diese Eigenproduktionen zu urteilen, tun sie das für Newcomer sogar ganz herausragend. Apropos Amazon. Welche Datenpunkte hat man dort über das Lesen auf dem hauseigenen Kindle? Könnte man da nicht analysieren, welche Autoren, Themen, Textmuster und andere Dinge besonders gut ankommen und welche nicht? Ganz unabhängig von den Verkaufszahlen? Nicht das meistgekaufte Buch ist gut, sondern das meistgelesene, das schnell fertig gelesene? Dieses Wissen fehlt den Hardwareherstellern von Büchern (vulgo: Verlage) seit sie existieren und wahrscheinlich noch so lange, wie sie noch existieren. Der tiefere Wert der Amazon-Daten liegt also sicher nicht nur primär in den Verkaufsstatistiken, sondern in der Kenntnis der wahren Nutzung und deren Analysemöglichkeiten. Amazon digitalisierte also nicht einfach nur den Prozess der Buchherstellung, sondern machte ein neues – wirklich digitales – Geschäftsmodell daraus.

Schneller Rechnen und unendlicher Speicherplatz?

Sicher, es wird noch eine ganze Weile dauern, bis man die Rechenmonster namens Quantencomputer wirtschaftlich nutzen kann. Das ist noch leise Zukunftsmusik. Wie aber ist der Stand heute? Sie benötigen einige Tera- oder Petabyte Speichervolumen? Kein Problem, die gibt es bei Amazon, Google und Co. für Discountpreise, die jede physikalisch vorhandene eigene Festplatte um Längen in den Schatten stellen. Und Rechenleistung? Bekommt man auch dort. Und zwar alles schön skalierbar und variabel. Drei- oder zehntausend Prozessoren für Rechenvorgänge sind gar kein Problem und bedürfen nur einiger Mausklicks. Zwanzig Terabyte in Sekunden von a nach b kopieren und auswerten? Geht. Wussten Sie übrigens, wo der Amazon-Konkurrent Netflix seine Videos ablegt und „rechnen” lässt? Bei Amazon, wo mittlerweile fast ein Drittel des Umsatzes mit solchen IT-Dienstleistungen gemacht wird. Man benötigt also keine Armada genialer Sys-Admins oder ein aufwendiges eigenes kleines Rechenzentrum – man kauft variabel zu, was man benötigt, und wenn das Geschäft wächst, wachsen die IT-Systeme einfach und problemlos mit. Die Ausrede bezüglich der Notwendigkeit extrem hoher Investitionen fällt also eigentlich weg. Übrig blieben Investitionen in Daten und Software. Ob die Unkenrufe „da haben wir keine Kontrolle“ oder „zu unsicher“ zukunftsfähig sind? Ob Kundendaten im eigenen Keller wirklich sicherer gegen professionelle Hacker oder Datenverlust aller Art sind, als wenn sie bei Amazon liegen? Solche Fragen muss sicher jeder selbst für sich entscheiden. Aber eine Geschäftsidee liegen zu lassen, nur weil sie hohe Anforderungen an die IT stellen würde – das sollte man sich besser zwei- oder dreimal überlegen.    

Selbst Wissenschaftler weichen zum Teil schon zum Cloudcomputing aus. Andrew Sutherland vom MIT beschäftigt sich als Mathematiker unter anderem mit sog. L-Funktionen. Er wollte 66.000 davon berechnen, brauchte dazu aber rund 72.000 Prozessorkerne und das für ein ganzes Wochenende. Da er so viel Rechenzeit in keiner Forschungseinrichtung bekam, mietete er sich kurzerhand bei Googles Cloudrechnern ein. Es geht also.  

Und was macht Deutschland?

Auf den Punkt gebracht: Wir hinken hinterher. Die einst gefeierte Nation der Denker fällt in Richtung Innovationskraft immer weiter zurück. Eine aktuelle Studie des BDO und des Hamburgischen Weltwirtschaftsinstituts weist Zahlen aus, die so gar nicht gut klingen. Wir verzeichnen hier jeweils auf eine Mio. Einwohner gerechnet pro Jahr 916 Patente. Südkorea kommt mittlerweile auf 3.134 und Japan auf 2.159. Die USA setzt gerade zum Überholen an (886) und das bisher traditionell als Nachahmer bezeichnete China hat bereits Großbritannien und Frankreich hinter sich gelassen. Noch liegen wir durch unseren Vorsprung in der Vergangenheit relativ weit vorn. Aber das ist ein trügerisches Bild. Schaut man tiefer in die Zahlen, kommt die erschreckende Erkenntnis zutage, dass wir bei digitalen Innovationen weit abgeschlagen hinten liegen. Salopp gesagt stehen wir da weit außerhalb des Sandkastens und dürfen bisher noch nicht einmal mitspielen. Wir können zwar Treibgasreduktionstechnologien oder erneuerbare Energien sehr gut, so die Studie, aber um unseren volkswirtschaftlichen Standard auf Dauer halten zu können, ist das viel zu nischig. Die dicken Brötchen werden woanders gebacken. Unser viel gelobter Mittelstand ist noch immer innovativ – aber nur da, wo er sich auskennt – in der eigenen Produktionsbranche. Bei den notwendigen Vernetzungs- und Digitalisierungstechnologien, die erst neue Produkte und Dienstleistungen ermöglichen, sieht es noch sehr düster aus.   

Ja, bahnbrechende Erfindungen wurden früher meist hier gemacht. Und wo sitzen Unternehmen wie Apple, Tesla, Samsung, Google & Co und erobern mit den Anwendungen zu diesen Erfindungen von woanders die Welt? Wer baut die Maschinen, die besser Go und Klavier spielen als Menschen und deren Autos sich selbstständig durch den fließenden Verkehr bewegen? Und was ist der Kern dieser Maschinen? Die Stellmotoren bei Robotern oder die Radarsensoren? Nein, es stecken Software und systemübergreifendes, hochintelligentes Datenmanagement hinter diesen Innovationen. Die Hardware ist nicht unwichtig, aber man bekommt sie mittlerweile recht austauschbar von überallher.

Die E-Commerce-Branche ist natürlich – nur im Vergleich gesehen – ein ganzes Stück weiter, weil man dort ohne Daten erst gar nicht auskommt. Trotzdem gibt es auch hier noch viel zu wenig echte und antreibende Experten, die noch viel zu oft auf völlig unvorbereitete Kunden treffen. Und deren Hunde knurren noch immer vom Sparwillen genährt böse, wenn man sie zum Jagen tragen muss und möchte. Hochglanzprospekte für teures Geld entwickeln und drucken lassen ja, aber den digitalen Vertrieb via Internet lagert man komplett an die Agentur im benachbarten Dorf aus oder lässt ihn von der damit oft überforderten IT-Abteilung „miterledigen”.

Für die enormen Chancen, die eine strategische digitale Weiterentwicklung dem eigenen Businessmodell bringen kann, herrscht auf breitem Feld noch immer Myopie – Kurzsichtigkeit. Derweil ist man damit beschäftigt, im Web ausgefüllte Formularinhalte technisch sicher in „Bestellmails” umzuwandeln. Die werden dann dem Vertriebsmitarbeiter in den Posteingang übermittelt, von wo er die Daten dann von Hand in ein eigenes Bestellsystem überträgt. Wer glaubt, das wäre schon die überall beschriene Digitalisierung, weil kein Papier mehr dazwischen ist, dem kann wohl niemand mehr helfen. Und wer glaubt, er hätte den nötigen Einblick, nur weil man ein zugekauftes Tool verwendet, das vorgefertigt aus Zahlen schöne Linien- und Balkendiagramme macht, sicher ebenso wenig.

Digitales Know How aufzubauen, kostet ohne Zweifel Zeit und Geld. Das ist für alle diejenigen eine sehr gute Nachricht, die die Bedeutung rechtzeitig erkannt haben. Denn: Man kann zwar Know How meist recht leicht in gute Chancen und Geld umwandeln. Aber verpasste Zeit mit Geld zu kaufen - das geht eben gerade bei den Mitbewerbern nicht. 

In Wikipedia kann man bei Myopie Folgendes nachlesen: „Das Ergebnis [der Myopie; die Red.] ist ein Abbildungsfehler, der weit entfernte Objekte unschärfer erscheinen lässt als nahe gelegene – der Betroffene sieht also in der Nähe (daher die Bezeichnung „kurz-sichtig“) besser als in der Ferne.“ Besser kann man es wohl auch für den hier dargestellten Fall wirklich nicht beschreiben – oder?