Warum die meisten Firmen an KI-Projekten zu scheitern drohen

(english version below)

KI ist in aller Munde, denn sie kann alles schneller, besser und produktiver und damit gewissermaßen Daten in Gold verwandeln. Tatsächlich sind unzählige Anwendungsfälle denkbar, und so gestaltet sich die aktuelle Diskussion ebenso vielfältig wie aufgeregt. Dabei geht es im wirtschaftlichen Kontext im Kern um zwei weiterführende Arten von Anwendungsfällen, die über die derzeit populäre Auswertung von Datenbeständen zur Text- oder „Ideen“-erstellung oder den Einsatz von Chatbots (= welche Worte werden am wahrscheinlichsten geschrieben oder als nächstes gesagt werden) hinausgehen:

Ein Datenbestand mit einer vorhandenen inhärenten Struktur wird fortgeschrieben, allerdings um einen Parametersatz oder die Strukturelemente eines zweiten Datenbestandes modifiziert. Das ist physikalisch nichts anderes, als ein Objekt durch einen Filter zu betrachten. Typische Anwendungen sind „Schreibe einen Text im Stile von…“ oder Erstellung eines Budgets aus den Ist-Daten, die um ausgewählte Annahmen modifiziert werden.

Bei dieser Art der Anwendungen kommt es darauf an, dass die Qualität, die innere Struktur der Ausgangs-Daten stimmig ist. Dass der Datenbestand möglichst relevant, vollständig, fehlerfrei und konsistent ist. Die Annahmen des zweiten Datenbestandes müssen zudem sorgfältig gewählt werden. Da hilft es nicht, diese immer wieder verändern zu können, bis das Ergebnis einigermaßen stimmig erscheint. Wer weiß, wie stark Prognosemodelle zu Wetter, Zinsen oder zur wirtschaftlichen Entwicklung auseinanderklaffen können, kann die Herausforderung erahnen, sobald es um Fragen zur Zukunft geht.

In der zweiten Gruppe von Anwendungsfällen werden Ist-Daten erfasst und in Echtzeit mit Normaldaten in Form von Soll-, Durchschnitts, Branchen- oder Vergangenheitsdaten verglichen, um Abweichungen zu entdecken. Wodurch Verluste reduziert und bessere Entscheidungen ermöglicht werden. Denkbare Fälle sind die Echtzeit-Entdeckung von Qualitätsmängeln, Engpässen, Leistungseinbrüchen, Fehlteilen, Wartezeiten, ergonomischen Belastungen und sonstigen Abnormalitäten.

Bei diesen Anwendungen ist die umfassende Ist-Datenerfassung in Echtzeit der Dreh- und Angelpunkt. Das ist zwar nichts Neues, wird aber mit fortschreitender Technik immer günstiger und einfacher realisierbar. Dabei gibt es grundsätzlich zwei Ansätze: technische Sensoren bzw. Kameratechnik, die die Realität in einer Maschine oder an einem Arbeitsplatz in Echtzeit datentechnisch erfassen. Wo immer das zu aufwendig ist, werden Arbeitsfortschritte, physikalische Bewegungen oder sonstige aktuelle Informationen in Form von Buchungen erfasst. Dafür bedarf es der Definition von Buchungspunkten und der Erfassung in Systemen, in manueller, technisch unterstützter oder sogar vollautomatischer Form.

Die erfassten Ist-Daten werden mit Soll-Daten verglichen. Idealerweise sind das Vergangenheitsdaten aus demselben System. Die allerdings bei jeder Art Veränderung, wie z.B. anderen Eingangsmaterialien, Lieferanten, bei neuen Produkten oder saisonalen oder lokalen Beliebtheitstrends, zutreffend extrapoliert werden müssen. Alternativ muss jeweils in Trainingsläufen ein neuer Vergleichsdatenbestand aufgebaut werden.

Wann immer Daten externer Herkunft zum Vergleich eingesetzt werden, muss die Datenqualität kritisch hinterfragt werden. Zum Beispiel könnten vermeintlich exakte Wetterdaten durch Interpolation zweier benachbarter Wetterstationen gewonnen worden sein. Oder es ist gar nicht sichergestellt, dass die vermeintlichen Verhaltensdaten der Zielgruppe korrekt zugeordnet sind. Persönlichkeitsmerkmale können von Usern aus Datenschutz- oder Altersgründen falsch angegeben werden, so dass Zielgruppen gar nicht zutreffend ausgebildet und Datenbestände „verschmutzt“ sind. Oder Daten stammen aus Ländern mit anderen Strukturen.

Eine weitere Herausforderung besteht darin, „normal“ zu definieren. Idealerweise gibt es nur einen einzigen möglichen Zustand, der als der normale Fall gilt, beispielsweise ein Standard in einer einzigen Ausprägung. Gibt es mehrere mögliche Fälle, kann man den häufigsten Fall zum Normalfall erklären. Oder den Durchschnitt aller Fälle. Oder eine Bandbreite von Fällen. Je mehr verschiedene Normalfälle möglich sind, desto größer wird der Aufwand, um zwischen Fehlern und relevanten Besonderheiten zu unterscheiden und zu zutreffenden Ergebnissen zu gelangen. Und entsprechend groß ist im Gegenzug die Gefahr, dass relevante Informationen bei der Normalisierung verloren gehen. Da KI auf Statistik basiert und die Ergebnisse (heute noch) durch wenige anomale Datensätze maßgeblich verändert werden können, entscheidet die Homogenität der Ausgangsdaten maßgeblich darüber, wieviel Kontrollaufwand anfällt und wie „selbständig“ KI arbeiten kann.

Insgesamt ist der Einsatz von KI nicht günstig, die Mittel für den Erwerb und die Bearbeitung von Datenbeständen, für die technische Hardware zur Datenerfassung sowie die Einrichtung und Betreuung der Systeme müssen vorhanden sein. Viel wichtiger ist es aber, dass das betriebliche Geschehen gewissen Gesetzmäßigkeiten folgt, damit die Datenbestände überhaupt verwendbare Strukturen aufweisen können. Das setzt voraus, dass >99% des Geschehens datentechnisch erfasst wird, d.h. möglichst wenig nur auf Absprachen beruht und in Köpfen vorhanden ist. Dass Datenfehler schnellstmöglich und akribisch korrigiert werden. Und dass für jeden Parameter immer nur möglichst wenige definierte Zustände möglich sind. Wann immer die Ausnahme zur Regel erklärt wird und schlimmstenfalls jeder Fall anders ist, lässt sich mit hinreichernder Sicherheit kein „Normal“ ermittelnt, das sinnvoll mit dem Ist-Zustand verglichen werden kann.

Damit werden am Ende nur diejenigen Firmen von KI profitieren können, die jung und datenzentriert oder hinreichend groß sind (im Hinblick auf die Stückzahlen, auf die die KI-Lösung angewendet wird, so dass sich die Investitionen lohnen), die sich um die Beseitigung von Ausnahmen und Standardisierung bemühen und die die Ansprüche an ihre hauseigene Datenqualität deutlich erhöhen. Das bedingt einen tiefgreifenden Kulturwandel, der als universelle Voraussetzung für den Einsatz von KI verstanden werden kann. Was auch bedeutet, dass sich jeder einzelne im betrieblichen Geschehen vornehmlich als Datenproduzent versteht und entsprechend verhält.

Damit funktioniert KI wie ein DRS bei der Formel 1. Sie ist Booster vornehmlich für die Standardisierten und Großen, die damit ihren Abstand zum Rest des Feldes weiter vergrößern werden. Für die anderen heißt es, weiterhin der Zukunft hinterherzufahren.

Bild: unsplash.com / Claudio Schwarz

Why most companies are at risk of failing with AI projects

AI is on everyone’s lips because it can do everything faster, better, and more productively, thus, in a sense, turning data into gold. Indeed, countless use cases are conceivable, and the current discussion is as diverse as it is heated. In the business context, this essentially involves two further groups of use cases that go beyond the currently popular analysis of data for text or “idea” creation and the use of chatbots (= which words are most likely to be written or said next).

A data set with an existing inherent structure is selected, but modified by a set of parameters or the structural elements of a second data set. Physically, this is nothing other than viewing an object through a filter. Typical applications include „Write a text in the style of…“ or creating a budget from actual data that is modified by a selected set of assumptions.

In these types of applications, it is crucial that the quality and internal structure of the source data is consistent. That the data set is as relevant, complete, error-free, and consistent as possible. The assumptions of the second data set must also be carefully selected. It doesn’t help to be able to change these data repeatedly until the result appears reasonably consistent. Anyone who knows how widely forecast models for weather, interest rates, or economic development can diverge can imagine the challenge when it comes to questions about the future.

In the second group of use cases, actual data is collected and compared in real time with normal data in the form of target, average, industry, or historical data to detect deviations. This reduces losses and enables better decision-making. Possible cases include the real-time detection of quality defects, bottlenecks, performance drops, missing parts, waiting times, ergonomic stress, and other abnormalities.

In these applications, comprehensive, real-time actual data collection is the key. While this is nothing new, it is becoming increasingly cheaper and easier to implement with advances in technology. There are basically two approaches: technical sensors or camera technology that capture the reality in a machine or at a workstation in real time. Wherever this is too costly, work progress, physical movements, or other current information are recorded in the form of system entries. This requires the definition of status capture points and the entry in systems, either manually, with technical support, or even fully automatically.

The recorded actual data is compared with target data. Ideally, this is historical data from the same system. However, this data must be extrapolated for any type of change, such as a change in input materials, suppliers, new products, or seasonal or local popularity trends. Alternatively, a new comparison data set must be created through training runs.

Whenever data from external sources is used for comparison, the data quality must be critically examined. For example, supposedly accurate weather data could have been obtained by interpolating two neighboring weather stations. Or there is no guarantee that the supposed behavioral data is correctly assigned to a target group. Users can misstate personality data for data protection or age reasons, resulting in target groups that are not appropriately built and data sets that are „contaminated.“ Or data comes from countries with different structures.

Another challenge is defining „normal.“ Ideally, there is only one possible state that is considered normal, for example, a standard in a single possible form. If there are several possible forms, the most common can be declared normal. Or the average of all cases can be used. Or a range of cases. The more different normal cases there are, the greater the effort required to distinguish between errors and relevant anomalies and to arrive at correct results. And the risk of relevant information being lost during normalization increases accordingly. Since AI is based on statistics and the results can (today) be significantly changed by a few anomalous data sets, the homogeneity of the initial data is a key factor in determining how much control effort is required and how “unsupervised” AI can work.

Overall, the use of AI is not cheap; the resources for acquiring and processing data sets, for the technical hardware for data capture, and for setting up, controlling and maintaining the systems must be available. However, it is much more important that operational processes follow certain rules so that the data sets can even have usable structures. This requires that >99% of what happens is recorded using computer systems, i.e., that as little as possible is based solely on oral agreements and is present in single heads only. That data errors are corrected as quickly and carefully as possible. And that only as few defined states as possible are possible for each parameter. Whenever the exception is declared the rule, and in the worst case, every case is different, it is not possible to determine with sufficient certainty a “normal” that can be meaningfully compared with the actual situation.

Ultimately, only those companies that are young and data-centric, or sufficiently large (in terms of the volumes to which the AI ​​solution is applied, so that the investment is paying off), that strive to eliminate exceptions and standardize, and that significantly increase their in-house data quality standards, will be able to benefit from AI. This requires a profound cultural change, which can be understood as a universal prerequisite for the use of AI. This also means that everyone in the company sees themselves primarily as a data producer and behaves accordingly.

AI thus functions like DRS in Formula 1. It is primarily a booster for the standardized and large companies, who will use it to further increase their lead over the rest of the field. For the others, unfortunately, it means continuing to lag behind the future.

Picture: Claudio Schwarz on unsplash.com

Schreib uns
Contact us
*Pflichtfelder
*Required