spot_img

Wie Amazon im KI-Wettbewerb an Boden gewinnt

Im Bereich KI liegt der Marktführer im Cloud Computing hinter Microsoft und Google zurück. Der Manager von Amazon, Swami Sivasubramanian, will dies ändern, indem...

Der KI-Hype-Zyklus verunsichert die Unternehmen

„KI“ ist ein Problem für maschinelles Lernen. Da alle paar Monate neue atemberaubende Möglichkeiten der generativen KI veröffentlicht werden – und der KI-Hype noch schneller eskaliert – ist es an der Zeit, die Mehrzahl der praktischen ML-Projekte von diesen Forschungsentwicklungen zu unterscheiden. Das beginnt mit der richtigen Bezeichnung solcher Projekte: Nennen Sie sie „ML“, nicht „KI“. Alle ML-Initiativen unter dem Begriff „KI“ zusammenzufassen, trägt zu einer hohen Misserfolgsrate bei ML-Geschäftsimplementierungen bei, weil es zu viel verkauft und irreführend ist. Bei den meisten Initiativen zum maschinellen Lernen (ML) impliziert der Begriff „KI“ Fähigkeiten auf menschlichem Niveau. Wenn Sie die Bedeutung von „KI“ auseinander nehmen, wird Ihnen klar, was für ein übertriebenes Modewort es ist: Wenn es sich nicht auf künstliche allgemeine Intelligenz bezieht, ein hochgestecktes Ziel für die Technologie, dann bedeutet es nichts.

Sie könnten glauben, dass Nachrichten über „große KI-Durchbrüche“ keine Auswirkungen auf die Verbreitung des maschinellen Lernens (ML) haben. Aber wenn nur. Noch bevor ChatGPT von OpenAI und andere generative KI-Tools für Schlagzeilen sorgten, war die reichhaltige Erzählung über eine aufstrebende, allmächtige KI ein wachsendes Problem für angewandtes ML. Für die Mehrheit der ML-Initiativen geht der Begriff „KI“ zu weit. Er übertreibt die Erwartungen und verschleiert die genaue Art und Weise, in der ML die Geschäftsabläufe verbessern wird.

Die überwiegende Mehrheit der praktischen Anwendungsfälle des maschinellen Lernens, die darauf abzielen, die Effizienz bestehender Geschäftsabläufe zu verbessern, bringen auf relativ einfache Weise Innovationen hervor. Der Zweck des maschinellen Lernens ist es, verwertbare Vorhersagen zu erstellen, weshalb es auch als prädiktive Analytik bezeichnet wird. Solange Sie keine betrügerischen Behauptungen aufstellen, dass es „hochpräzise“ ist, wie eine digitale Kristallkugel, bedeutet dies einen echten Wert.

Diese Fähigkeit lässt sich ganz einfach in einen messbaren Wert umsetzen. Die Vorhersagen beeinflussen unzählige operative Entscheidungen. Durch die Vorhersage, welche Kunden am ehesten kündigen werden, kann ein Unternehmen diesen Kunden beispielsweise Anreize zur Kundenbindung bieten. Und durch die Vorhersage, welche Kreditkartentransaktionen betrügerisch sind, kann ein Kartenverarbeiter diese Transaktionen zurückweisen. Praktische ML-Anwendungsfälle wie diese haben die größte Auswirkung auf bestehende Geschäftsabläufe, und die fortschrittlichen Data-Science-Techniken, die bei solchen Initiativen zum Einsatz kommen, laufen allein auf ML hinaus.

Hier ist das Problem: Die meisten Menschen betrachten ML als „KI“. Dieses Missverständnis ist verständlich. Aber „KI“ leidet an einem hartnäckigen, unheilbaren Fall von Mehrdeutigkeit. Es ist ein Sammelbegriff, der sich nicht durchgängig auf eine bestimmte Methode oder ein Wertversprechen bezieht. ML-Tools als „KI“ zu bezeichnen, überschätzt die Fähigkeiten der meisten ML-Implementierungen in Unternehmen. In der Tat kann man nicht mehr versprechen, als wenn man etwas als „KI“ bezeichnet. Der Name spielt auf das Konzept der künstlichen allgemeinen Intelligenz (AGI) an, einer Software, die in der Lage ist, jede intellektuelle Leistung zu erbringen, die normalerweise von Menschen erbracht wird.

Dies verschärft ein wesentliches Problem bei ML-Projekten: Sie konzentrieren sich häufig nicht klar auf ihren Wert – insbesondere darauf, wie ML die Geschäftsprozesse verbessern wird. Infolgedessen scheitern die meisten ML-Initiativen daran, Wert zu schaffen. Im Gegensatz dazu haben ML-Projekte, bei denen ein klares operatives Ziel im Vordergrund steht, eine große Chance, dieses Ziel zu erreichen.

Was genau ist mit KI gemeint?
„‚KI-gesteuert‘ ist das technologische Äquivalent zu der bedeutungslosen Phrase ‚ganz natürlich‘.“

AGI lässt sich aus zwei Gründen nicht vermeiden. Erstens wird der Begriff „KI“ häufig verwendet, ohne zu spezifizieren, ob wir von AGI oder eingeschränkter KI sprechen, die sich auf praktische und zielgerichtete Anwendungen von ML bezieht. Trotz der großen Unterschiede wird die Grenze zwischen diesen beiden Begriffen im allgemeinen Sprachgebrauch und in Software-Marketingmaterialien verwischt.

Zweitens gibt es keine andere zufriedenstellende Definition von KI als AGI. Die Definition von „KI“ als etwas anderes als AGI ist zu einer eigenen Herausforderung für die Forschung geworden, wenn auch zu einer lächerlichen. Andere vorgeschlagene Definitionen können entweder nicht als „intelligent“ in dem ehrgeizigen Sinne bezeichnet werden, den der Begriff „KI“ impliziert, oder sie haben kein objektives Ziel. Dieses Dilemma besteht unabhängig davon, ob wir versuchen, 1) eine Definition für „KI“ zu finden, 2) die Kriterien, nach denen ein Computer als „intelligent“ eingestuft wird, oder 3) einen Leistungsmaßstab, der echte KI zertifiziert. Diese drei Punkte sind identisch.

Die Schwierigkeit liegt in dem Wort „Intelligenz“ selbst. Wenn es zur Charakterisierung einer Maschine verwendet wird, ist es durchweg vage. Wenn KI ein legitimer Bereich sein soll, ist das eine schlechte Nachricht. Die Technik kann nicht ein vages Ziel verfolgen. Wenn es nicht definiert werden kann, kann es auch nicht konstruiert werden. Um einen Apparat zu entwickeln, müssen Sie in der Lage sein, seine Qualität zu messen – wie gut er funktioniert und wie nahe Sie Ihrem Ziel sind -, damit Sie Ihren Fortschritt verfolgen und letztendlich feststellen können, wann Sie erfolgreich waren.

In dem vergeblichen Versuch, dieses Rätsel zu umgehen, führt die Branche ständig einen unbeholfenen Tanz der KI-Definitionen auf, den ich als KI-Mischmasch bezeichne. KI bezieht sich auf intelligente Computer (eine rekursive Definition). Nein, es ist der Intellekt, der von Maschinen gezeigt wird (wenn möglich, sogar noch zirkulärer). Vielmehr handelt es sich um ein System, das bestimmte fortschrittliche Methoden anwendet, wie maschinelles Lernen, Verarbeitung natürlicher Sprache, regelbasierte Systeme, Spracherkennung, Computer Vision oder andere probabilistische Techniken (natürlich qualifiziert die Anwendung einer oder mehrerer dieser Methoden ein System nicht automatisch als intelligent).

Aber vermutlich würde eine Maschine als intelligent gelten, wenn sie hinreichend menschlich erscheint, wenn Sie sie z.B. nicht von einem Menschen unterscheiden können, wenn Sie sie in einem Chatroom befragen – der berüchtigte Turing-Test. Die Fähigkeit, Menschen zu täuschen, ist jedoch ein bewegliches Ziel, da die Menschen mit der Zeit immer besser mit Täuschungen umgehen können. Jedes beliebige System wird den Test höchstens einmal bestehen; uns zweimal zu täuschen ist eine Schande für die Menschheit. Ein weiterer Grund, warum der Turing-Test nicht bestanden werden kann, ist, dass er nur von begrenztem Wert oder Nutzen ist. Wenn KI existieren könnte, wäre sie vermutlich nützlich.

Was wäre, wenn wir KI auf der Grundlage ihrer Fähigkeiten definieren würden? Wenn wir KI zum Beispiel als Software definieren, die eine Aufgabe erfüllen kann, die so komplex ist, dass sie traditionell einen Menschen erfordert, wie z.B. Autofahren, Schachspielen oder das Erkennen menschlicher Gesichter, dann ist KI Software, die solche Aufgaben erfüllen kann. Wie sich herausstellt, funktioniert auch diese Definition nicht, denn sobald ein Computer eine Aufgabe erfüllen kann, neigen wir dazu, sie zu trivialisieren. Letztlich können Computer nur wohldefinierte und wohlverstandene mechanische Aufgaben erfüllen. Die Leistung verliert ihren Reiz, sobald sie vollbracht ist, und der Computer, der sie ausführen kann, erscheint nicht mehr „intelligent“, zumindest nicht in dem Maße, wie der Begriff „KI“ gemeint ist. Als Computer das Schachspiel beherrschten, glaubte man kaum, dass wir die künstliche Intelligenz „gelöst“ hätten.

Dieses Paradoxon, das als „KI-Effekt“ bekannt ist, besagt, dass etwas, das zwar denkbar, aber nicht intelligent ist, auch nicht intelligent ist. Unbeabsichtigt ist künstliche Intelligenz (KI) gleichbedeutend mit „Computer dazu bringen, Dinge zu tun, die für Computer zu schwierig sind“ – eine künstliche Unmöglichkeit. Es gibt kein Ziel, das bei der Ankunft satt macht; KI lässt sich nicht kategorisch definieren. Larry Tesler, ein Pionier der Informatik, schlug bekanntlich vor, dass wir KI als das definieren könnten, „was Maschinen noch nicht getan haben“.

Ironischerweise war es der quantifizierbare Erfolg des maschinellen Lernens, der den KI-Wahn zunächst befeuerte. Letztendlich ist die Steigerung der messbaren Leistung die Essenz des überwachten maschinellen Lernens. Das Feedback, das sich aus der Bewertung eines Systems im Vergleich zu einer Benchmark ergibt, z.B. einer Stichprobe von markierten Daten, ist die Grundlage für die anschließende Verbesserung des Systems. Somit bietet ML einen beispiellosen Nutzen in unzähligen Bereichen. Laut Harvard Business Review hat es sich seinen Titel als „die wichtigste Allzwecktechnologie unserer Zeit“ erworben. Mehr als alles andere haben die nachgewiesenen Fortschritte des maschinellen Lernens den Hype um KI angeheizt.

All in on General Intelligence Künstliche Intelligenz
„Ich sage voraus, dass der dritte KI-Winter innerhalb der nächsten fünf Jahre stattfinden wird… 1991, als ich meinen Doktor in KI und ML gemacht habe, war KI buchstäblich ein Schimpfwort. Kein Unternehmen würde in Erwägung ziehen, einen KI-Experten einzustellen.“

-Usama Fayyad, Rede auf der Machine Learning Week am 23. Juni 2022

Es gibt eine Lösung für dieses Definitionsproblem: Definieren Sie KI als AGI, also als Software, die in der Lage ist, jede intellektuelle Aufgabe auszuführen, die Menschen ausführen können. Wenn dieses nach Science-Fiction klingende Ziel erreicht würde, gäbe es ein zwingendes Argument, dass es als „intelligent“ gelten würde. Und es ist ein messbares Ziel, zumindest in der Theorie, wenn auch nicht in der Praxis. Die Entwickler könnten das System beispielsweise an einer Reihe von 1.000.000 Aufgaben messen, darunter Zehntausende komplexer E-Mail-Anfragen, die Sie an einen virtuellen Assistenten senden könnten, verschiedene Anweisungen für einen Lagerarbeiter, die Sie genauso gut einem Roboter erteilen könnten, und sogar kurze, einzeilige Übersichten darüber, wie die Maschine in der Rolle des CEO ein Fortune 500-Unternehmen rentabel führen sollte.

AGI mag ein klar definiertes Ziel haben, aber es ist nicht von dieser Welt – das unüberwindbarste Ziel überhaupt. Niemand weiß, ob oder wann es erreicht werden kann.

Das ist das Problem mit typischen ML-Anwendungen. Indem wir sie als „KI“ bezeichnen, weisen wir darauf hin, dass sie auf dem gleichen Spektrum wie AGI existieren und auf einer Technologie basieren, die sich aktiv in diese Richtung entwickelt. „KI“ verfolgt ML. Er verwendet eine extravagante Erzählung und bläht die Erwartungen auf, indem er die tatsächliche Technologie mit unrealistischen Begriffen verkauft. Dies führt zu Verwirrung unter den Entscheidungsträgern und zum Scheitern zahlreicher Initiativen.

Es ist verständlich, dass so viele ein Stück vom KI-Kuchen abhaben wollen, wenn er die gleichen Komponenten wie AGI enthält. Die Erfüllung von Wünschen, die AGI verspricht, eine Form der ultimativen Kontrolle, ist so verlockend, dass sie fast unwiderstehlich ist.

Aber es gibt einen besseren Weg nach vorne, einen, der realistisch und, wie ich behaupten würde, bereits aufregend genug ist: die wichtigsten Abläufe – die Kernfunktionen unserer Organisationen – effizienter zu gestalten! Dies ist das Ziel der meisten kommerziellen Initiativen zum maschinellen Lernen. Um ihre Erfolgsquote zu erhöhen, müssen wir zur Realität zurückkehren. Wenn Ihr Ziel darin besteht, einen betrieblichen Nutzen zu erzielen, sollten Sie keine künstliche Intelligenz kaufen oder verkaufen. Sagen Sie nur, was Sie beabsichtigen, und beabsichtigen Sie, was Sie sagen. Wenn eine Technologie aus ML besteht, sollten wir sie auch als solche bezeichnen.

Die Berichte über die bevorstehende Veralterung des menschlichen Geistes sind stark übertrieben, was bedeutet, dass eine weitere Ära der KI-Desillusionierung bevorsteht. Langfristig werden wir weiterhin KI-Winter erleben, solange wir den Begriff „KI“ überspitzt verwenden. Wenn wir jedoch die „KI“-Rhetorik abschwächen oder ML auf andere Weise von KI abgrenzen, werden wir ML als Branche angemessen vor dem nächsten KI-Winter schützen. Dazu gehört, dass wir der Versuchung widerstehen, auf dem Hype mitzureiten, und dass wir Entscheidungsträgern, die sich vor einer allmächtigen KI zu verneigen scheinen, nicht passiv zustimmen. Andernfalls ist die Gefahr klar und deutlich: Wenn der Hype abflaut, die Übertreibungen entlarvt werden und der Winter kommt, wird ein großer Teil des wahren Wertversprechens von ML unnötigerweise mit den Mythen entsorgt werden, als würde man das Kind mit dem Bade ausschütten.

Dieser Artikel ist das Ergebnis der Arbeit des Autors als Bodily Bicentennial Professor in Analytics an der University of Virginia Darden School of Business.