28.09.2024
97
Wenn von künstlicher Intelligenz die Rede ist, entsteht in der Vorstellung vieler Menschen ein Bild von der kommenden Zukunft“. In den Nachrichten und Medien ist von einem technologischen Durchbruch die Rede, der sich direkt vor unseren Augen vollzieht. Aber ist das wirklich der Fall?
Die von ChatGPT oder DALL-E verwendeten Algorithmen ähneln denen, die bereits seit Jahren bekannt sind und verwendet werden. Wenn die Innovation nicht in den Algorithmen liegt, ist es dann vielleicht ein großer technologischer Durchbruch, der es uns ermöglicht, große Datenmengen auf eine „intelligentere“ Weise zu verarbeiten? Ganz und gar nicht! Die Fortschritte, die wir erleben, sind das Ergebnis eines relativ kontinuierlichen und vorhersehbaren Fortschritts. Auch die viel diskutierte generative KI, d. h. der Einsatz von Algorithmen, die darauf trainiert sind, viele mögliche Antworten zu generieren, ist nicht neu - auch wenn sie aufgrund besserer Ergebnisse zunehmend nutzbar wird.
Was sich im vergangenen Jahr ereignet hat, ist keineswegs eine technologische Revolution, sondern ein Durchbruch in der Anwendung. Bislang haben die KI-Giganten diese Technologien für sich behalten oder nur begrenzte Versionen veröffentlicht, so dass ihre Nutzung für die Allgemeinheit eingeschränkt war. Die Newcomer (OpenAI, Stable.AI und Midjourney) hingegen haben beschlossen, den Menschen freie Hand bei der Nutzung ihrer Algorithmen zu lassen. Der eigentliche Durchbruch liegt darin, KI öffentlich zugänglich zu machen.
Wie bereits erwähnt, sind große Unternehmen wie Google, Apple und Meta genauso gut im Besitz dieser Technologien wie alle anderen, halten sie aber in einem sehr eingeschränkten Zugang. Sie halten aus zwei Gründen eine sehr strenge Kontrolle über ihre KI aufrecht.
Erstens geht es um ihr Image: Wenn ChatGPT oder DALL-E rassistische, diskriminierende oder beleidigende Inhalte erstellen, wird der Fehler gerechtfertigt, weil es sich um Start-ups handelt, die noch im Lernprozess sind. Dieses „Recht auf Fehler“ gilt nicht für Google, dessen Ruf dadurch schwer geschädigt würde (ganz zu schweigen von möglichen rechtlichen Problemen).
Der zweite Grund ist strategischer Natur. Das Lehren und Trainieren von KI-Algorithmen ist unglaublich teuer (wir sprechen hier von Millionen von Dollar). Diese enormen Kosten kommen den GAFAMs zugute, die bereits gut etabliert sind. Den Zugang zu ihrer KI zu öffnen bedeutet, diesen Wettbewerbsvorteil aufzugeben. Diese Situation erscheint jedoch paradox, wenn man bedenkt, dass dieselben Unternehmen durch die Freigabe der Nutzung von Technologien (Suchmaschinen, Webplattformen) wuchsen, während andere etablierte Akteure diese eifersüchtig unter strenger Kontrolle hüteten. Abgesehen von der wissenschaftlichen Demonstration war einer der Gründe, warum Facebook sein Llama-Modell zur Verfügung stellte, genau der, Druck auf die größten Akteure auszuüben. Jetzt, da dieser Markt von neuen Akteuren erkundet wird, beeilen sich die digitalen Giganten, ihre „ChatGPT“ auf den Markt zu bringen (daher die neue Version von Microsoft Bing mit Copilot und Google Gemini).
Ein weiterer Mythos, mit dem es aufzuräumen gilt, ist die Offenheit der KI von neuen Unternehmen. In der Tat ist die Nutzung ihrer Technologie ziemlich vielversprechend. Die „GPT API“ von ChatGPT beispielsweise erlaubt es jedem (gegen eine Gebühr), Abfragen in Algorithmen einzubauen. Andere stellen die Modelle selbst zur Verfügung, so dass sie nach Belieben geändert werden können. Trotz dieser Zugänglichkeit bleibt die KI jedoch geschlossen: Offenes oder kollaboratives Lernen kommt hier nicht in Frage. Aktualisierungen und neues Lernen werden ausschließlich von OpenAI und den Unternehmen vorgenommen, die sie entwickelt haben. Die meisten dieser Aktualisierungen und Protokolle werden von den Start-ups geheim gehalten.
Wäre das Lernen neuronaler Netze offen und kollaborativ, würden wir Kämpfe (z. B. mit „Bots“) sehen, um das Lernen des Algorithmus zu beeinflussen, was sich negativ auf die Leistung des Systems auswirken würde. Auch bei Wikipedia, der kollaborativen Enzyklopädie, wird seit vielen Jahren versucht, Einfluss auf das zu nehmen, was als „kollektive Wahrheit“ dargestellt wird. Es stellt sich auch die Frage nach dem Recht auf Datennutzung.
Die Abschaltung der KI erscheint sehr logisch. Tatsächlich wirft es aber eine grundlegende Frage nach dem Wahrheitsgehalt von Inhalten auf. Die Qualität von Informationen ist ungewiss. KI kann voreingenommen oder parteiisch sein, und eine schlechte Ausbildung kann zu gefährlichem „Verhalten“ führen. Da die Öffentlichkeit nicht in der Lage ist, diese Parameter zu beurteilen, hängt der Erfolg der KI vom Vertrauen in die Unternehmen ab - wie es bereits bei Suchmaschinen und anderen „Big-Tech“-Algorithmen der Fall ist. Mit einer solchen „offenen“ KI werden Ethik, Verantwortung und Regulierung völlig neu definiert.
Diese vortrainierten Module lassen sich leicht weitergeben, und im Gegensatz zu zentralisierten KI-Plattformen wie OpenAIs GPT sind sie praktisch nicht zu regulieren. Wenn ein Fehler auftritt, können wir in der Regel genau feststellen, welcher Teil des Trainings ihn verursacht hat. War es das erste Training oder eine von Hunderten von nachfolgenden Trainingseinheiten? Könnte es sein, dass die Maschine von verschiedenen Personen geschult wurde?
Ein weiterer Mythos, der sich um die neue KI rankt, betrifft die Frage der Auswirkungen auf die Beschäftigung. Trotz der Befürchtungen, dass generative KI den Menschen in einer Reihe von Berufen ersetzen wird, ist es derzeit noch zu früh, um an eine solche Aussicht zu denken. Egal wie effektiv KI bei der Lösung alltäglicher Aufgaben und der Automatisierung von Prozessen erscheinen mag, sie ist nicht in der Lage, einen Experten oder einen Spezialisten zu ersetzen. ChatGPT oder DALL-E können sehr gute „Entwürfe“ produzieren, aber sie müssen immer noch von einem Menschen geprüft, ausgewählt und fertiggestellt werden.
Außerdem sollten wir nicht vergessen, dass die „Kreativität“ der KI und ihre tiefen Analysefähigkeiten eine Art Illusion sind. Generative KI ist keine „Intelligenz“ im wörtlichen Sinne, sondern ein Algorithmus, der die relevantesten Antworten auswählt. In Wirklichkeit ist die eigentliche Qualität der Ergebnisse fraglich. Die Explosion von Informationen, Inhalten und Aktivitäten, die sich aus der weit verbreiteten und offenen Nutzung von KI ergeben wird, wird menschliches Fachwissen notwendiger denn je machen. Dies ist die Regel der digitalen Revolutionen: Je mehr wir digitalisieren, desto mehr menschliche Erfahrung ist erforderlich.
Das Aufkommen der generativen KI hat viele Diskussionen ausgelöst und viele Mythen über die Zukunft der Technologie und die Auswirkungen auf das menschliche Streben geschaffen. Tatsache ist jedoch, dass die KI keine technologische Revolution ist, sondern das Ergebnis eines schrittweisen Fortschritts und von Veränderungen in der Art und Weise, wie wir bereits bekannte Algorithmen nutzen. Die Geheimhaltung von Lernprotokollen, der begrenzte Zugang zu diesen Technologien und die Illusion von Offenheit unterstreichen, dass der Mensch ein Schlüsselelement bei der Verwaltung und Kontrolle von KI bleibt. Die Entwicklung der KI ersetzt das menschliche Fachwissen nicht, sondern stärkt seine Bedeutung und macht uns zu wichtigen Teilnehmern in diesem neuen digitalen Zeitalter.
Review
Feedback hinterlassen