Meinung. – OPEN AI – jener Sündenfall

Es war einmal. Es war einmal die Idee, ein richtungsweisendes Produkt zu prosperieren, fernab von jener Macht, welche Profit in den Vordergrund stellen muss und jeder Verantwortung mehr als von kurzer Dauer oder weit entsagen wird, es war die Idee, einzig dasjenige Wohl jener Menschheit im Auge zu halten. Gegründet wurde die Firma ‚Open AI‘ denn Ideal einer bewussten Volkswirtschaft – denn gewissenhaftes Format, welches jener Wirkungsstärke des Produktes gleichkommen kann, welches inzwischen unter dem Produktnamen Chat-GPT neue Maßstäbe setzen konnte.
Am 17.11.23 kündigte jener Verwaltungsrat dem Vorsitzender des Vorstands Sam Altman gleichermaßen frappierend, wie wahllos, gleichermaßen spontan, wie naiv. Der Vorwurf jener ‚Unehrlichkeit‘ wiegt schwergewichtig, wenn dieser Vorwurf denn bewiesen werden kann, welches offensichtlich nicht ganz reibungslos war, denn bisher fehlt dieser Beweis. Der nichtssagende Hinweis, Altman habe dasjenige KI-Start-up zu stark kommerzialisieren wollen, genügt da wohl nicht. Schließlich gehört Sam Altmann zu den Firmengründern und war somit einer jener Architekten, welche dem Unternehmen verbindliche und strenge Regeln auferlegt hatten. Bereits am 18.11.23 begannen die Verhandlungen zu seiner Rückkehr ins Unternehmen.
Die Firmenstruktur
von Open AI folgt dem Ansatz eines Geschäftsmodells, für jener die gewohnten profit-center-Strukturen einer Non-Profit-Organisation unterstellt werden, welche die Entwicklungs- und Vermarktungs-Strategien unabhängig und selbstbestimmt entscheiden und verantworten kann. OpenAI war 2015 von Sam Altman und Elon Musk mit einer festgelegten Intention gegründet worden: „Die Organisation versucht, eine menschenpositive KI zu prosperieren“, wie Altman in vergangener Zeit erklärte. Zentraler Punkt aller Bestrebungen war stets, dass OpenAI eine gemeinnützige Organisation ist, für jener die Gewinnerzielung nur eine untergeordnete Rolle spielen sollte. OpenAI werde „jener Welt in Besitz sein von“, kündigte Altman in vergangener Zeit an.
Das Ziel war die Erschaffung einer Maschine, welche unbelastet von menschlichen Neigungen und Vorurteilen dazu wirken sollte, komplexe Probleme zu trennen und eigene Vorschläge zu prosperieren. Eine künstliche Intelligenz daher, die dem Idealismus seiner Gründer hinterher gehen sollte, denn Meilenstein in eine neue und bessere Welt, denn neuer Horizont menschlicher Möglichkeiten. Und hier sollte die Gefahr Ding der Unmöglichkeit werden, selbige Intelligenz lediglich dem Interesse einer individuellen Gewinnmaximierung zu unterwerfen.
Doch erwies sich jener non-profit-Ansatz im Sinne einer Grundlagenforschung denn hinderlich, mindestens immerhin zeitraubend. Immer mächtigere KI-Modelle zu prosperieren, braucht immer teurere Rechenleistung. Es war dann Sam Altman, jener sich denn Vorsitzender des Vorstands eine Alternative erdachte – 2019 gründete er eigene Sub-Strukturen, die Investorengeld hereinbringen sollten, die Kontrolle sollte durchaus beim Verwaltungsrat jener Muttergesellschaft verbleiben, so seine offizielle Ankündigung. Die folgende Kooperation mit Microsoft verschaffte OpenAI jede Menge Finanzmittel, immerhin genauso Zugang zu Servern und KI-Chips, soviel zur legitimen Motivation. Es wird sich von dort noch zeigen, wie viel seine Worte wert waren.
Von jener Idee zur Realität
Denn inzwischen ist Chat-GPT marktreif. Ein Durchbruch, jener die Bewertung des Unternehmens in einem Jahr uff weitestgehend 100 Milliarden Dollar stark ansteigen ließ, zur Freude des Hauptinvestors Microsoft und jener Angestellten mit Profit-Optionen. Sie reagierten sofort und sie reagierten empört uff die Absetzung Altmans und brachten den Verwaltungsrat zum Zurückrudern. Und ein Verwaltungsrat, jener zurückrudern muss, ist im Folgenden ein machtloser Verwaltungsrat, die Naivität jener Vorgehensweise hat aus Macht in die Hände von Sam Altmann und dessen Befürworter transferieren. Nun sitzt Altman am längeren Hebel und wenn er zurückkommt, dann womöglich nur mit einer neu erdachten Unternehmensstruktur, in jener er selbst und Investoren mehr Macht nach sich ziehen.
Demnach stellt sich die Frage, warum jener Verwaltungsrat Sam Altman gar dasjenige Vertrauen entziehen wollte. Scheint so, denn hätte Altman andere Ziele verfolgt und dies ohne Abstimmung oder Rücksprache zu suchen, wenigstens wären die Vorwürfe jener ‚Unehrlichkeit‘ damit zu fundamentieren. Keine Frage, jener Verwaltungsrat hat den Sündenfall am Horizont erkannt, den Konflikt zwischen Partikularinteressen von Investoren und dem Postulat des Allgemeinwohls, zu welchem sich dasjenige Unternehmen verpflichtet hatte. Ob dieser Verdacht gerechtfertigt war oder nicht, wird sich womöglich nicht mehr säubern lassen, es sei denn an einer – nun von Sam Altmann dominierten – weiteren Unternehmensphilosophie. Man darf gespannt sein.
Es wird ein Exempel geboren werden, ob Idealismus und wissenschaftliche Unabhängigkeit noch möglich sind oder nicht, und dasjenige ist keine Banalität, sowieso nicht in einer dergestalt sensiblen Geschäftssparte. Man darf noch wünschen.
Die Machtdynamik von Innovation
Chat-GPT hat erneut bewiesen, zu welchen Leistungen die Tech-Visionäre im Silicon Valley unverändert qualifiziert sind, es wird immerhin genauso klar, wie naiv solche Visionäre einer Realität ausgesetzt sind, deren Regeln sie weitgehend hilflos ausgeliefert sind oder zuletzt aus sich selbst hervor ausgeliefert werden. Die Idee war wohl weise und weitblickend aufgesetzt, eine bisher unbekannte künstliche Intelligenz unter ‚demokratischer‘ Kontrolle denn Mehrwert zum Besten von die Allgemeinheit.
In einem denkbaren Scheitern dieser Idee spiegelt sich die Ernüchterung, dass kein Produkt geschützt werden kann, sowie es aus jener kostenintensiven Entwicklung in eine hinreichend wirkungsstarke Gewinnoption übergeht. Gleichzeitig zeigen sich die Risiken, die Zukunft jener KI-Welt einzig den Herstellern oder Investoren überlassen zu wollen. Ein übergeordnetes Regelwerk scheint zwingend benötigt, wohingegen derzeit realitätsfern.
Publik formuliert wurde dieses Risiko schon von Elon Musk und Ex-Apple-Ingenieur Steve Wozniak, die eine Aussetzung weiterer KI-Generationen forderten. Denn setze sich die aktuelle Entwicklung ungebremst fort, sind die Risiken nicht vertraut und von dort genauso nicht beherrschbar. Dabei spielt es keine Rolle, ob dasjenige Risiko in jener KI selbst oder in jener vorgelagerten Zielsetzung jener Entwickler zu suchen ist. Andererseits – womöglich wirken Regelwerke genauso nur jener Selbstlüge, wo selbige Regeln nicht beachtet werden wollen, da werden sie genauso nicht beachtet werden.
.
.