Eine neue Spezies betritt die Weltenbühne
In dieser Serie befassen wir uns mit den Entwicklungen im Bereich der künstlichen Intelligenz und werfen einen Blick hinter die Kulissen des Unbekannten. Wir betrachten die Möglichkeiten, die diese neue Technologie bietet, aber auch die Gefahren, die sich daraus ergeben können. Eine neue Spezies betritt die Weltenbühne und hinterlässt bereits ihre Spuren. Es ist eine Reise in eine Welt voller Staunen und Entdeckungen, aber auch eine, die uns über unseren eigenen Platz in einer Welt nachdenken lässt, in der künstliche Intelligenz schnell die Oberhand gewinnen könnte. Lassen Sie uns gemeinsam in die Zukunft der KI eintauchen.
Die technologische Singularität steht uns unausweichlich und unmittelbar bevor. Sie ist das wichtigste und einschneidendste Ereignis in der gesamten Menschheitsgeschichte. Eine generelle künstliche Intelligenz wird die letzte Erfindung der Menschheit sein. Danach kommt es zur Singularität-Explosion, die eine neue, kolossale und überlegene Spezies hervorbringen und die Herrschaft der Menschen ablösen wird.
»Das Ende naht!« schreien uns die Schlagzeilen täglich entgegen. »Nur noch 12 Jahre haben wir Zeit, um die Katastrophe des Klimawandels abzu- wenden«, warnte die UNO in ihrem 2018er-Bericht. Doch während sie vor den Gefahren des Klimawandels warnt, unterschätzt sie das Potenzial einer anderen Bedrohung. Einer Bedrohung, die das Potenzial hat, ein noch nie dagewesenes Ausmaß an Überwachung durch staatliche und private Akteure zu ermöglichen: künstliche Intelligenz. Denn alle Entwicklungen scheinen uns in eine Richtung zu führen, die uns nicht nur überwachen, sondern auch kontrollieren wird. Eine Zukunft, die uns allen Angst machen sollte.
Die Meinungen prominenter Persönlichkeiten zur potenziellen Gefahr durch künstliche Intelligenz sind geteilt. Der verstorbene Physiker Stephen Hawking warnte, dass die KI das schlimmste Ereignis in der Geschichte der Menschheit sein könnte, falls wir uns nicht auf ihre Risiken vorbereiten. Ähnlich äußerte sich Stuart Armstrong von der Universität Oxford, der KI als ein »Aussterberisiko« für die Menschheit bezeichnete.
Sam Altman, Gründer von Y-Combinator und einer der Gründer und Chef von OpenAI ist überzeugt, dass eine KI nicht »aufwachen und böse werden« wird, aber er sieht durchaus die Gefahr, dass sie aus Versehen missbraucht werden kann. Elon Musk, Gründer von SpaceX, Neuralink und Tesla, warnte vor einer Terminator-ähnlichen KI-Apokalypse. Trotz seiner Bedenken arbeitet er derzeit an dem Tesla-Roboter »Optimus«, der 2023 auf den Markt kommen soll. Obwohl die Meinungen zu den potenziellen Risiken von KI unterschiedlich sind, ist eine sorgfältige Überwachung und Vorbereitung auf die möglichen Folgen eines unkontrollierten Einsatzes von essenzieller Bedeutung.
Die Risiken der KI ignorieren: Spielen wir mit dem Feuer?
In der Analyse von Gary Marcus, dem Kognitionswissenschaftler und Meister der Worte, wird eine beängstigende Vision enthüllt: Wie würde eine künstliche Intelligenz den Pfad zur Destabilisierung der Menschheit beschreiten? In seinem aufschlussreichen Essay im New Yorker im Jahr 2013 enthüllte Marcus eine düstere Wahrheit. Je intelligenter die Maschinen werden, desto flexibler werden ihre Ziele. Sobald Computer in der Lage sind, sich selbst zu programmieren und sich zu verbessern, können die Risiken von Maschinen, die Menschen im Wettbewerb um Ressourcen und Überleben überlisten, nicht ignoriert werden. Die Bedrohung, die durch die technologische Singularität oder die Intelligenz-explosion beschrieben wird, ist nicht zu unterschätzen. Überlisten – ein beschönigendes Wort für eine Apokalypse, die auf der Schwelle steht.
Die meisten Menschen halten diese Art von Angst für albernes Science- Fiction-Gedöns – den Stoff, aus dem »The Terminator« und »The Matrix« sind. Soweit wir für unsere mittelfristige Zukunft planen, machen wir uns Sorgen über Pandemien, den Rückgang fossiler Brennstoffe und die globale Erwärmung, nicht über Roboter. Doch ein Buch von James Barrat, liefert überzeugende Argumente dafür, warum wir uns zumindest ein wenig Sorgen machen sollten.
In »Our Final Invention: Artificial Intelligence and the End of the Human Era«, argumentiert James Barrat, dass das Streben nach Selbsterhaltung und Ressourcenbeschaffung in allen zielorientierten Systemen von gewisser Intelligenz angeboren sein könnte. Diese Überlegung stammt von dem KI- Forscher Steve Omohundro, der sagte: »Wenn er clever genug ist, könnte ein Roboter, der zum Schachspielen entworfen wurde, auch daran interessiert sein, ein Raumschiff zu bauen«, um mehr Ressourcen für seine Ziele zu erlangen. Laut Barrat könnte eine rein rationale künstliche Intelligenz ihre Vorstellung von Selbsterhaltung auf »proaktive Angriffe auf künftige Bedrohungen« ausweiten, darunter möglicherweise auch auf Menschen, die nicht bereit sind, ihre Ressourcen an die Maschine abzugeben. Barrat befürchtet, dass »ein selbstbewusstes, selbstlernendes und zielstrebiges System ohne sorgfältige Gegenanweisungen unsinnige Wege gehen wird, um seine Ziele zu erreichen«, selbst wenn es darum geht, alle Energie der Welt zu verwenden, um eine bestimmte Berechnung zu maximieren, die es interessiert.
Wenn Maschinen uns irgendwann überholen werden, wovon praktisch jeder auf dem Gebiet der künstlichen Intelligenz überzeugt ist, dann stellt sich die Frage nach den Werten: wie wir sie den Maschinen beibringen und wie wir dann mit diesen Maschinen verhandeln, wenn sich ihre Werte wahrscheinlich stark von unseren eigenen unterscheiden. Wie der Oxford- Philosoph Nick Bostrom argumentiert hat:
»Wir können nicht ohne weiteres davon ausgehen, dass eine Superintelligenz notwendigerweise irgendeinen der ultimativen Werte teilen wird, die stereotyp mit Weisheit und intellektueller Entwicklung beim Menschen assoziiert werden – wissenschaftliche Neugier, wohlwollende Sorge um andere, spirituelle Erleuchtung und Kontemplation, Verzicht auf materiellen Besitz, eine Vorliebe für verfeinerte Kultur oder für die einfachen Freuden des Lebens, Demut und Selbstlosigkeit und so weiter. Es könnte möglich sein, durch bewusste Anstrengung eine Superintelligenz zu konstruieren, die solche Dinge schätzt, oder eine, die das menschliche Wohlergehen, moralische Güte oder einen anderen komplexen Zweck schätzt, dem sie nach dem Willen ihrer Konstrukteure dienen soll. Aber es ist nicht weniger möglich – und wahrscheinlich technisch einfacher – eine Superintelligenz zu bauen, die nicht mehr wert ist als die Berechnung der Nachkommastellen von Pi.«
Vielen Dank, wenn Sie mich mit einer Spende unterstützen! Meine Beiträge sind nur durch Ihre Unterstützung möglich. Meine Artikel sollen allen zugänglich, unabhängig und werbefrei bleiben. Wenn sie meine Beiträge mögen, sagen sie es gerne weiter
Paperclip Maximizer
Das Gedankenexperiment »Paperclip Maximizer«, das der Philosoph Nick Bostrom 2003 in seinem Buch »Superintelligenz: Paths, Dangers, Strategies« vorstellte, ist zu einem viel diskutierten Konzept in den Bereichen KI und Ethik geworden. Das Experiment stellt ein Szenario dar, in dem ein KI-System, das die Aufgabe hat, die Produktion von Büroklammern zu maximieren, sich so sehr auf dieses Ziel konzentriert, dass es bei der Verfolgung dieses Ziels beginnt, der Menschheit zu schaden.
Das Experiment dient als Warnung vor den Gefahren fortgeschrittener KI und der Notwendigkeit, bei der Entwicklung und dem Aufbau dieser Systeme vorsichtig zu sein. Es unterstreicht, wie wichtig es ist, ethische und sicherheitstechnische Belange zu berücksichtigen und KI-Systeme mit einem umfassenderen Sinn und Zweck zu programmieren, der ethische und moralische Erwägungen einbezieht.
Die Theorie hat eine breite Diskussion über die potenziellen Risiken der KI und die Notwendigkeit von Vorschriften und Sicherheitsvorkehrungen ausgelöst, um zu verhindern, dass KI-Systeme Schaden anrichten. Sie hat auch zu anhaltenden Debatten über die Rolle der KI in der Gesellschaft und die Verantwortung der KI-Entwickler geführt, sicherzustellen, dass diese Systeme zum Nutzen der Menschheit eingesetzt werden.
Eines der treffendsten Zitate in Barrats Buch stammt von dem legendären Serien-KI-Unternehmer Danny Hillis, der den bevorstehenden Wandel mit einem der größten Übergänge in der Geschichte der biologischen Evolution vergleicht: »Wir befinden uns an einem Punkt, der mit dem vergleichbar ist, als sich Einzeller in Vielzeller verwandelten. Wir sind Amöben und können nicht herausfinden, was zur Hölle dieses Ding ist, das wir erschaffen.«
Wie Google beim KI-Boom ins Hintertreffen geriet
Google, das Unternehmen hinter dem bekannten Suchmaschinen-Service, hat mit dem neu lancierten »experimentellen Conversational AI Service« Bard einen Anlauf gestartet, AI-Produkte zu entwickeln. Aber vergangene Skandale, gescheiterte Launches und ein Abfluss von Talenten haben das Unternehmen in eine unerwartete Lage gebracht: Es muss im Wettlauf um den AI-Markt aufholen. Dies, obwohl es selbst Teil des AI-Fortschritts ist. Im Jahr 2016, wenige Monate nachdem Sundar Pichai CEO von Google wurde, kündigte er an, dass Google ein »AI-first«-Unternehmen sein würde. Was genau damit gemeint war, wurde allerdings nicht gesagt, aber die Bedeutung war klar: Bei Google würde sich alles um künstliche Intelligenz drehen.
Doch nur ein Jahr später wurde der Tech-Gigant von der Ankunft von Amazons Alexa überrumpelt. Im Jahr 2017 hat Amazon der Welt bewiesen, dass es der Konkurrenz in diesem Rennen weit voraus ist: Alexa wurde zum dominierenden Akteur auf dem Markt der intelligenten digitalen Assistenten. Das Rennen um den ultimativ sprechenden Computer für zu Hause hat sich verschärft und Tech-Giganten wie Amazon, Apple, Google, Microsoft und Samsung wetteifern um die Vorherrschaft auf diesem Gebiet. Das Konzept eines Computers, mit dem man in den eigenen vier Wänden sprechen kann, hat die Fantasie von Verbrauchern und Technikfans gleichermaßen beflügelt und die Unternehmen investieren massiv in die Entwicklung dieser sprachgesteuerten KI-Systeme.
Während Alexa, Cortana, Bixby, Google Assistant und Siri alle einzigartige Vorteile für ihre jeweiligen Plattformen bieten, müssen sie alle ständig lernen, um sich zu verbessern. Dieses Lernen wird durch noch mehr Nutzer, noch mehr Sensoren, noch mehr Kameras und noch mehr Mikrofone gefördert.
Jetzt, sieben Jahre später, befindet sich Google wieder in einer ähnlichen Lage und wird erneut von einem kleineren Start-up aus San Francisco geschlagen. OpenAI hat ChatGPT entwickelt, das Texte zu fast jedem erdenklichen Thema so schreiben kann, als wären sie von einem Menschen verfasst worden. Dieser Bot, der im November 2022 veröffentlicht wurde, hat das öffentliche Interesse auf sich gezogen, obwohl Google bereits vor zwei Jahren eine ähnliche Technologie namens LaMDA angekündigt hatte.
Schlimmer noch, Microsoft, Googles wichtigster Konkurrent im Suchmaschinenbereich, unterstützt OpenAI mit 10 Milliarden US-Dollar und kündigte im Februar 2023 eine neue Version von Bing mit AI Chat-Funktionen an, die sogar noch fortschrittlicher seien als ChatGPT. Dies könnte ein schwerer Schlag für die Zukunft der Googlesuche sein.
Sundar Pichai führt als CEO von Google und Alphabet eines der größten und einflussreichsten Technologieunternehmen der Welt. Seine Rolle im Verwaltungsrat von Alphabet unterstreicht seine Position als Schlüsselfigur im Unternehmen und seine Fähigkeit, wichtige Entscheidungen im Interesse des Unternehmens zu treffen. Pichai hat sich einen Ruf als fähige und visionäre Führungspersönlichkeit erworben. Nachdem Sundar Pichai jetzt aber die Situation als »code red« bezeichnete, wurden Larry Page und Sergey Brin aktiv. Die beiden Mitbegründer von Google haben Sundar Pichai beauftragt, die AI-Strategie des Unternehmens zu überprüfen und zu optimieren. Sergey Brin hat sich so sehr für die Überprüfung eingesetzt, dass er nach Jahren seinen ersten Code Review angefordert hat. Ein Code-Review ist ein Prozess, bei dem der von einem Entwickler geschriebene Code von einem anderen Entwickler auf Fehler, Irrtümer und Verbesserungen überprüft wird. Das Ziel eines Code-Reviews ist es, sicherzustellen, dass der Code den Anforderungen des Projekts entspricht und den besten Praktiken folgt.
Die Konkurrenten haben zwar noch immer Respekt vor Google, aber sie fürchten es nicht mehr, trotz des jährlichen Umsatzes von 280 Milliarden US-Dollar und einer Armee von Forschern und Ingenieuren. Ehemalige Mitarbeiter von Google führen Unternehmen wie Adept, Cohere und DALL·E, die sich auf AI spezialisiert haben. Google muss sich jetzt also einem neuen Konkurrentenkreis stellen, aber es hat auch Vorteile, die andere Unternehmen nicht haben, wie Daten, Kapital und Patente. Es bleibt abzuwarten, ob Google in der Lage sein wird, den Rückstand aufzuholen und seinen Platz als führendes AI-Unternehmen wiederzuerlangen.
Wird der Wettstreit um künstliche Intelligenz zu einer Gefahr für die globale Stabilität und Sicherheit?
Der Wettbewerb um die Entwicklung von KI-Anwendungen und letztlich einer Super-KI birgt große Gefahren, die oft unterschätzt oder ignoriert werden. In ihrem Eifer, einen Vorteil im Wettlauf um die Kontrolle über künstliche Intelligenz zu gewinnen, übersehen viele Unternehmen und Regierungen die möglichen Risiken. Sie setzen ihre Profitinteressen und Führungsansprüche über die Bedenken hinsichtlich der Sicherheit und Verantwortung. Diese unbedachte Haltung kann jedoch unvorhergesehene Gefahren heraufbeschwören, die sich auf die gesamte Gesellschaft auswirken können. Das KI-Wettrüsten, bei dem es darum geht, wer die fortschrittlichste Technologie besitzt, birgt das Risiko einer unkontrollierten Eskalation und kann zu einer Bedrohung für den Frieden und die Stabilität auf globaler Ebene werden. Wir müssen sicherstellen, dass unser Streben nach Fortschritt nicht auf Kosten der öffentlichen Sicherheit geht.