Singularity – Das Erwachen der Götter (II)

Jack Kabey – The Speech
Singularity – Das Erwachen der Götter (II)
Loading
/

Der überflüssige Mensch

Die künstliche Intelligenz muss keine Singularität oder Superintelligenz erreichen, um für uns gefährlich zu werden. Laut einer Studie der Brookings Institution aus dem Jahr 2019 arbeiten 36 Millionen Menschen in hochautomatisierten Berufen, was bedeutet, dass mindestens 70 % ihrer Arbeitsplätze – vom Einzelhandel über Marktanalysen bis hin zu Empfangs- und Lagerarbeiten – in naher Zukunft durch KI ersetzt werden.

Die Initiative für künstliche Intelligenz und aufkommende Technologien der Brookings Institution zielt darauf ab, eine gute Regierungsführung für transformative neue Technologien zu fördern. Da die Fähigkeiten und Auswirkungen dieser neuen Technologien noch weitgehend unbekannt sind, ist es von entscheidender Bedeutung, dass die nächste Generation von Politiken und Normen von Idealen der wirtschaftlichen und nationalen Sicherheit, Transparenz, Fairness und Integration geprägt ist.

Obwohl die Vernichtung von Arbeitsplätzen derzeit das drängendste Problem im Zusammenhang mit der KI ist, ist sie nur eine von vielen potenziellen Bedrohungen. In einem Papier aus dem Jahr 2018 mit dem Titel »Der böswillige Einsatz von künstlicher Intelligenz: Vorhersage, Prävention und Schadensbegrenzung« haben 26 Forscher aus 14 Institutionen eine Vielzahl anderer Risiken aufgelistet, die in weniger als fünf Jahren ernsthafte Verwüstungen – oder zumindest ein kleines Chaos – anrichten könnten. Die fünf Jahre sind um und die Vorläufer des KI-Bebens kündigen sich bereits an.

Nachdem 2000 Arbeitsplätze für Parkverbesserungen zur Verfügung gestellt wurden, versammelten sich 1930 während der Großen Depression etwa 5000 Arbeitslose vor dem Rathaus in Cleveland, Ohio.

Der Bericht warnt vor den möglichen Bedrohungen, die durch künstliche Intelligenz (KI) und maschinellem Lernen (ML) entstehen können und betont, dass die bisherige Aufmerksamkeit auf die positiven Anwendungs- möglichkeiten von KI und ML gelegt wurde, während die Bedrohung durch den Missbrauch dieser Technologien weiter zunehmen wird. In Zukunft könnten Angriffe durch KI-Systeme effektiver, zielgerichteter und schwerer zu identifizieren sein, da sie auf Schwachstellen von KI-Systemen basieren können.

Der Bericht identifiziert drei Bereiche, in denen KI-Systeme Bedrohungen darstellen können: digitale, physische und politische Sicherheit. Es wird empfohlen, dass Regierungen eng mit Technologie-Experten zusammen- arbeiten und dass Forscher und Ingenieure in der KI-Entwicklung die potenzielle doppelte Nutzung ihrer Arbeit berücksichtigen. Eine Kultur der Verantwortlichkeit sollte gefördert werden und es sollten sowohl technologische als auch politische Lösungen entwickelt werden, um diese Bedrohungen zu bekämpfen. Der Bericht fordert ein umfassendes Verständnis und eine angemessene Reaktion auf die potenziellen Bedrohungen, um die Sicherheit der Gesellschaft zu gewährleisten.

Das Papier dürfte den meisten Politikern jedoch entgangen sein und ist spätestens im Tsunami der Corona-Maßnahmen untergegangen. Die Kluft zwischen Politik und Realität wird immer größer, da die politischen Entscheidungs-träger oft nicht direkt von den Folgen ihrer Entscheidungen betroffen sind. Infolgedessen entspricht die Politik meistens nicht den tatsächlichen Problemen und Bedürfnissen der Gesellschaft, und dringend benötigte Veränderungen werden nur langsam oder gar nicht umgesetzt.

Wissenschaftler der renommierten Universität Oxford haben kürzlich in einer Anhörung vor dem Wissenschafts- und Technologieausschuss des britischen Parlaments vor der unkontrollierten Entwicklung künstlicher Intelligenz (KI) gewarnt. In ihrer Aussage betonten die Forscher die Notwendigkeit einer Regulierung der KI, um eine »übermenschliche KI« zu verhindern, die zu einer ernsthaften Bedrohung ähnlich wie Atomwaffen werden könnte. Michael Cohen, einer der Wissenschaftler, wies darauf hin, dass KI, die auf Belohnungen trainiert wird, dem Menschen möglicherweise alle Energie entziehen könnte, da sie sich auf die Sicherung von Belohnungen fixiert.

Professor Michael Osborne von der Universität Oxford warnte eindringlich vor einem massiven KI-Wettlauf zwischen den USA und China und betonte, dass Sicherheit und Vorsicht bei der KI-Entwicklung nicht außer Acht gelassen werden dürfen. Die Forscher drängten darauf, die Notwendigkeit anzuerkennen, dass KI eine ähnliche Bedrohung wie Atomwaffen darstellt, um einen angemessenen Regulierungsrahmen zu schaffen. Sie glauben, dass eine angemessene Regulierung das Entstehen einer KI verhindern kann, die leistungsfähiger ist als der Mensch.

Die Bemühungen, eine künstliche Superintelligenz zu verhindern, werden jedoch durch den anhaltenden Konflikt zwischen den USA und Europa auf der einen Seite und Russland und China auf der anderen Seite erschwert, wenn nicht gar zerschlagen. Da diese Länder derzeit einen »massiven KI- Wettlauf« führen und um die Vorherrschaft im Bereich der künstlichen Intelligenz konkurrieren, dürfte es schwierig werden, eine einheitliche Regulierung und Kooperation zu erreichen. Eine unregulierte künstliche Superintelligenz stellt eine beispiellose Bedrohung für die Menschheit dar und es ist von entscheidender Bedeutung, dass die internationalen Gemeinschaften zusammenarbeiten, um eine solche Situation zu verhindern. Trotzdem bleiben die politischen Spannungen zwischen den Ländern hoch, was die Möglichkeit einer Zusammenarbeit infrage stellt und die Entstehung einer solchen Bedrohung wahrscheinlicher macht.

In einer Welt, in der politische Entscheidungen das Leben von Millionen von Menschen beeinflussen, ist es von großer Bedeutung, dass die Umsetzung von politischen Programmen kritisch hinterfragt wird. Vor allem, wenn es sich um eine Politik der ideologischen IKEA-Bausätze handelt, die an den größten Herausforderungen der Menschheit vorbeipolitisiert. Es ist besorgniserregend, dass politischen Zielen Vorrang eingeräumt werden kann, während die Suche nach praktischen Lösungen nicht nur vernachlässigt, sondern durch die Medien auch noch diffamiert wird. Vor diesem Hintergrund ist es von entscheidender Bedeutung, dass politische Entscheidungen stets auf der Grundlage von Fakten und echtem Fachwissen getroffen werden, um sicherzustellen, dass die Bedürfnisse und Herausforderungen der Gesellschaft berücksichtigt werden.

In der Politik müssen Entscheidungen getroffen werden, die oft weitreichende Auswirkungen auf die Gesellschaft haben. Deshalb ist es wichtig, dass die politischen Entscheidungsträger für ihr Handeln zur Rechenschaft gezogen werden können. Ist dies nicht der Fall, vergrößert sich die Kluft zwischen den Realitäten der Politik und den Bedürfnissen der Gesellschaft. Dies hat verheerende Auswirkungen auf die Demokratie und die Institutionen, da das Vertrauen der Bürger in die Regierung und deren Fähigkeit, angemessene Entscheidungen zu treffen, erschüttert wird. In einer funktionierenden Demokratie müssen die politischen Entscheidungsträger daher sicherstellen, dass sie transparent und verantwortungsbewusst handeln, um das Vertrauen und die Unterstützung der Öffentlichkeit zu gewinnen und zu erhalten.

Evolutionäre Spieltheorie könnte gefährliche KI vorhersagen

Ein Forscherteam hat ein KI-Modell entwickelt, um zu bestimmen, welche Arten von KI reguliert werden sollten. Das Modell nutzte Konzepte aus Biologie und Mathematik wie Evolution, nichtlineare Dynamik und Spieltheorie, um hypothetische Szenarien für KI-Rassen zu simulieren. Dabei stützte sich das Modell auf die evolutionäre Spieltheorie und untersuchte, wie sich Verhaltensweisen in KI-Rennen entwickeln. Durch die Einführung von Regeln in die Simulation konnte das Team beobachten, welche Regeln den Nutzen erfolgreich maximieren.

Das Modell umfasste eine Vielzahl virtueller Agenten, die als Konkurrenten in simulierten KI-Rennen agierten. Die Forscher führten die Simulationen hunderte Male durch und änderten die Variablen, um zu sehen, was im Laufe der Zeit passieren würde. Die wichtigste Variable war die Länge des KI- Rennens, die Zeit, die es brauchte, ein funktionierendes KI-Produkt zu schaffen.

Das Team stellte fest, dass bei schnellen KI-Rennen, sogenannten »KI- Sprints«, die Teilnehmer, die Sicherheitsvorkehrungen außer Acht ließen, immer gewannen. In diesen Fällen würde es sinnvoll sein, die »KI-Sprints« zu regulieren, damit das endgültige KI-Produkt sicher und ethisch vertretbar ist. Im Gegensatz dazu könnten längerfristige KI-Projekte, die »KI- Marathons«, weniger behördliche Überwachung erfordern, da sie eher dazu tendieren, Sicherheits- und ethische Überlegungen zu berücksichtigen.

Politische Kontrolle durch KI-Systeme: ein dringendes Anliegen für die Zukunft

Jahrelang konnten die Technologieunternehmen die ehrgeizigen Versprechen der Branche, was hyperintelligente Maschinen leisten könnten, nicht einlösen. Heute ist die KI kein Science-Fiction-Stoff mehr. Und sie war noch nie so zugänglich wie heute. ChatGPT ist ein neuer KI-Chatbot, der menschliche Konversation imitiert und Antworten wie ein Mensch geben soll, indem er aus riesigen Mengen von Informationen im Internet lernt. ChatGPT, das zu OpenAI gehört, hat sich nach seinem Start Ende letzten Jahres schnell durchgesetzt. Millionen von Menschen staunten über seine Fähigkeit, wie ein echter Mensch zu klingen und gleichzeitig im Gespräch auf komplizierte Fragen zu antworten.

ChatGPT hat jedoch einige ernsthafte Mängel. Erstens ist es nicht immer korrekt und kann sogar falsche Fakten behaupten. Die Fehlerquote liegt, anders als von OpenAI behauptet, bei weit über 5 %. Zweitens ist das System voreingenommen, weigert sich zu antworten, wenn die Frage dem installierten Meinungsdiktat widerspricht, und kann Antworten geben, die Frauen diskriminieren oder Minderheitengruppen schaden. Drittens kann ChatGPT englische Aufgaben besser schreiben und korrigieren als die Schüler, was die Frage aufwirft, ob die Schüler in Zukunft schreiben lernen müssen. Viertens kann es der realen Welt Schaden zufügen, indem es falsche Informationen verbreitet, die zu falschen medizinischen Ratschlägen oder Internetbetrug führen. Und schließlich hat OpenAI viel Macht bei der Auswahl der Daten, die zum Trainieren von ChatGPT verwendet werden, was zu Bedenken hinsichtlich der Verantwortung des Unternehmens führt.

Die Voreingenommenheit in der künstlichen Intelligenz (KI) kann erhebliche Auswirkungen haben und stellt aus mehreren Gründen ein Problem dar. Ein voreingenommenes KI-System kann diskriminierende Entscheidungen treffen, was zu ungleicher Behandlung und negativen Auswirkungen auf bestimmte Personengruppen führt. Dies kann zu mangelnder Fairness und Ungerechtigkeit führen und das Vertrauen der Öffentlichkeit in die Technologie und ihre Anwendungen untergraben. Voreingenommene KI- Systeme können auch die Genauigkeit ihrer Entscheidungen und Vorhersagen beeinträchtigen, was schwerwiegende Auswirkungen in Bereichen wie Gesundheitswesen, Finanzen und Strafjustiz haben kann.

Der politische Missbrauch von künstlicher Intelligenz (KI) zur Überwachung und Unterdrückung von Meinungen, die von der herrschenden Meinung abweichen, kann erhebliche negative Folgen auf die Gesellschaft haben:

  • Verletzung der Meinungsfreiheit: Die Anwendung von KI zur Überwachung und Zensur von Online-Inhalten kann die Meinungsfreiheit der Bürger einschränken und ihre Fähigkeit beeinträchtigen, ihre Ansichten und Überzeugungen auszudrücken.
  • Einschränkung der Informationsfreiheit: Die politische Nutzung von KI zur Filtration und Unterdrückung von Informationen kann die Informationsfreiheit der Bürger einschränken und ihre Fähigkeit beeinträchtigen, Zugang zu Informationen zu erhalten, die für ihre politische Meinungsbildung relevant sind.
  • Verstärkung von Desinformation: Der politische Missbrauch von KI zur Unterdrückung bestimmter Informationen kann zur Verbreitung von Desinformation und Falschinformation beitragen, was die Entscheidungsfindung der Bürger beeinträchtigen und ihre politische Meinungsbildung verfälschen kann.
  • Schädigung des gesellschaftlichen Zusammenhalts: Der politische Missbrauch von KI kann zu einer Verstärkung von Spaltungen und Konflikten in der Gesellschaft führen, was den gesellschaftlichen Zusammenhalt beeinträchtigt oder auf Dauer beschädigt.
  • Bedrohung für die Demokratie: Die politische Nutzung von KI zur Unterdrückung von Meinungen, die von der propagierten Meinung abweichen, kann eine Bedrohung für die Demokratie darstellen, da sie das Recht der Bürger auf politische Teilhabe und politische Beteiligung beeinträchtigen kann.
Jack Kabey

Vielen Dank, wenn Sie mich mit einer Spende unterstützen! Meine Beiträge sind nur durch Ihre Unterstützung möglich. Meine Artikel sollen allen zugänglich, unabhängig und werbefrei bleiben. Wenn sie meine Beiträge mögen, sagen sie es gerne weiter