Moratorium für Künstliche Intelligenz

Zuletzt aktualisiert am 12. Januar 2024.

Ende April veröffentlichten führende KI-Forscher ein bemerkenswertes Dokument, in dem ein Moratorium für Künstliche Intelligenz gefordert wird. Die Zauberlehrlinge scheinen Angst vor den Geistern zu bekommen, die sie gerufen haben. Ein das Dossier begleitender offener Brief wurde inzwischen von über 27.000 Personen unterzeichnet, darunter Elon Musk, Steve Wozniak und Yuval Harari.

Das Dossier schlägt ein sechsmonatiges Moratorium für die Weiterentwicklung der Künstlichen Intelligenz vor. Während des Moratoriums soll ein rechtlicher und regulatorischer Rahmen für die Forschung und Anwendung geschaffen werden, der die sich abzeichnenden Risiken eindämmt oder zumindest mit der Eindämmung beginnt.

Es folgt die deutsche Übersetzung des Dossiers.

Moratorium für Künstliche Intelligenz

Bild durch KI generiert. JuliusH pixabay.

Moratorium für Künstliche Intelligenz

Einführung

Prominente KI-Forscher haben eine Reihe von Gefahren ausgemacht, die von den heutigen und künftigen Generationen fortschrittlicher KI-Systeme ausgehen können, wenn sie nicht kontrolliert werden. KI-Systeme sind bereits jetzt imstande, Fehlinformationen und authentisch aussehende Fälschungen zu erzeugen, die die gemeinsamen realen Grundlagen der Gesellschaft untergraben und politische Spannungen schüren.[1] Sie neigen schon jetzt dazu, Diskriminierung und Vorurteile zu verstärken und benachteiligte Gemeinschaften und unterschiedliche Sichtweisen weiter zu marginalisieren.[2] Das derzeitige, rasante Entwicklungstempo wird diese Probleme noch erheblich verschärfen.

Wenn diese Art von Systemen immer ausgefeilter wird, könnten sie die Arbeitsmärkte und die politischen Institutionen destabilisieren und zu einer enormen Machtkonzentration in den Händen einer kleinen Zahl demokratisch nicht legitimierter Unternehmen führen.

Fortgeschrittene KI-Systeme könnten auch die nationale Sicherheit bedrohen, z. B., indem sie die kostengünstige Entwicklung von chemischen, biologischen und digitalen Waffen durch nichtstaatliche Gruppen erleichtern. Die Systeme könnten selbst Ziele verfolgen, die entweder von Menschen oder von ihnen selbst festgelegt wurden, und zwar in einer Weise, die die Menschenrechte, die Sicherheit der Menschen oder – in den schlimmsten Fällen – die menschliche Existenz bedroht.[3]

Um diese Folgen abzuwenden, ruft das Future of Life Institute (FLI) gemeinsam mit über 20.000 führenden KI-Forschern, Professoren, CEOs, Ingenieuren, Studenten und anderen, die an vorderster Front der KI-Entwicklung stehen, dazu auf, die risikoreichsten und ressourcenintensivsten KI-Experimente mindestens sechs Monate lang zu unterbrechen – also jene Experimente, die darauf abzielen, die Größe und die allgemeinen Fähigkeiten der leistungsfähigsten bisher entwickelten Systeme weiter zu steigern.[4]

Die vorgeschlagene Pause verschafft uns Zeit, diese Systeme besser zu verstehen, über ihre ethischen, sozialen und sicherheitstechnischen Auswirkungen nachzudenken und sicherzustellen, dass KI auf verantwortungsvolle Weise entwickelt und eingesetzt wird. Der ungebremste Wettbewerb in der KI-Branche schafft Anreize für eine aggressive Entwicklung auf Kosten der Vorsicht[5]. Im Gegensatz zu dem halsbrecherischen Entwicklungstempo sind die Hebel rechtlicher Lenkung im Allgemeinen langsam und bedächtig. Eine Pause bei der Produktion von noch leistungsfähigeren KI-Systemen wäre daher eine wichtige Gelegenheit für Regierungen und Parlamente, mit der rasanten Entwicklung in diesem Bereich Schritt zu halten.

Wir haben die KI-Labore aufgefordert, eine Entwicklungspause einzulegen, bis sie über Protokolle verfügen, die gewährleisten, dass ihre Systeme für den Einzelnen, die Gemeinschaften und die Gesellschaft zweifelsfrei sicher sind. Unabhängig davon, ob die Labore unserer Aufforderung nachkommen, gibt dieses Dossier politischen Entscheidungsträgern konkrete Empfehlungen, wie Regierungen mit KI-Risiken umgehen können.

Die Empfehlungen sind keineswegs erschöpfend: Das Projekt der KI-Governance ist ein Dauerbrenner und geht weit über jedes Moratorium hinaus. Nichtsdestotrotz wird die Umsetzung dieser Empfehlungen, die weitgehend einen breiten Konsens unter KI-Politikexperten widerspiegeln, eine solide Governance-Grundlage für KI schaffen.

Politische Empfehlungen

1. Vorgabe einer soliden Prüfung und Zertifizierung durch Dritte für bestimmte KI-Systeme

Bei einigen Arten von KI-Systemen ist das Potenzial, das körperliche, geistige und finanzielle Wohlergehen von Einzelpersonen, Gemeinschaften und der Gesellschaft zu beeinträchtigen, leicht erkennbar. So könnte beispielsweise ein System zur Überprüfung von Kreditwürdigkeit bestimmte ethnische Gruppen diskriminieren. Bei anderen Systemen – insbesondere bei universellen KI-Systemen[6] – sind die Anwendungen und potenziellen Risiken oft nicht sofort ersichtlich. KI-Systeme für allgemeine Zwecke, die mit massiven Datensätzen trainiert werden, haben auch unerwartete (und oft unbekannte) neue Fähigkeiten.[7]

In Europa schreibt der Entwurf des KI-Gesetzes bereits vor, dass »Hochrisiko«-KI-Systeme vor ihrer Einführung und bei jeder wesentlichen Änderung einer »Konformitätsbewertung« unterzogen werden müssen, um die Einhaltung bestimmter harmonisierter Normen oder anderer gemeinsamer Spezifikationen zu bescheinigen.[8] In einigen Fällen schreibt das Gesetz vor, dass solche Bewertungen von unabhängigen Dritten durchgeführt werden müssen, um Interessenkonflikte zu vermeiden.

Im Gegensatz dazu haben die Vereinigten Staaten bisher nur einen allgemeinen, freiwilligen Rahmen für die KI-Risikobewertung geschaffen.[9] Das National Institute of Standards and Technology (NIST) entwickelt in Abstimmung mit verschiedenen Interessengruppen sogenannte »Profile«, die spezifische Leitlinien zur Risikobewertung und -minderung für bestimmte Arten von KI-Systemen enthalten, aber dieser Rahmen erlaubt es Organisationen nach wie vor, die Risiken, die sie für die Gesellschaft schaffen, einfach zu »akzeptieren«, anstatt sie anzugehen. Mit anderen Worten: Die Vereinigten Staaten verlangen keine Risikobewertung durch Dritte oder Maßnahmen zur Risikominderung, bevor ein leistungsstarkes KI-System in großem Umfang eingesetzt werden kann.

Um eine ordnungsgemäße Prüfung leistungsfähiger KI-Systeme vor ihrem Einsatz zu gewährleisten, empfehlen wir ein robustes unabhängiges Prüfsystem für Modelle, die für allgemeine Zwecke eingesetzt werden, die mit großen Datenmengen trainiert werden oder die für den Einsatz in Situationen vorgesehen sind, die sich auf die Rechte oder das Wohlergehen von Einzelpersonen, Gemeinschaften oder der Gesellschaft auswirken können. Dieses obligatorische Prüfungs- und Zertifizierungssystem durch Dritte könnte von den von der EU vorgeschlagenen »Konformitätsbewertungen« abgeleitet werden und sollte von den Rechtssystemen weltweit übernommen werden[10].

Insbesondere empfehlen wir die Prüfung solcher Systeme durch Dritte anhand einer Reihe von Maßstäben zur Bewertung der Risiken[11], einschließlich einer möglichen militärischen Nutzung[12] und unethischer Verhaltensweisen[13] und eine obligatorische Zertifizierung durch akkreditierte dritte Prüfer, bevor diese Hochrisikosysteme eingesetzt werden können. Die Zertifizierung sollte nur erteilt werden, wenn der Entwickler des Systems nachweisen kann, dass geeignete Maßnahmen zur Risikominderung ergriffen wurden und dass alle als tolerierbar erachteten Restrisiken offengelegt werden und festgelegten Protokollen zur Schadensminimierung unterliegen.

2. Regulierung des Zugangs von Organisationen zu Rechenleistung

Gegenwärtig werden die fortschrittlichsten KI-Systeme durch Trainings entwickelt, die eine enorme Menge an Rechenleistung erfordern. Die Menge an Rechenleistung, die für das Training eines Allzwecksystems benötigt wird, korreliert weitgehend mit seinen Fähigkeiten und dem Ausmaß seiner Risiken.

Die fortschrittlichsten Modelle wie GPT-4 von OpenAI oder PaLM von Google können nur mit Tausenden von spezialisierten Chips trainiert werden, die über einen Zeitraum von Monaten laufen. Während Chip-Innovationen und bessere Algorithmen die erforderlichen Ressourcen in Zukunft reduzieren werden, wird das Training der leistungsfähigsten KI-Systeme wahrscheinlich für alle außer den am besten ausgestatteten Akteuren unerschwinglich bleiben.

In der Praxis lässt sich die Rechenleistung leichter überwachen und steuern als andere KI-Inputs, wie Fähigkeiten, Daten oder Algorithmen. Sie kann relativ leicht gemessen werden, und die Lieferkette für fortschrittliche KI-Systeme ist hochgradig zentralisiert, was bedeutet, dass Regierungen Maßnahmen zur Begrenzung der Schäden von Großmodellen solcher Systeme einführen können.[14]

Um zu verhindern, dass die risikoreichsten Modelle leichtsinnig trainiert werden, empfehlen wir, dass Regierungen den Zugang zu großen Mengen spezialisierter Rechenleistung für KI von einer umfassenden Risikobewertung abhängig machen. Die Risikobewertung sollte einen detaillierten Plan zur Minimierung der Risiken für Einzelpersonen, Gemeinschaften und die Gesellschaft enthalten, nachgelagerte Risiken in der Wertschöpfungskette berücksichtigen und sicherstellen, dass die KI-Labore sorgfältige Überprüfungen ihrer Kunden durchführen.

Die erfolgreiche Umsetzung dieser Empfehlung erfordert, dass die Regierungen die Nutzung von Rechenleistung in Rechenzentren in ihrem jeweiligen Zuständigkeitsbereich überwachen.[15] Auch die Lieferketten für KI-Chips und andere Schlüsselkomponenten für das Hochleistungsrechnen müssen so reguliert werden, dass die Chip-Firmware die Aufsichtsbehörden vor nicht genehmigten großen Trainingsläufen fortschrittlicher KI-Systeme warnen kann.[16]

Im Jahr 2022 führte das Büro für Industrie und Sicherheit des US-amerikanischen Handelsministeriums eine Lizenzierungspflicht[17] für die Ausfuhr vieler dieser Komponenten ein, um deren weltweiten Vertrieb zu überwachen und zu kontrollieren. Eine Lizenzierung ist jedoch nur bei der Ausfuhr in bestimmte Länder erforderlich, was die Möglichkeit einschränkt, die Ansammlung von Ausrüstung für nicht genehmigte große Trainingsläufe innerhalb der Vereinigten Staaten und außerhalb des Geltungsbereichs der Ausfuhrbeschränkungen zu überwachen. Unternehmen in den genannten Zielländern haben die Überwachung auch erfolgreich umgangen, indem sie KI-Systeme mit Hilfe von bei Cloud-Anbietern gemieteten Computern trainiert haben.[18] Wir empfehlen eine Ausweitung der Anforderungen an die Kundenüberprüfung auf alle Großlieferanten von Hochleistungscomputerkomponenten sowie auf Anbieter, die den Zugang zu großen Mengen an Cloud-Rechenleistung ermöglichen.

3. Einrichtung leistungsfähiger AI-Agenturen auf nationaler Ebene

Die KI entwickelt sich rasant und die Regierungen müssen aufholen. Die Einrichtung von KI-Regulierungsagenturen trägt dazu bei, das Fachwissen zu konsolidieren und das Risiko eines Flickenteppichs zu verringern.

Das Vereinigte Königreich hat bereits ein Amt für künstliche Intelligenz eingerichtet, und die EU arbeitet derzeit an einem Gesetz für einen KI-Ausschuss. In den USA hat der Abgeordnete Ted Lieu eine Gesetzgebung zur Schaffung einer überparteilichen KI-Kommission mit dem Ziel der Einrichtung einer Regulierungsbehörde angekündigt. Diese Bemühungen müssen beschleunigt, weltweit aufgegriffen und schließlich im Rahmen eines speziellen internationalen Gremiums koordiniert werden.

Wir empfehlen die Einrichtung nationaler KI-Agenturen nach einem von Anton Korinek in Brookings entwickelten Konzept[19]. Korinek schlägt vor, dass folgende Befugnisse für eine eine KI-Agentur vor:

  • Beobachtung der öffentlichen Entwicklungen im Bereich der KI und Festlegung eines Schwellenwerts dafür, welche Arten von fortgeschrittenen KI-Systemen unter die Regulierungsaufsicht der Agentur fallen (z. B. Systeme, die ein bestimmtes Maß an Rechenleistung überschreiten oder eine besonders große Gruppe von Menschen betreffen);
  • das Vorschreiben von Folgenabschätzungen von KI-Systemen für verschiedene Interessengruppen;
  • die Festlegung von Berichtspflichten für fortschrittliche KI-Unternehmen und die Prüfung der Auswirkungen auf die Rechte der Menschen, das Wohlergehen und die Gesellschaft im Allgemeinen. Bei Systemen, die in der biomedizinischen Forschung eingesetzt werden, müssten die Prüfer beispielsweise das Potenzial dieser Systeme zur Schaffung neuer Krankheitserreger bewerten;
  • die Einrichtung einer Durchsetzungsbehörde, um auf die in den Folgenabschätzungen ermittelten Risiken zu reagieren und den Missbrauch von KI-Systemen zu verhindern.
  • die Veröffentlichung allgemeiner Erkenntnisse aus den Folgenabschätzungen, damit Verbraucher, Arbeitnehmer und andere KI-Entwickler wissen, auf welche Probleme sie achten müssen. Diese Transparenz wird es auch Wissenschaftlern ermöglichen, Trends zu untersuchen und Lösungen für gemeinsame Probleme vorzuschlagen.

Über diesen Entwurf hinaus empfehlen wir auch, dass nationale Behörden auf der ganzen Welt die Aufzeichnung von KI-Sicherheitsvorfällen vorschreiben, etwa wenn ein Gesichtserkennungssystem die Verhaftung einer unschuldigen Person verursacht. Beispiele hierfür sind die gemeinnützige Datenbank für KI-Vorfälle und die künftige EU-KI-Datenbank, die im Rahmen des europäischen KI-Gesetzes geschaffen wird.[20]

4. Haftung für KI-bedingte Schäden festlegen

KI-Systeme stellen eine besondere Herausforderung bei der Haftungszuweisung dar. Im Gegensatz zu typischen kommerziellen Produkten oder herkömmlicher Software können KI-Systeme auf eine Art und Weise funktionieren, die von ihren Entwicklern nicht genau verstanden wird, sie können lernen und sich anpassen, nachdem sie verkauft wurden, und sie werden wahrscheinlich in unvorhergesehenen Kontexten eingesetzt. Die Fähigkeit von KI-Systemen, mit anderen KI-Systemen zu interagieren und von ihnen zu lernen, wird voraussichtlich das Entstehen unvorhergesehener Verhaltensweisen und Fähigkeiten beschleunigen, insbesondere da das KI-Ökosystem immer umfangreicher und vernetzter wird.

Es wurden bereits mehrere Plug-ins entwickelt, die es KI-Systemen wie ChatGPT ermöglichen, Aufgaben über andere Online-Dienste auszuführen (z. B. Essensbestellungen, Reisebuchungen, Reservierungen), wodurch das Spektrum der potenziellen realen Schäden, die sich aus ihrer Nutzung ergeben können, erweitert und die Zuweisung der Haftung weiter erschwert wird.[21] Die GPT-4-Systemkarte von OpenAI verweist auf einen Fall, in dem das System einen Menschen explizit dazu verleitet hat, ein CAPTCHA-Bot-Erkennungssystem zu umgehen, indem es TaskRabbit, einen Dienst für die Vermittlung von Freiberuflern, nutzte.[22]

Wenn solche Systeme folgenschwere Entscheidungen treffen oder Aufgaben ausführen, die einen Schaden verursachen, ist die Zuweisung der Verantwortung für diesen Schaden eine komplexe rechtliche Herausforderung. Ist die schädliche Entscheidung das Verschulden der KI-Entwickler, -Einrichter, -Eigentümer, -Endnutzer oder des KI-Systems selbst?

Eine der wichtigsten Maßnahmen, um Anreize für eine verantwortungsvolle KI-Entwicklung zu schaffen, ist ein kohärenter Haftungsrahmen, der es ermöglicht, diejenigen, die diese Systeme entwickeln und einsetzen, für die daraus resultierenden Schäden zur Verantwortung zu ziehen. Ein solcher Vorschlag sollte finanzielle Kosten für das Versäumnis vorsehen, die notwendige Sorgfalt bei der Identifizierung und Abschwächung von Risiken walten zu lassen, und die Gewinnanreize weg von der rücksichtslosen Ermächtigung schlecht verstandener Systeme hin zur Betonung der Sicherheit und des Wohlergehens von Einzelpersonen, Gemeinschaften und der Gesellschaft als Ganzes verschieben.

Um die notwendigen finanziellen Anreize für profitorientierte KI-Entwickler zu schaffen, damit sie ein hohes Maß an Vorsicht walten lassen, empfehlen wir die dringende Verabschiedung eines Rahmens für die Haftung für KI-bedingte Schäden. Zumindest sollte dieser Rahmen die Entwickler von KI-Systemen für allgemeine Zwecke und von KI-Systemen, die wahrscheinlich für kritische Funktionen eingesetzt werden[23] für die daraus resultierenden Schäden für Einzelpersonen, Eigentum, Gemeinschaften und die Gesellschaft strikt haftbar machen. Er sollte auch eine gesamtschuldnerische Haftung von Entwicklern und nachgeschalteten Anwendern zulassen, wenn der Einsatz eines KI-Systems, der ausdrücklich oder stillschweigend vom Entwickler genehmigt wurde, zu Schäden führt.

5. Einführung von Maßnahmen zur Verhinderung und Verfolgung von KI-Modelllecks

Kommerzielle Akteure haben möglicherweise nicht genügend Anreize, ihre Modelle zu schützen, und ihre Maßnahmen zur Cyberabwehr sind oft unzureichend. Anfang März 2023 bewies Meta, dass dies kein theoretisches Problem ist, als sein als LLaMa bekanntes Modell im Internet geleakt wurde.[24] Zum Zeitpunkt dieser Veröffentlichung konnte Meta noch nicht feststellen, wer das Modell weitergegeben hat. Dieses Leck im Labor ermöglichte es jedem, das Modell zu kopieren, und stellte das erste Mal dar, dass das große Sprachmodell eines großen Technologieunternehmens mit eingeschränktem Zugang an die Öffentlichkeit gelangte.

Die Kennzeichnung von KI-Modellen mit Wasserzeichen bietet einen wirksamen Schutz vor Diebstahl, unrechtmäßiger Weitergabe und unbefugter Anwendung, da diese Praxis rechtliche Schritte gegen identifizierbare Verräter ermöglicht. Viele digitale Medien sind bereits durch Wasserzeichen geschützt – zum Beispiel durch die Einbettung von Firmenlogos in Bilder oder Videos. Ein ähnlicher Prozess[25] kann auf fortgeschrittene KI-Modelle angewandt werden, entweder durch das Einfügen von Informationen direkt in die Modellparameter oder durch das Training mit bestimmten Triggerdaten.

Wir empfehlen, dass die Regierungen Wasserzeichen für KI-Modelle vorschreiben, was es den KI-Entwicklern erleichtern wird, gegen die unrechtmäßige Verbreitung vorzugehen.

6. Ausweitung der Finanzierung der technischen AI-Sicherheitsforschung

Der Privatsektor investiert zu wenig in die Forschung, um die Sicherheit von KI-Systemen zu gewährleisten. Trotz privater Investitionen in Höhe von fast 100 Mrd. USD allein im Jahr 2022 arbeiten weltweit schätzungsweise nur etwa 100 Vollzeitforscher speziell an der Gewährleistung der Sicherheit von KI sowie daran, dass sie mit den menschlichen Werten und Absichten in Einklang gebracht wird.[26]

In den letzten Monaten haben Unternehmen, die die leistungsfähigsten KI-Systeme entwickeln, ihre jeweiligen Teams für »verantwortungsvolle KI« entweder verkleinert oder ganz abgeschafft.[27] Dies spiegelt zwar zum Teil einen allgemeinen Trend zu Massenentlassungen im Technologiesektor wider, zeigt aber auch, dass Sicherheits- und Ethiküberlegungen im Wettlauf um die Markteinführung neuer Systeme relativ wenig Priorität haben.

Auch Regierungen haben in die KI-Sicherheits- und Ethikforschung investiert, aber diese Investitionen konzentrierten sich in erster Linie auf eng begrenzte Anwendungen und nicht auf die Auswirkungen allgemeinerer KI-Systeme, wie sie in letzter Zeit vom privaten Sektor auf den Markt gebracht wurden. Die US-amerikanische National Science Foundation (NSF) hat beispielsweise »KI-Forschungsinstitute« für ein breites Spektrum von Disziplinen eingerichtet. Keines dieser Institute befasst sich jedoch speziell mit den groß angelegten, gesellschaftlichen oder aggregierten Risiken, die von leistungsstarken KI-Systemen ausgehen.

Um sicherzustellen, dass unsere Fähigkeit, KI-Systeme zu kontrollieren, mit dem wachsenden Risiko, das von ihnen ausgeht, Schritt hält, empfehlen wir eine deutliche Aufstockung der öffentlichen Mittel für die technische KI-Sicherheitsforschung in den folgenden Forschungsbereichen:

  • Ausrichtung: Entwicklung technischer Mechanismen, die sicherstellen, dass KI-Systeme in Übereinstimmung mit den beabsichtigten Erwartungen, Absichten und Werten lernen und arbeiten.
  • Robustheit und Sicherheit: Entwurfsmerkmale, die sicherstellen, dass KI-Systeme, die für kritische Funktionen[28] zuständig sind, unter unerwarteten Umständen zuverlässig arbeiten und dass ihre Leistung von ihren Betreibern bewertet werden kann.
  • Erklärbarkeit und Interpretierbarkeit: Entwicklung von Mechanismen für undurchsichtige Modelle, um die interne Logik, die zur Erzeugung von Ergebnissen oder für Entscheidungen verwendet wird, verständlich darzustellen. Besser erklärbare und interpretierbare KI-Systeme erleichtern eine bessere Beurteilung, ob den Ergebnissen vertraut werden kann.

In den letzten Monaten haben Experten wie der ehemalige Sonderberater des britischen Premierministers für Wissenschaft und Technologie James W. Phillips[29] und eine vom Kongress eingerichtete Taskforce in den USA die Einrichtung nationaler KI-Labore als »gemeinsame Forschungsinfrastruktur, die KI-Forschern und -Studenten einen deutlich erweiterten Zugang zu Rechenressourcen, hochwertigen Daten, Lehrmitteln und Anwenderunterstützung bieten könne« gefordert.[30] Sollten die Regierungen dieses Konzept weiterverfolgen, schlagen wir vor, dass mindestens 25 % der von diesen Laboren zur Verfügung gestellten Mittel ausdrücklich für technische KI-Sicherheitsprojekte verwendet werden.

7. Entwicklung von Standards für die Identifizierung und Verwaltung von KI-generierten Inhalten und Empfehlungen

Die Notwendigkeit, reale von synthetischen Medien und faktische Inhalte von »Halluzinationen« zu unterscheiden, ist wesentlich für die Aufrechterhaltung der gemeinsamen faktischen Grundlagen, die den sozialen Zusammenhalt untermauern. Die Fortschritte in der generativen KI haben es schwieriger gemacht, zwischen KI-generierten Medien und echten Bildern, Audio- und Videoaufnahmen zu unterscheiden. Wir haben bereits erlebt, dass KI-generierte Sprachtechnologie bei Finanzbetrügereien eingesetzt wurde.[31]

Die Entwickler der leistungsstärksten KI-Systeme haben eingeräumt, dass diese Systeme überzeugende Textantworten produzieren können, die auf völlig erfundenen oder aus dem Zusammenhang gerissenen Informationen beruhen.[32] Damit die Gesellschaft diese neuen Technologien annehmen kann, brauchen wir wirksame Instrumente, die es der Öffentlichkeit ermöglichen, die Authentizität und den Wahrheitsgehalt der von ihr konsumierten Inhalte zu bewerten.

Wir empfehlen eine Aufstockung der Mittel für die Erforschung von Techniken und die Entwicklung von Normen für die Herkunftssicherung digitaler Inhalte. Diese Forschung und die damit verbundenen Standards sollten sicherstellen, dass eine vernünftige Person feststellen kann, ob online veröffentlichte Inhalte synthetischen oder natürlichen Ursprungs sind und ob die Inhalte digital verändert wurden, und zwar in einer Weise, die die Privatsphäre und die Ausdrucksrechte ihres Urhebers schützt.

Wir empfehlen auch die Ausweitung von »Bot-or-not«-Gesetzen, die eine Offenlegung verlangen, wenn eine Person mit einem Chatbot interagiert. Diese Gesetze helfen zu verhindern, dass Nutzer von KI-Systemen, die sich als Menschen ausgeben, getäuscht oder manipuliert werden, und erleichtern es, die Quelle der Informationen zu kontextualisieren. Der Entwurf des EU-KI-Gesetzes schreibt vor, dass KI-Systeme so gestaltet sein müssen, dass die Nutzer darüber informiert werden, dass sie mit einem KI-System interagieren[33] und der US-Bundesstaat Kalifornien hat 2019 ein ähnliches Gesetz zur Offenlegung von Bots erlassen.[34] Fast alle Staaten der Welt haben durch die Verabschiedung eines UNESCO-Abkommens über die Ethik der KI[35] »das Recht der Nutzer anerkannt, leicht zu erkennen, ob sie mit einem Lebewesen oder mit einem KI-System interagieren, das menschliche oder tierische Eigenschaften imitiert«. Wir empfehlen allen Regierungen, diese Vereinbarung in geltendes Recht umzuwandeln, um betrügerische Darstellungen natürlicher Personen durch KI zu verhindern.

Selbst wenn ein Benutzer weiß, dass er mit einem KI-System interagiert, weiß er möglicherweise nicht, wenn dieses System die Interessen des Entwicklers oder des Anbieters über die des Benutzers stellt. Diese Systeme können den Anschein erwecken, dass sie im Interesse des Nutzers handeln, könnten aber auch für andere Zwecke entwickelt oder eingesetzt werden. Der Entwickler eines universellen KI-Systems könnte beispielsweise einen finanziellen Anreiz haben, das System so zu gestalten, dass es bei der Frage nach einem Produkt bevorzugt eine bestimmte Marke empfiehlt, bei der Frage nach einer Flugbuchung subtil eine bestimmte Fluggesellschaft bevorzugt, bei der Frage nach Nachrichten nur Medien liefert, die bestimmte Standpunkte vertreten, und bei der Frage nach medizinischem Rat Diagnosen bevorzugt, die mit profitableren Medikamenten behandelt werden.

Diese Voreingenommenheiten könnten in vielen Fällen auf Kosten des geistigen, körperlichen oder finanziellen Wohlbefindens des Endverbrauchers gehen.

In vielen Ländern müssen gesponserte Inhalte klar gekennzeichnet werden. Da die Herkunft der Ergebnisse von komplexen KI-Systemen für allgemeine Zwecke jedoch äußerst undurchsichtig ist, gelten diese Gesetze möglicherweise nicht. Wir empfehlen daher zumindest, dass Interessenkonflikte den Endnutzern zusammen mit den betroffenen Ergebnissen klar mitgeteilt werden sollten. Idealerweise sollten Gesetze und Industriestandards eingeführt werden, die vorschreiben, dass KI-Systeme so entwickelt und eingesetzt werden müssen, dass die Interessen der Endnutzer Vorrang haben.

Schließlich empfehlen wir die Schaffung von Gesetzen und Industriestandards zur Klärung und Erfüllung der »Loyalitätspflicht« und »Sorgfaltspflicht«, wenn KI anstelle eines menschlichen Treuhänders oder zu dessen Unterstützung eingesetzt wird. In einigen Fällen – z. B. bei der Finanz- und Rechtsberatung – sind menschliche Akteure gesetzlich verpflichtet, im besten Interesse ihrer Kunden zu handeln und die gebotene Sorgfalt walten zu lassen, um schädliche Folgen zu minimieren. KI-Systeme werden zunehmend eingesetzt, um bei dieser Art von Entscheidungen zu beraten oder sie (z. B. beim Aktienhandel) unabhängig von menschlichen Eingaben zu treffen. Entsprechende Gesetze und Normen sollten vorschreiben, dass, wenn ein KI-System zur Entscheidungsfindung eines Treuhänders beitragen soll, dieser in der Lage sein muss, zweifelsfrei nachzuweisen, dass das KI-System Loyalitäts- und Sorgfaltspflichten einhält, die mit denen eines Menschen vergleichbar sind. Andernfalls sollte jeder Verstoß gegen diese treuhänderischen Pflichten dem menschlichen Treuhänder, der das KI-System einsetzt, angelastet werden.

Fazit

Die neue Generation fortschrittlicher KI-Systeme ist insofern einzigartig, als sie erhebliche, gut dokumentierte Risiken birgt, aber auch risikoreiche Fähigkeiten und Verzerrungen aufweisen kann, die nicht sofort erkennbar sind. Mit anderen Worten: Diese Systeme können auf eine Weise funktionieren, die ihre Entwickler nicht vorhergesehen haben, oder in einem anderen Kontext nicht richtig funktionieren. Ohne angemessene Sicherheitsvorkehrungen können diese Risiken sowohl kurz- als auch längerfristig erheblichen Schaden für Einzelpersonen, Gemeinschaften und die Gesellschaft anrichten.

In der Vergangenheit haben Regierungen kritische Maßnahmen zur Risikominderung ergriffen, wenn sie mit neuen Technologien konfrontiert wurden, die bei falscher Handhabung erheblichen Schaden anrichten könnten. Nationen auf der ganzen Welt haben sowohl strenge Vorschriften als auch einen internationalen Konsens angewandt, um den Einsatz und die Entwicklung biologischer Waffen zu verbieten, die Anwendung von Gentechnik auf den Menschen zu stoppen und eine solide staatliche Aufsicht für die Markteinführung neuer Medikamente zu schaffen. All diese Bemühungen erforderten rasches Handeln, um das Entwicklungstempo zumindest vorübergehend zu verlangsamen und Institutionen zu schaffen, die eine wirksame, der Technologie angemessene Steuerung ermöglichen. Das Ergebnis ist, dass die Menschheit heute viel sicherer ist.

Wir glauben, dass Ansätze für Fortschritte in der KI-Forschung und -Entwicklung, die die Sicherheit wahren und der Gesellschaft zugute kommen, möglich sind, aber ein entschlossenes, sofortiges Handeln der politischen Entscheidungsträger erfordern, damit das Tempo der technologischen Entwicklung nicht das Tempo einer vorsichtigen Aufsicht übersteigt. Eine Pause bei der Entwicklung der KI ist notwendig, um die Instrumente der Politik für eine vernünftige Risikominderung zu mobilisieren. Wir sind uns bewusst, dass die Empfehlungen dieses Dossiers innerhalb eines Zeitfensters von sechs Monaten nicht vollständig umsetzbar sind, aber eine solche Pause würde das sich bewegende Ziel aufhalten und den politischen Entscheidungsträgern Zeit geben, die Grundlagen für eine gute KI-Governance zu schaffen.

Der Weg in die Zukunft erfordert koordinierte Anstrengungen der Zivilgesellschaft, der Regierungen, der Wissenschaft, der Industrie und der Öffentlichkeit. Wenn dies gelingt, könnte uns eine blühende Zukunft bevorstehen, in der verantwortungsvoll entwickelte KI zum Wohle der gesamten Menschheit genutzt werden kann.


Hinweis: Das Dossier wurde vom Future of Life Institute veröffentlicht, das dazu aufruft, sich der Forderung nach einem Memorandum anzuschließen. Kontaktdresse: policy@futureoflife.org.


Verwandte Beiträge: Der Inkarnation Ahrimans entgegen – 1 | Der Inkarnation Ahrimans entgegen – 2 | Der Inkarnation Ahrimans entgegen – 3 | Der Inkarnation Ahrimans entgegen – 4 | Der alten Götter Wiederkehr | Kommission zur Aufarbeitung der Corona-Pandemie | Nie wieder ist jetzt überallDer Corona-Staat | Mit dem Finger zeigen | »One Health« als trojanisches Pferd | Wem dient »One Health«? | »One Health« – eine totalitäre Vision? | Die Aufarbeitung der Corona-Vergangenheit | Pandemiepolitik – Transhumanismus – Große Transformation | Was ist Wahrheit? | Wider das Vergessen | Fortschrittsmodell Entmenschlichung | Enthemmung der Sprache. Philologische Notizen | Über den Zerfall der Zivilisation | Die fünf Schritte zur Entmenschlichung | Die unheilige Trinität der sozialen Kontrolle | Der Winter naht | Die Goldstein-Fragmente. Krieg ist Frieden | Die Goldstein-Fragmente – Unwissenheit ist Stärke | Rassentrennung und Impfapartheid | Der medizinische Wohlfahrtsstaat des Nationalsozialismus | Die neuen Puritaner und ihre totalitäre Ideologie | Die vier neuen Hauptrassen | Die Wurzeln des Übels • Paradigmen des Hygienefaschismus | Das Wahrheitsministerium in Aktion | Rassismus eine Konsequenz des Hygienestaats | Staatsmacht und Massenhysterie in Coronazeiten | Das Corona-Regime und seine historischen Parallelen | Wem gehört der Leib? Nachdenken über das Gesundheitsregime | Wer kontrolliert die Gesundheits-Regime? | Auf dem Weg in eine Hygiene-Diktatur?


Anmerkungen:

  1. Siehe z. B. Steve Rathje, Jay J. Van Bavel & Sander van der Linden, Out-group animosity drives engagement on social media, Proceedings of the National Academy of Sciences, 118 (26) e2024292118, Jun. 23, 2021, und Tiffany Hsu & Stuart A. Thompson, Disinformation Researchers Raise Alarms About A.I. Chatbots, The New York Times, Feb. 8, 2023 [aktualisiert. 13. Februar 2023]
  2. Siehe z. B. Abid, A., Farooqi, M. und Zou, J. (2021a), Large language models associate Muslims with violence, Nature Machine Intelligence, Vol. 3, S. 461-463.
  3. In einer Umfrage aus dem Jahr 2022 unter mehr als 700 führenden KI-Experten gab fast die Hälfte der Befragten an, dass die langfristigen Auswirkungen fortgeschrittener KI auf die Menschheit »extrem schlecht« seien und »das Aussterben der Menschheit oder eine ähnlich dauerhafte und schwerwiegende Entmachtung der menschlichen Spezies verursachen« würden.
  4. Future of Life Institute, Pause Giant AI Experiments: Ein offener Brief, 22. März 2023.
  5. Jüngste Nachrichten über KI-Labore, die Ethik-Teams abbauen, deuten darauf hin, dass die Unternehmen es versäumen, den notwendigen Schutzmaßnahmen Priorität einzuräumen.
  6. Das Future of Life Institute hat den Begriff »universelles KI-System« so definiert, dass es »ein KI-System ist, das eine Reihe verschiedener Aufgaben erfüllen oder an diese angepasst werden kann, einschließlich solcher, für die es nicht absichtlich und speziell trainiert wurde«.
  7. Samuel R. Bowman, Eight Things to Know about Large Language Models, ArXiv Preprint, 2. April 2023.
  8. Vorschlag für ein EU-Gesetz über künstliche Intelligenz, Artikel 43.1b.
  9. National Institute of Standards and Technology, Artificial Intelligence Risk Management Framework (AI RMF 1.0), U.S. Department of Commerce, Jan. 2023.
  10. Internationale Normungsgremien wie IEC, ISO und ITU können auch bei der Entwicklung von Normen helfen, die sich mit den Risiken fortschrittlicher KI-Systeme befassen, wie sie in Reaktion auf die Forderung des FLI nach einem Moratorium betont haben.
  11. Siehe z.B. den Ansatz Holistic Evaluation of Language Models des Center for Research on Foundation Models: Rishi Bommassani, Percy Liang, & Tony Lee, Language Models are Changing AI: The Need for Holistic Evaluation.
  12. OpenAI beschreibt die Risiken der militärischen Nutzung von GPT-4 auf S. 12 der »GPT-4 System Card«.
  13. Siehe z. B. den folgenden Benchmark für die Bewertung negativer Verhaltensweisen, einschließlich Machtstreben, Disutilität und ethischer Verstöße: Alexander Pan, et al., Do the Rewards Justify the Means? Measuring Trade-offs Between Rewards and Ethical Behavior in the MACHIAVELLI Benchmark, ArXiv Preprint, Apr. 6, 2023.
  14. Jess Whittlestone et al., Future of compute review – submission of evidence, Aug. 8, 2022.
  15. Ein detaillierter Vorschlag für eine staatliche Computerüberwachung, der vom Centre for Long-Term Resilience und mehreren Mitarbeitern des KI-Labors Anthropic ausgearbeitet wurde, findet sich in Fn. 14.
  16. Yonadav Shavit von der Harvard University hat ein detailliertes System vorgeschlagen, wie Regierungen festlegen können, wie und wann KI-Systeme trainiert werden.
  17. Bureau of Industry and Security, Department of Commerce, Implementation of Additional Export Controls: Certain Advanced Computing and Semiconductor Manufacturing Items; Supercomputer and Semiconductor End Use; Entity List Modification, Federal Register, 14. Oktober 2022.
  18. Eleanor Olcott, Qianer Liu, & Demetri Sevastopulo, Chinese AI groups use cloud services to evade US chip export control, Financial Times, Mar. 9, 2023.
  19. Anton Korinek, Why we need a new agency to regulate advanced artificial intelligence: Lessons on AI control from the Facebook Files, Brookings, 8. Dezember 2021.
  20. Vorschlag für ein EU-Gesetz über künstliche Intelligenz, Artikel 60.
  21. Will Knight & Khari Johnson, Now That ChatGPT is Plugged In, Things Could Get Weird, Wired, Mar. 28, 2023.
  22. OpenAI, »GPT-4 Systemkarte«, 23. März 2023, S. 15.
  23. D.h. Funktionen, die das Wohlergehen oder die Rechte von Einzelpersonen, Gemeinschaften oder der Gesellschaft wesentlich beeinflussen könnten.
  24. Joseph Cox, Facebook’s Powerful Large Language Model Leaks Online, VICE, 7. März 2023.
  25. Einen systematischen Überblick darüber, wie Wasserzeichen auf KI-Modelle angewendet werden können, finden Sie in: Franziska Boenisch, A Systematic Review on Model Watermarking of Neural Networks, Front. Big Data, Sec. Cybersecurity & Privacy, Vol. 4, Nov. 29, 2021.
  26. Diese Zahl, die aus The AI Arms Race is Changing Everything (Andrew R. Chow & Billy Perrigo, TIME, 16. Februar 2023 [aktualisiert am 17. Februar 2023]) stammt, stellt wahrscheinlich eine Untergrenze für die geschätzte Zahl der KI-Sicherheitsforscher dar. Diese Quelle geht von einer wesentlich höheren Zahl von Arbeitnehmern im Bereich der KI-Sicherheit aus, bezieht aber in ihre Schätzung alle Arbeitnehmer ein, die mit Organisationen verbunden sind, die sich mit KI-Sicherheitsaktivitäten befassen. Selbst wenn ein Arbeitnehmer nicht in die KI-Sicherheitsarbeit einer Organisation oder in die Forschungsbemühungen im Allgemeinen involviert ist, kann er dennoch in der letztgenannten Schätzung enthalten sein.
  27. Christine Criddle & Madhumita Murgia, Big tech companies cut AI ethics staff, raising safety concerns, Financial Times, 29. März 2023.
  28. Siehe Fn. 23, oben.
  29. Die ursprüngliche Forderung nach einem KI-Labor der britischen Regierung wird in diesem Artikel dargelegt.
  30. Die detaillierten Empfehlungen der Taskforce finden Sie unter: Strengthening and Democratizing the U.S. Artificial Intelligence Innovation Ecosystem: An Implementation Plan for a National Artificial Intelligence Research Resource, National Artificial Intelligence Research Resource Task Force Final Report, Jan. 2023.
  31. Pranshu Verma: Sie dachten, ihre Angehörigen würden um Hilfe rufen. Es war ein KI-Betrug. The Washington Post, 5. März 2023.
  32. Tiffany Hsu & Stuart A. Thompson, Disinformation Researchers Raise Alarms About A.I. Chatbots, The New York Times, 8. Februar 2023 [aktualisiert am 13. Februar 2023].
  33. Vorschlag für ein EU-Gesetz über künstliche Intelligenz, Artikel 52.
  34. SB 1001 (Hertzberg, Ch. 892, Stats. 2018).
  35. Empfehlung 125, Ergebnisdokument: Erster Entwurf der Empfehlung zur Ethik der Künstlichen Intelligenz, UNESCO, 7. September 2020, S. 21.

Seit 18 Jahren veröffentlicht der anthroblog Beiträge zur Anthroposophie und Zeitsymptomen. Unabhängig und unbeeinflusst von Institutionen. Er ist auf Ihre Unterstützung angewiesen.



Oder durch eine Banküberweisung an: Lorenzo Ravagli, GLS Bank Bochum, IBAN: DE18 4306 0967 8212 0494 00 / BIC: GENODEM1GLS.


Ich will zwei- bis dreimal im Jahr durch den Newsletter über neue Beiträge im anthroblog informiert werden!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert