Die KI-Debatte: Prof. Urs Gasser zur Forderung eines Moratoriums für die KI-Entwicklung

In einem kürzlich veröffentlichten Artikel von Prof. Urs Gasser, Experte für Künstliche Intelligenz, geht er auf den offenen Brief ein, der ein Moratorium für die Entwicklung von KI-Systemen fordert. Gasser argumentiert, dass wir uns bereits jetzt mit Problemen auseinandersetzen sollten, die von KI-Systemen verursacht werden, und verweist auf eine Reihe von Regulierungsinstrumenten, die bereits verfügbar sind. Hier sind die ausgewählten Zitate aus seinem Artikel, die ich nicht gekürzt habe:

„Richtig ist, dass heute wohl niemand weiß, wie man extrem leistungsfähige KI-Systeme so trainieren kann, dass sie in jedem Fall zuverlässig, hilfreich, ehrlich und harmlos sind.“

Gasser merkt an, dass es schwierig ist, KI-Systeme so zu trainieren, dass sie immer zuverlässig und harmlos sind. Dennoch betont er im Folgenden einige Aspekte, die von der Debatte um das Moratorium ablenken:

„Erstens malt der offene Brief erneut das Schreckgespenst einer menschenähnlichen Künstlichen Intelligenz an die Wand, einer sogenannten Artificial General Intelligence. Das lenkt von einer ausgewogenen Diskussion der Risiken und Chancen derjenigen Technologien ab, die derzeit auf den Markt kommen. Zweitens bezieht sich das Papier dann auf zukünftige Nachfolgemodelle von GPT-4. Das lenkt davon ab, dass uns schon der Vorgänger ChatGPT vor wesentliche Probleme stellt, die wir dringend angehen sollten – beispielsweise Falschinformationen oder Vorurteile, welche die Maschinen replizieren und groß skalieren. Und drittens lenkt die spektakuläre Forderung davon ab, dass wir bereits jetzt Instrumente zur Hand haben, mit denen wir die Entwicklung und den Einsatz von KI regulieren können.“

Er erwähnt die bereits vorhandenen Regulierungsinstrumente und betont deren Bedeutung:

„Namentlich die OECD-Grundsätze zu Künstlicher Intelligenz verbinden ethische Prinzipien mit mehr als 400 konkreten Werkzeugen. Auch die US-Standardisierungsbehörde NIST hat eine 70-seitige Richtlinie erlassen, wie Verzerrungen in KI-System entdeckt und bearbeitet werden können. Im Bereich Sicherheit von großen KI-Modellen sehen wir neue Methoden wie „Constitutional AI“, mit der ein KI-System vom Menschen Prinzipien des guten Verhaltens „lernt“ und dann die Ergebnisse einer anderen KI-Anwendung überwachen kann. Gerade bei Sicherheit, Transparenz und Datenschutz gibt es inzwischen große Fortschritte und sogar spezialisierte Prüfunternehmen.“

Gasser bezieht sich hier auf die „OECD-Grundsätze zu Künstlicher Intelligenz“, die von der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) entwickelt wurden. Diese Grundsätze sollen dazu beitragen, dass Künstliche Intelligenz (KI) vertrauenswürdig und menschenzentriert ist. Die Grundsätze enthalten eine Reihe von Empfehlungen für die Entwicklung und Nutzung von KI-Systemen, die darauf abzielen, das Wohl der Menschen zu fördern und den Schutz ihrer Rechte und Werte zu gewährleisten.

Die 400 konkreten Werkzeuge, auf die Gasser sich bezieht, sind Teil des „AI Policy Observatory“ der OECD, einer Plattform, die Informationen und Ressourcen zur KI-Politik bereitstellt. Das Observatorium umfasst Best-Practice-Beispiele, Leitlinien, Fallstudien und andere Werkzeuge, die von OECD-Mitgliedsstaaten und anderen Organisationen entwickelt wurden, um die Umsetzung der OECD-Grundsätze für Künstliche Intelligenz zu unterstützen.

Die OECD-Grundsätze zu Künstlicher Intelligenz können hier gefunden werden: https://www.oecd.org/de/kuenstliche-intelligenz/oecd-prinzipien-kuenstliche-intelligenz/

Der Link oben stimmt nicht. Den hat ChatGPT erfunden, wahrscheinlich weil das System übersetzt hat. Hier ist der richtige Link (PDF)

Das AI Policy Observatory der OECD ist unter folgendem Link zu finden: https://oecd.ai/

Die oben gelb markierte Stelle hat mir ChatGPT nachträglich geliefert, nachdem ich folgende Nachfrage gestellt habe: «Gasser erwähnt 400 konkrete Werkzeuge. Ich zitiere noch einmal: „Namentlich die OECD-Grundsätze zu Künstlicher Intelligenz verbinden ethische Prinzipien mit mehr als 400 konkreten Werkzeugen“. Hast Du eine Idee, worauf er sich hier bezieht? Idealerweise einen Link?»
PS: Cornelia wusste es auch 🙂 !

Gasser argumentiert, dass wir uns auf zwei Dinge konzentrieren sollten:

„Aus der Technikgeschichte wissen wir, dass der „gute“ oder „schlechte“ Einsatz von Technologien schwer voraussehbar ist, ja dass Technologien oft beides mit sich bringen und Negatives auch unbeabsichtigt sein kann. Statt auf einen bestimmten Zeitpunkt der Prognose abzustellen, braucht es zwei Dinge: Erstens, müssen wir uns fragen, welche Anwendungen wir gesellschaftlich nicht wollen, selbst wenn sie möglich wären. Hier braucht es klare rote Linien und Verbote. Ich denke an autonome Waffensysteme als Beispiel. Zweitens brauchen wir von der Entwicklung bis hin zur Nutzung ein flächendeckendes Risikomanagement, wobei die Anforderungen daran steigen, je größer die potenziellen Risiken einer Anwendung für Mensch und Umwelt sind. Diesem Ansatz folgt zu Recht auch der europäische Gesetzgeber.“

Gasser zeigt auf, wie der europäische Gesetzgeber diesen Ansatz verfolgt:

„Der Entwurf sieht die Einstufung von KI-Technologien nach ihrem Risiko für diese Prinzipien vor, mit der möglichen Konsequenz von Verboten oder Transparenzpflichten. Geplant ist zum Beispiel das Verbot, Privatpersonen in ihrem Sozialverhalten zu bewerten, wie wir es aus China kennen. In den USA ist der politische Prozess im Kongress auf diesem Gebiet blockiert. Es wäre hilfreich, wenn sich die prominenten Brief-Autor:innen dafür einsetzen, dass der US-Gesetzgeber auf Bundesebene ähnlich aktiv wird, statt zu fordern, die Technologieentwicklung vorübergehend zu stoppen.“

Abschließend unterstreicht Gasser die Notwendigkeit, dass sich Entscheidungsträger auf eine sinnvolle Regulierung konzentrieren, anstatt die Entwicklung von KI-Systemen zu stoppen. Es ist wichtig, dass wir uns auf die aktuellen Herausforderungen konzentrieren, die von KI-Systemen ausgehen, und nachhaltige Lösungen entwickeln, die sowohl Chancen als auch Risiken berücksichtigen.

Dieser Beitrag wurde mit Hilfe von ChatGPT verfasst. Die verwendeten Zitate wurden allerdings von mir persönlich ausgewählt.

Kommentare

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert