Die KI-Leitsätze von Asilomar
The Future of Life Institute ist eine ehrenamtlich geführte Forschungs- und Kontaktorganisation in der Region Boston, die sich zum Ziel gesetzt hat Forschungsinitiativen anzustoßen, um die die existenzielle Risiken der Menschheit, insbesondere das existenzielle Risiko der fortgeschrittenen künstlichen Intelligenz (KI) zu mindern.
Aktuell hat dieses Institut die KI-Leitsätze der Asilomar Konferenz veröffentlicht, einschließlich der Unterzeichner, die sich zu diesen Leitsätzen bekennen. Im Rahmen der Überlegungen über die Fortsetzung unseres Symposiums Mensch-Sein mit Algorithmen, werden diese Leitsätze zur Diskussion gestellt.
1) Forschungsziel: Das Ziel von KI-Forschung sollte lauten, keine ungerichtete, sondern nützliche und wohltätige Intelligenz zu erschaffen.
2) Forschungsgelder: Investitionen in KI sollten immer auch solcher Forschung zugutekommen, die ihre wohltätige Nutzung sichert. Dazu gehört die Betrachtung schwieriger Fragen in Bereichen der Computerwissenschaft, Wirtschaft, Rechtswissenschaft, Ethik und Sozialwissenschaft:
- Wie können wir zukünftige KI-Systeme so stabilisieren, dass sie tun, was wir wollen, ohne dass sie Fehlfunktionen bekommen oder gehackt werden?
- Wie können wir unseren Wohlstand durch Automation vergrößern und dabei die Bestimmung der Menschheit aufrechterhalten und ihre Ressourcen schützen?
- Wie können wir unser Rechtssystem fairer und effizienter gestalten, sodass es mit der KI-Entwicklung Schritt halten und auf entsprechende Risiken eingehen kann?
- Mit welchem Wertesystem sollen KIs ausgestattet werden und wie soll ihr rechtlicher und ethischer Status aussehen?
3) Verbindung von Wissenschaft und Politik: Es sollte einen konstruktiven und gesunden Austausch zwischen KI-Forschern und Entscheidungsträgern geben.
4) Forschungskultur: Zwischen KI-Forschern und -Entwicklern sollte eine Kultur aus Kooperation, Vertrauen und Transparenz gepflegt werden.
5) Vermeidung eines Wettlaufs: Teams, die an KI-Systemen arbeiten, sollten aktiv kooperieren, damit nicht an Sicherheitsstandards gespart wird.
6) Sicherheit: KI-Systeme sollten während ihrer gesamten Funktionszeit sicher sein, und dies soweit anwendbar, möglichst auch nachweislich.
7) Transparenz bei Fehlfunktionen: Falls ein KI-System Schaden anrichtet, muss es möglich sein, die Ursache ermitteln zu können.
8) Transparenz bei Rechtsprechung: Bei der Einbindung autonomer Systeme in jegliche entscheidungsfindenden Prozesse der Rechtsprechung sollten diese Prozesse nachvollziehbar und von einer kompetenten menschlichen Autorität überprüfbar sein.
9) Verantwortung: Entwickler und Ingenieure von fortgeschrittenen KIs haben sowohl die Gelegenheit als auch die Verantwortung, die moralischen Folgen von Gebrauch, Missbrauch und eigenständiger Handlungen dieser Systeme mitzubestimmen.
10) Wertausrichtung: Stark autonome KI-Systeme sollten so entwickelt werden, dass ihre Ziele und Verhaltensweisen während des Betriebs unter fester Gewissheit auf menschliche Werte ausgerichtet sind.
11) Menschliche Werte: KI-Systeme sollten so entwickelt und bedient werden, dass sie mit den Idealen der Menschenwürde, Menschenrechten, Freiheiten und kultureller Vielfalt kompatibel sind.
12) Privatsphäre: Im Hinblick auf die Fähigkeit von KIs, Daten zu analysieren und weiterzuverarbeiten, sollten Menschen das Recht haben, Zugriff auf ihre generierten Daten zu haben und in der Lage sein, sie zu verwalten und zu kontrollieren.
13) Freiheit und Privatheit: Die Anwendung von KIs auf persönliche Daten darf die tatsächlichen oder wahrgenommenen Freiheiten der Menschen nicht auf unangemessene Weise einschränken.
14) Geteilter Nutzen: KI-Technologien sollten so vielen Menschen wie möglich dienen und nutzen.
15) Geteilter Wohlstand: Der wirtschaftliche Wohlstand, der von KIs geschaffen wird, sollte breit verteilt werden, sodass er der ganzen Menschheit nutzt.
16) Menschliche Kontrolle: Wenn es um Aufgaben geht, die von Menschen erdacht worden sind, sollten Menschen bestimmen können, ob und inwiefern Entscheidungen an KI-Systeme delegiert werden können.
17) Kein Umsturz: Die Macht, die durch die Kontrolle hochentwickelter KI-Systeme gewährt wird, sollte die sozialen und bürgerlichen Prozesse, auf denen das Wohlergehen der Gesellschaft beruht, respektieren und verbessern, aber nicht untergraben.
18) KI-Wettrüsten: Ein Wettrüsten von tödlichen autonomen Waffen sollte vermieden werden.
19) Vorsicht bei der Leistungsfähigkeit: Da es hier keinen Konsens gibt, sollten wir es vermeiden starke Annahmen zu machen, wenn es um die Obergrenzen zukünftiger KI-Leistungen geht.
20) Tragweite: Fortgeschrittene KI könnte zu weitreichenden Veränderungen für das Leben auf der Erde führen und sollte deshalb mit angemessener Sorgfalt und ausreichenden Ressourcen geplant und verwaltet werden.
21) Risiken: Besonders, wenn es um existenzielle oder katastrophale Risiken geht, die von KIs ausgehen, müssen Planung und Entschärfungsmaßnahmen entsprechend dem zu erwartenden Ausmaß getroffen werden.
22) Rekursive Selbstverbesserung: KI-Systeme, die entwickelt wurden, sich selbst rekursiv zu verbessern oder zu duplizieren, sodass eine rasante Qualitäts- oder Quantitätssteigerung zu erwarten ist, müssen strengen Sicherheits- und Kontrollmaßnahmen unterliegen.
23) Allgemeinwohl: Superintelligenz sollte immer entwickelt werden, um weithin akzeptierten ethischen Idealen und der Menschheit als Ganzem zu dienen, nicht bloß einem Staat oder einer Organisation.
Bisher wurden diese Leitsätze von 1273 KI/Robotik-Forschern und 2541 weiteren Menschen unterzeichnet. Die vollständige Liste der Unterzeichner finden Sie hier.
Es macht absolut Sinn, sich mit allen Aspekten der AI/KI zu beschäftigen. Dazu müssen meines Erachtens die Werteausrichtung und Sicherheitsstandards ganz neue Dimensionen erreichen, um uns ein wertschöpfendes und ethisch fundiertes Hilfsmittel für die Zukunft an die Hand zu geben! Der AI/KI Hype, wie wir ihn zur Zeit erleben – inclusive einer häufig falschen Terminologie – darf in keinem Fall eine fundierte Betrachtung der Basis überlagern! Sehr guter Diskussionsansatz.