Der Geist, der aus der Maschine kommt
Wie man künstliche Intelligenz bändigt – und warum sie trotzdem unberechenbar bleiben wird.
Veröffentlicht am 21. Juni 2023 - 10:48 Uhr
Noch nie wurde so ultimativ auf staatliche Regeln für eine neue Technologie gedrängt. Noch nie warnten Entwickler selber vor dem Untergang der Welt
, wie wir sie heute kennen.
Verblüffende Text- und kunstfertige Bildgeneratoren sind innert Monaten in die Köpfe von uns Normalbürgern gedrungen. Täglich verführen sie uns mit unterhaltsamen, erhellenden, manchmal erfundenen Meisterstückchen. Wenn man sie einfach lässt, werden sie vieles verändern – nicht nur zum Guten.
Regeln, die KI in Schach halten, sind darum unerlässlich. Doch lassen sich Textgeneratoren wie ChatGPT oder Bard überhaupt bändigen
? Klar ist: Ihre Entwickler OpenAI und Google tun es längst. «ChatGPT ist der erste Chatbot dieser Art, der nicht innert kürzester Zeit wieder vom Netz genommen wurde. Andere versagten wegen ständiger Falschantworten oder rassistischer Ausfälligkeiten», sagt Thilo Stadelmann, Leiter des Centre for Artificial Intelligence an der ZHAW. Für ihn ist klar: Der Erfolg von ChatGPT hat entscheidend mit dem Alignment der KI zu tun – dem Anpassen der künstlichen Intelligenz an menschliche Vorlieben.
Wie funktioniert so ein Alignment?
Sprachmodelle wie ChatGPT von OpenAI oder Bard von Google werden mit gigantischen Datenmengen trainiert. Sie lernen dabei, das wahrscheinlichste nächste Wort in einem Kontext vorauszusagen. «So lernt die KI zwar etwas über Sprache, sie kann aber noch keine Konversation führen», sagt Stadelmann und zieht einen Vergleich: «Manche Menschen fühlen sich an einer Cocktailparty total verloren, weil sie Smalltalk schlicht nicht beherrschen.»
Hier kommt das Alignment ins Spiel. Dazu lässt man die KI leicht abweichende Antworten auf die gleiche Frage generieren. Mit statistischer Hilfe wird einfach die zweit- oder dritt-wahrscheinlichste Wortfolge zur Antwort. Einige Dutzend Leute müssen dann bewerten, welche Antworten die besten sind. «Dafür erhalten sie Vorgaben der Auftraggeber», sagt Stadelmann. Und die sind für eine gesellschaftliche Akzeptanz der KI entscheidend. Antworten sollen etwa nicht diskriminierend sein, und Informationen etwa über bewährte Mordmethoden sollen erst gar nicht herausgegeben werden.
Solche Vorgaben müssen die Tester berücksichtigen. OpenAI hat dafür über eine Drittfirma auch billige Klickarbeiter in Schwellenländern eingesetzt, in Afrika zum Beispiel. Für einen Stundenlohn von unter zwei Dollar bewerteten sie Antworten gemäss den Firmenvorgaben. «Unsere Werte werden heute in Kenia verteidigt», meinte dazu der deutsche Wissenschaftsjournalist Ranga Yogeshwar. Das KI-System sammelt die Bewertungen der Tester und kreiert daraus ein sogenanntes Policy-System, das mit der Zeit lernt, selbständig aus mehreren möglichen Antworten die gemäss den Vorgaben passendsten auszuspielen.
Welche Werte eine KI vertritt, ist unbeständig
Sicher ist auch eine so ausgerichtete KI aber nie. Sie kennt das ganze Internet – mit all seinen Abgründen. «Dieses Problem wird mit dem Alignment nicht im Kern angegangen», so Stadelmann. «Es wird nur eine Art Schutzschicht um die KI gelegt, die ihren Spielraum etwas einengt. Das sind keine harten Regeln. Werthaltungen werden gewissermassen in die KI hineinmassiert.» Eine Garantie, dass sie nicht doch mal heikle Informationen preisgibt oder einen frauenfeindlichen Witz erzählt, gibt es so nicht. «Witze über Männer beherrscht ChatGPT sogar ziemlich gut», schmunzelt Stadelmann. Hinter solchen Ausrutschern verbirgt sich ein kaum lösbares Problem. Wer bestimmt, mit welchen Werthaltungen eine KI nachtrainiert wird? Und wer segnet die Ergebnisse ab?
Die Autoindustrie ist schon länger mit diesem Problem konfrontiert, wenn es um KI-gesteuertes Fahren geht. Wie soll ein KI-gesteuertes Fahrzeug reagieren, wenn es bei einer unvermeidlichen Kollision entweder ein Rentnerpaar oder spielende Kinder überfahren muss? Experimente haben kulturell sehr unterschiedliche Erwartungen offenbart. In Asien, wo das Alter einen besonders hohen Stellenwert hat, wird ein anderes Verhalten erwartet als im Westen, wo Kinder eher geschützt würden. Für die Autobauer heisst das, dass sie für unterschiedliche Märkte angepasste KI-Systeme entwickeln müssen.
Trifft das auch auf Sprachmodelle wie ChatGPT zu? Erste Forschungen weisen auf eine eher linksliberale Prägung der Antworten hin. Das erstaunt nicht, denn die kalifornische Firma OpenAI dürfte auch dort vorherrschende Wertvorstellungen ins Alignment einfliessen lassen. Fragen nach kriminellem Verhalten bestimmter Ethnien werden zum Beispiel nicht beantwortet. Das wäre gemäss ChatGPT zu pauschal und diskriminierend.
Weil nicht alle die gleichen Werte teilen, dürften darum bald andere, sehr unterschiedlich geprägte KI-Sprachmodelle auf den Markt kommen. FreedomGPT oder ChaosGPT sind Sprachmodelle, die heute schon heute andere Werte in den Vordergrund stellen.
Die EU macht vorwärts
Wie können KI-Systeme vor diesem Hintergrund überhaupt reguliert werden? Die EU versucht es mit dem AI-Act. Mitte Juni hat sich das EU-Parlament auf einen Entwurf geeinigt, der unter anderem automatisierte Gesichtserkennung und Sozialkreditsysteme verbietet, wie sie in China das Verhalten von Bürgern überwachen und bewerten. Für Text- und Bildgeneratoren will die EU vor allem Transparenzvorschriften erlassen.
KI-Technologien sollen in Risikokategorien eingeteilt werden, die dann unterschiedliche Informations- und Sicherheitspflichten zur Folge haben. Auch Haftungsfragen und Einspruchsmöglichkeiten gegenüber KI-Entscheiden will die EU regeln. Der AI-Act dürfte frühestens Anfang 2024 in Kraft treten und wäre dann relevant für den Marktzutritt in der EU. Es wäre der weltweit erste Versuch, spezielle Regeln für KI-Technologien einzuführen.
Die Schweiz hat noch keine spezifischen Pläne. Man will erst die Regulierungen der EU abwarten und bewerten.
1 Kommentar
Wer garantiert, dass diese Roboter sich eines Tages nicht gegen uns richten?