Weiter mit Tracking durch Dritte

Besuchen Sie unsere Website mit externen Inhalten, personalisierter Werbung und Werbetracking durch Dritte. Details und Informationen zu Cookies, Verarbeitungszwecken sowie Ihrer jederzeitigen Widerrufsmöglichkeit finden Sie in der Datenschutzerklärung und in den Privatsphäre-Einstellungen.

Weiter mit dem PUR-Abo

Nutzen Sie unser Angebot ohne Werbetracking durch Dritte für 4,99 Euro/Monat. Kunden mit einem bestehenden Abo (Tageszeitung, e-Paper oder PLUS) zahlen nur 0,99 Euro/Monat. Informationen zur Datenverarbeitung im Rahmen des PUR-Abos finden Sie in der Datenschutzerklärung.

Zum Angebot Bereits PUR-Abonnent? Hier anmelden

Einwilligung: Durch das Klicken des "Akzeptieren und weiter"-Buttons stimmen Sie der Verarbeitung der auf Ihrem Gerät bzw. Ihrer Endeinrichtung gespeicherten Daten wie z.B. persönlichen Identifikatoren oder IP-Adressen für die beschriebenen Verarbeitungszwecke gem. § 25 Abs. 1 TTDSG sowie Art. 6 Abs. 1 lit. a DSGVO durch uns und unsere bis zu 220 Partner zu. Darüber hinaus nehmen Sie Kenntnis davon, dass mit ihrer Einwilligung ihre Daten auch in Staaten außerhalb der EU mit einem niedrigeren Datenschutz-Niveau verarbeitet werden können.

Tracking durch Dritte: Zur Finanzierung unseres journalistischen Angebots spielen wir Ihnen Werbung aus, die von Drittanbietern kommt. Zu diesem Zweck setzen diese Dienste Tracking-Technologien ein. Hierbei werden auf Ihrem Gerät Cookies gespeichert und ausgelesen oder Informationen wie die Gerätekennung abgerufen, um Anzeigen und Inhalte über verschiedene Websites hinweg basierend auf einem Profil und der Nutzungshistorie personalisiert auszuspielen.

Externe Inhalte: Zur Ergänzung unserer redaktionellen Texte, nutzen wir in unseren Angeboten externe Inhalte und Dienste Dritter („Embeds“) wie interaktive Grafiken, Videos oder Podcasts. Die Anbieter, von denen wir diese externen Inhalten und Dienste beziehen, können ggf. Informationen auf Ihrem Gerät speichern oder abrufen und Ihre personenbezogenen Daten erheben und verarbeiten.

Verarbeitungszwecke: Personalisierte Werbung mit Profilbildung, externe Inhalte anzeigen, Optimierung des Angebots (Nutzungsanalyse, Marktforschung, A/B-Testing, Inhaltsempfehlungen), technisch erforderliche Cookies oder vergleichbare Technologien. Die Verarbeitungszwecke für unsere Partner sind insbesondere:
Informationen auf einem Gerät speichern und/oder abrufen

Für die Ihnen angezeigten Verarbeitungszwecke können Cookies, Gerätekennungen oder andere Informationen auf Ihrem Gerät gespeichert oder abgerufen werden.

Personalisierte Anzeigen und Inhalte, Anzeigen und Inhaltsmessungen, Erkenntnisse über Zielgruppen und Produktentwicklungen

Anzeigen und Inhalte können basierend auf einem Profil personalisiert werden. Es können mehr Daten hinzugefügt werden, um Anzeigen und Inhalte besser zu personalisieren. Die Performance von Anzeigen und Inhalten kann gemessen werden. Erkenntnisse über Zielgruppen, die die Anzeigen und Inhalte betrachtet haben, können abgeleitet werden. Daten können verwendet werden, um Benutzerfreundlichkeit, Systeme und Software aufzubauen oder zu verbessern.

▌▉▍▉▉▍▉▌▌▉▍▉▌ ▉▌▌▉▍▉▌▌▉▍▉▍▉▍ ;▌▉▍▉▉▍▉▌▌▉▍▉▌
  1. Startseite
  2. Politik
  3. Interview: Die Risiken der KI: "Wir brauchen eine Regulierung, die für alle Akteure gilt"

Interview
26.07.2023

Die Risiken der KI: "Wir brauchen eine Regulierung, die für alle Akteure gilt"

Künstliche Intelligenz hat in den vergangenen Monaten deutliche Fortschritte gemacht – doch sie birgt auch Risiken.
Foto: Frank Rumpenhorst, dpa

Vom Hollywood-Streik bis zur möglichen Machtübernahme der Roboter: Expertin Anka Reuel spricht über die Risiken der künstlichen Intelligenz und die Notwendigkeit von gesetzlichen Standards.

Frau Reuel, als ChatGPT auf den Markt kam, war der Enthusiasmus in der Öffentlichkeit groß. Jetzt streiken in Hollywood Drehbuchautoren und Schauspieler, weil sie Angst haben, dass künstliche Intelligenz (KI) ihre Jobs vernichtet. Sind wir gegenüber der neuen Technologie zu blauäugig gewesen?

Anka Reuel: Ich glaube, das kann man der Gesellschaft nicht vorwerfen. Die Entwicklung hat tatsächlich auch Fachleute und selbst Entwickler, die an dem System gearbeitet haben, überrascht. Fast niemand hat damit gerechnet, dass ChatGPT so einschlägt. Der Streik zeigt, dass das tatsächlich eine disruptive Technologie ist, die viele Jobs infrage stellt, von denen wir vorher geglaubt haben, dass sie von Automatisierung nicht betroffen sein werden. 

Sie arbeiten in Stanford, also im Silicon Valley. Wie ist denn die Stimmung in der Herzkammer der Tech-Industrie?

Reuel: Die Gespräche haben sich sehr verändert. Ich habe mit meiner Forschung sowohl zu technischer KI-Sicherheit als auch KI-Governance hier im vergangenen September angefangen. Wenn ich damals erwähnt habe, dass wir Schutzmaßnahmen und Regulierung brauchen, habe ich oft gehört: „Warum? Das passt schon!“. Es herrschte ein deutlich optimistischeres Gefühl. Nachdem ChatGPT auf den Markt gekommen war, hat sich das Meinungsbild auch bei uns in der Uni deutlich gewandelt. Jetzt kommen viel mehr Kolleginnen und Kollegen und sagen: „Anka, ich bin besorgt über die Risiken. Was können wir machen?“ 

Der Optimismus ist weg?

Lesen Sie dazu auch

Reuel: Jedenfalls hat sich die Debatte verschoben. Bis zu ChatGPT herrschte die Überzeugung, dass wir die Risiken mit technischen Lösungen beherrschen können. Mittlerweile wächst das Bewusstsein, dass das nicht reichen wird. Wir brauchen Regulierung, die für alle Akteure gilt. Es müssen Standards für die verantwortungsvolle Entwicklung und den verantwortungsvollen Einsatz von KI gesetzt werden. 

Wo sehen Sie die größten Gefahren der KI?

Reuel: Wir reden über eine ganze Bandbreite von Risiken, sowohl kurzfristig als auch langfristig. Schon jetzt sehen wir, dass es zu Falschaussagen durch ChatGPT und zu Diffamierungen sowie Diskriminierungen kommt. Gerade gab es Berichte über das sogenannte Swatting: Da werden Stimmen geklont und jemand meldet bei der Polizei einen Einbruch, die dann bei ahnungslosen schlafenden Menschen mit einem Swat-Team (ein Einsatzkommando) anrückt. Man muss sich mal vorstellen, was so etwas mit einem macht.

Was droht als Nächstes?

Reuel: Aktuell werden Systeme wie ChatGPT kaum bis gar nicht in der kritischen Infrastruktur eingesetzt, allerdings ist zu erwarten, dass KI zunehmend auch dort eingesetzt wird. Wenn dann Fehler passieren oder Missbrauch stattfindet, wären unter Umständen Millionen von Menschen mit sehr ernsten Konsequenzen betroffen. 

Sie sprechen von Dingen wie Stromversorgung oder Internet.

Reuel: Solche Netzwerke sind oft auch noch miteinander verbunden. Wenn da eine Komponente angegriffen wird, kann sich das schnell durch das ganze System ziehen. Selbst wenn wir sagen, wir überlassen der KI nicht die autonome Entscheidung, sondern wollen immer, dass ein Mensch dabei ist, der auf Basis von Empfehlungen der Maschine selbst entscheidet oder die Entscheidung zumindest überprüft, ist das ein Risiko. Je komplexer eine Situation ist, desto schwieriger ist es für den Menschen, zu entscheiden. Im Zweifelsfall folgt er dann einfach der Maschine, ohne selbst zu reflektieren, ob der Vorschlag sinnvoll ist. 

Der Roboter übernimmt dann faktisch die Macht?

Reuel: Es können jedenfalls gefährliche Situationen entstehen, in denen wir eine halb autonome KI einsetzen, die quasi dadurch ganz autonom wird, dass der Mensch seine Einwirkungsmöglichkeit freiwillig abgibt. 

Sie treten dafür ein, dass das Regelwerk für die KI global koordiniert wird. Das klingt logisch. Aber ist es realistisch?

Reuel: Ich glaube, dass wir gerade ein Zeitfenster haben, wo das Thema sehr viel Aufmerksamkeit erfährt und der Druck auf die einzelnen Regierungen wächst, sich mit dem Thema zu beschäftigen. Natürlich sehe ich die Schwierigkeiten: Es gibt viele verschiedene Interessengruppen, sowohl national als auch international, bei denen es schwer ist, das zusammenzubringen. Andererseits machen mir die Regulierungsanstrengungen vor allem in der EU und in China Hoffnungen: Da gibt es viele ähnliche Bausteine, die beide Regionen in ihren Regulierungen umsetzen möchten. Es gibt einen Minimalkonsens, der auch in den USA weiter vorangetrieben wird. Die konkrete Gesetzgebung wird hier wahrscheinlich anders aussehen. Aber ich glaube, dass man international tatsächlich auf einen gemeinsamen Nenner kommen kann, weil die KI-Sicherheit aufgrund von durchaus unterschiedlichen Motivationen für alle Regierungen wichtig ist. Aber zugegeben: Einfach wird das nicht.

Sehr schnell wird das jedenfalls nicht gehen. Schon gar nicht in den USA. Hier läuft gerade der Vorwahlkampf fürs Präsidentschaftsrennen im nächsten Jahr an. Droht uns eine digitale Shit-Show?

Reuel: Das muss man tatsächlich befürchten. Je nachdem, wie viele Verbesserungen es bei generativen Videomodellen gibt und wie täuschend Menschen in Fake-Videos eingebaut werden können, droht eine mächtige Desinformationskampagne von beiden Seiten. Das wird das Vertrauen in Informationen weiter untergraben. Künftig wird es signifikant mehr Zeit kosten, herauszufinden, was wahr ist und was nicht. In einem ohnehin extrem polarisierten Umfeld wird der Diskurs noch schwieriger. Das macht mir insbesondere als jemand, der vor Ort lebt, wirklich Sorgen.

Anka Reuel beschäftigt sich mit den Risiken künstlicher Intelligenz.
Foto: privat

Zur Person: Anka Reuel ist kein ängstlicher Mensch: Als Globetrotterin hat sie zahlreiche exotische Länder bereist. Doch die Risiken der künstlichen Intelligenz (KI) treiben die Informatik-Doktorandin an der amerikanischen Elite-Universität Stanford um. Gemeinsam mit dem emeritierten Neurologie-Professor und KI-Unternehmer Gary Marcus veröffentlichte sie im April einen Namensbeitrag im Magazin The Economist, in dem sie eine global koordinierte Regulierung der neuen Technologie fordert. In Deutschland gehört sie zu den Mitgründern der Denkfabrik Kira, die Industrie, Wissenschaft und Politik für einen verantwortlichen Einsatz der KI zusammenbringen will. 

Themen folgen

Die Diskussion ist geschlossen.

27.07.2023

Heute hatte ich doch einmal die KI in Anspruch genommen und das Ergebnis: depremirend (deprimierend - nicht mal das konnte sie korrigieren)