Globale Best Practices für verantwortungsvolle KI-Innovation und KI-Governance-Frameworks

Angesichts des bahnbrechenden Tempos der KI-Fortentwicklung übertreffen neue Innovationen unweigerlich die Fähigkeit globaler Regierungen, den Einsatz zu regulieren. Wenn Gesetze nicht mithalten können, laufen KI-Technologien Gefahr, Grundrechte und Grundfreiheiten zu verletzen. Zu den wichtigsten Risiken gehören:
Datenschutz: KI-Systeme können riesige Mengen personenbezogener Daten verarbeiten, was Bedenken darüber weckt, wie diese Daten verwendet und geschützt werden.
Bias: KI-Algorithmen können unbeabsichtigt sich in Trainingsdaten befindlichen Bias aufrechterhalten und so „Algorithmusgefängnisse“ schaffen – Situationen, in denen Personen oder Systeme durch die von Algorithmen generierten Entscheidungen gefangen oder eingeschränkt werden, oft ohne in der Lage zu sein, diese Ergebnisse zu verstehen oder anzufechten.
Autonomie: KI-Systeme, die in Entscheidungsprozessen zum Einsatz kommen, können die individuelle Autonomie beeinträchtigen, wenn sie nicht richtig entwickelt werden.
Anstatt sich mit einem reaktiven Ansatz herumschlagen zu müssen, der fallweise auf neue Technologien eingeht, entwickeln Regierungen weltweit Frameworks für KI-Governance, die proaktiv nach Möglichkeiten suchen, diese Herausforderungen zu meistern. Dort, wo Frameworks fehlen oder noch entwickelt werden müssen, legen diese Regierungen zunächst KI-Prinzipien fest. Indem diese Frameworks grundlegende Anforderungen und Protokolle zur Unterstützung von Sicherheit, Gerechtigkeit und Transparenz von KI-Technologien festlegen, wollen sie eine Umgebung schaffen, die sichere und verantwortungsvolle KI-Innovationen fördert und gleichzeitig mit den neuesten Entwicklungen Schritt hält.
In diesem Beitrag gehen wir auf die dynamische Landschaft der KI-Governance ein und zeigen, wie verschiedene Regierungen auf der ganzen Welt diese Herausforderungen meistern.
Das KI-Gesetz der Europäischen Union setzt einen globalen Standard
Im Jahr 2018 begann die Europäische KI-Allianz den Prozess, mehr als 6.000 Stakeholder zusammenzubringen, um Ethikleitlinien festzulegen und einen öffentlichen Dialog über die globale vertrauenswürdige Verwendung aufzubauen. Nach sechs Jahren ist das EU-Gesetz zur künstlichen Intelligenz das weltweit erste umfassende Rechtsinstrument, das speziell auf das Risikomanagement mit KI-Technologien ausgerichtet ist. Es umfasst Bestimmungen, die schrittweise innerhalb von sechs bis 36 Monaten umgesetzt werden sollen.
Das KI-Gesetz betont einen Ansatz, der den Menschen in den Mittelpunkt stellt, wenn es um die Entwicklung und Bereitstellung von KI geht – ganz nach der Philosophie, dass KI kein Selbstzweck sein sollte, sondern ein Werkzeug, um das Gedeihen von Menschen zu fördern und das gesellschaftliche Wohlergehen zu fördern. Zu diesem Zweck werden mehrere Grundprinzipien festgelegt, darunter:
Verbot schädlicher KI-Praktiken: Das KI-Gesetz verbietet den Einsatz von KI-Systemen mit inakzeptablen Risiken, darunter solche, die Entscheidungen von Menschen manipulieren oder ihre Schwachstellen ausnutzen, Menschen aufgrund von sozialem Verhalten oder persönlichen Merkmalen bewerten oder kriminelle Risiken vorhersagen. Außerdem werden Systeme verboten, die ungezieltes Scraping von Gesichtsbildern nutzen, auf Emotionen am Arbeitsplatz oder in der Schule schließen oder Personen anhand biometrischer Daten kategorisieren.
Durchsetzung von Vorschriften auf Grundlage von Risikoklassifizierung: KI-Systeme mit hohem Risiko – einschließlich solcher, die als Produktsicherheitskomponenten verwendet werden und bei denen es sich selbst um Produkte handelt, die unter EU-Recht fallen – unterliegen verschärften Verpflichtungen. KI-Systeme mit begrenztem Risiko wie Chatbots unterliegen geringeren Transparenzverpflichtungen, während Systeme mit minimalem Risiko (wie KI-gestützte Videospiele und Spamfilter) weitgehend unreguliert bleiben.
Festlegung von Transparenzverpflichtungen: KI-Systeme müssen auf Transparenz ausgelegt sein und klare Anweisungen enthalten, die Details zum Anbieter, zu den Funktionen und Einschränkungen des Systems und zu potenziellen Risiken enthalten. Unternehmen müssen Nutzende informieren, wenn sie mit einem KI-System interagieren, es sei denn, es ist offensichtlich oder dient rechtlichen Zwecken wie der Verbrechenserkennung.
Maßnahmen zur Innovationsförderung: Die EU verlangt von seinen Mitgliedstaaten die Einrichtung von „KI-Sandboxes“, in denen KI-Systeme entwickelt, getestet und validiert werden können, bevor sie auf den Markt kommen. Kleine und mittlere Unternehmen sowie Start-ups werden vorrangig auf diese Sandboxes zugreifen können.
Dank der proaktiven Haltung der EU zur KI-Governance ist sie weltweit führend bei der Festlegung regulatorischer Standards. Und viele weitere Länder planen, in den kommenden Monaten ähnliche Governance-Frameworks einzuführen.
Die USA priorisieren vier Säulen verantwortungsvoller KI-Innovation
Die USA haben weiter auf den Bemühungen der früheren Regierungen aufgebaut, umfassende Frameworks für KI-Governance einzurichten. Zunächst haben mehrere Bundesdepartements Prinzipien eingeführt, darunter die verantwortlichen KI-Prinzipien des Verteidigungsministeriums und das Playbook für KI-Risikomanagement des Energieministeriums. Vor Kurzem veröffentlichte das Weiße Haus seine AI Bill of Rights, um die Entwicklung zu steuern. Zentral ist hierbei die laufende Weiterentwicklung von Gesetzen und Exekutivrichtlinien, um potenzielle Risiken im Zusammenhang mit der KI-Einführung zu minimieren und gleichzeitig ein innovationsfreundliches Umfeld zu schaffen. Die USA haben sich auf diese vier Kernpfeiler verantwortungsvoller KI-Innovation als Grundlage für ihre Frameworks konzentriert:
Sicherheit: Um die Sicherheit von KI zu gewährleisten, bedarf es strenger Testverfahren, Zertifizierungsanforderungen und Mechanismen zur kontinuierlichen Überwachung und Bewertung.
Schutz: Sicherheitsüberlegungen sind entscheidend, um KI-Systeme vor Cyberbedrohungen, unbefugtem Zugriff und böswilliger Nutzung zu schützen. Dazu gehört die Festlegung von Standards für Datenschutz, Verschlüsselungsprotokolle und Resilienz gegen gegnerische Angriffe.
Gerechtigkeit: Gerechtigkeit in der KI-Entwicklung zielt darauf ab, Bias in Algorithmen zu verhindern, die zu Diskriminierung oder ungerechten Ergebnissen führen könnten. Dazu gehört die Förderung der Vielfalt in der KI-Forschung und -Entwicklung, die Gewährleistung repräsentativer Datasets sowie die Umsetzung von Maßnahmen zu Fairness und Verantwortlichkeit.
Transparenz: Transparenz beinhaltet, dass KI-Systeme verständlich und erklärbar sind. So können Stakeholder:innen – darunter Benutzer:innen, Regulierungsbehörden und die Öffentlichkeit – nachvollziehen, wie KI-Entscheidungen getroffen werden, und ihre Zuverlässigkeit und Fairness bewerten. Transparenz führt so zu Vertrauen.
Diese Säulen der KI-Governance haben Innovationen in allen Branchen ermöglicht und Chancen für Start-ups und Unternehmer:innen geschaffen. Darüber hinaus entstehen neue Jobrollen, die die Überwachung, Interpretation und Verwaltung von KI-Systemen umfassen. So ist beispielsweise die Nachfrage nach Data Scientists, Machine Learning Engineers, KI-Ethiker:innen und KI-Trainer:innen sprunghaft gestiegen. Wenn die richtigen Maßnahmen ergriffen werden, hat KI das Potenzial, die menschlichen Fähigkeiten zu erweitern und neue Beschäftigungsmöglichkeiten zu schaffen – eine vielversprechende Realität, die Befürchtungen widerspricht, dass KI Arbeitsplätze abschaffen wird.
Ein Beispiel für verantwortungsvolle KI-Innovation in der Praxis
Lösungen mit Generativer KI (GenAI) für den Kundenservice sind ein nützliches Beispiel dafür, wie verantwortungsvolle, menschenorientierte Innovationen durch methodische KI-Governance-Frameworks gefördert werden können.
Für Callcenter kann die Verwaltung großer Anrufmengen eine große Herausforderung darstellen: umfassende interaktive Sprachreaktionssysteme können zu langwierigen Telefonmenüs für Kunden führen, aber die Weiterleitung eines Anrufs an menschliche Mitarbeitende ist viel teurer und kann zu längeren Wartezeiten führen. Um die vielen Probleme zu bewältigen, die Kund:innen zu Ihnen bringen, müssen Mitarbeitende im Kundenservice oft Dutzende Anwendungen auf ihrem Bildschirm offen halten und ständig zwischen ihnen wechseln. Und viele der Anrufe, mit denen sich menschliche Mitarbeitende beschäftigen, hätten von vornherein problemlos automatisiert abgewickelt werden können. KI und maschinelles Lernen könnten eine Lösung sein.
Wie könnte es funktionieren? Maschinelles Lernen könnte verwendet werden, um vorherzusagen, worüber Kund:innen anrufen, basierend auf all ihren früheren Interaktionen mit dem Unternehmen. Je nach Betreff des Anrufs könnte er dann an einen GenAI-Chatbot weitergeleitet werden, um mit der Kundin oder dem Kunden zu kommunizieren und das Problem zu lösen, oder das menschliche Kundendienstteam, das ebenfalls im Voraus den nötigen Kontext erhält. Wenn maschinelles Lernen den Grund für den Anruf der Kund:innen richtig vorhersagen kann, bevor die Kund:innen das Problem dem Kundendienstteam selbst nennt, könnte dies zu einer Lösung beim ersten Anruf und zu einer erheblichen Verringerung der Betriebskosten und der Bearbeitungszeit führen.
Durch den Einsatz von Snowflake Cortex konnte ein Unternehmen sicherstellen, dass die Trainingsdaten, Metadaten, das GenAI-Modell und die Prompts privat bleiben. Stellen Sie sich die Menge sensibler Informationen vor, die diese Anrufe enthalten – diese Kundendienstteams kümmern sich um alles, von privaten Gesundheitsinformationen bis hin zu internen Finanzbehördendaten.
Der Datenschutz ist entscheidend für die Entwicklung verantwortungsvoller und vertrauenswürdiger KI. Und indem sich eine ML- und GenAI-gestützte Lösung auf die Unterstützung statt auf den Ersatz menschlicher Mitarbeitender konzentriert, ist sie ein herausragendes Beispiel dafür, wie verantwortungsvolle KI-Innovation zur Verbesserung der Gesellschaft beitragen und gleichzeitig damit verbundene Risiken reduzieren kann.
Ein Wettlauf um die Regulierung von KI
Länder auf der ganzen Welt verfolgen unterschiedliche Ansätze für KI-Vorschriften. Einige verfolgen eine „Abwarten“-Strategie und glauben, dass ein sanfter KI-Ansatz Unternehmen und Investitionen anziehen und binden wird. Andere setzen auf proaktive Strategien, priorisieren bewährte Best Practices und zielen darauf ab, sichere und ethische KI-Systeme einzurichten. Das KI-Framework der EU bezieht definitive Stellung und erfordert kritische Entscheidungen, bei denen Menschen stets auf dem Laufenden sind.
Unabhängig vom gewählten Regulierungsansatz wägen Regierungen die tatsächlichen Vorteile und Folgen von KI-Systemen ab. Ein neues Thema in globalen Prinzipien, Frameworks und Gesetzen ist die Erkenntnis, dass KI-Systeme das Leben aller Bürger:innen beeinflussen. Das zeigt auch die Chance, dass KI-Systeme die Produktivität der Nutzenden messbar steigern können.
Engagements zur Verbesserung von KI-Vorschriften unterstreichen einen proaktiven Ansatz, um das Potenzial von KI zu nutzen und gleichzeitig ihre Risiken zu minimieren. Indem sie sich auf Sicherheit, Gerechtigkeit und Transparenz konzentrieren, zielen diese Regulierungsmaßnahmen darauf ab, ein KI-Ökosystem zu schaffen, das nicht nur innovativ und wettbewerbsfähig ist, sondern auch ethisch vertretbar und der Gesellschaft gegenüber verantwortlich ist.