Entwicklung verantwortungsbewusster KI-Systeme

On By Chris Rowen7 Min Read
Responsible AI
  • Können Automatiksysteme für die Prüfung von Hypothekenanträgen rassistisch sein?
  • Ist es vertretbar, dass die Polizei bei der Suche nach verdächtigen Personen Gesichtserkennungssysteme einsetzt?
  • Dürfen Entwickler Nutzerdaten verwenden, um Spracherkennungssysteme für Videokonferenzanwendungen zu trainieren und zu verbessern?
Wissenschaft und Technik waren in Fragen der KI-Ethik und der gesellschaftlichen Verantwortung schon immer in einer schwierigen Position. Einerseits lässt sich berechtigterweise anführen, dass die Gesetze der Physik oder mathematische Gleichungen an sich wertneutral sind – sie machen keine Aussagen über moralische Fragen, die sich der Mensch stellt. Andererseits spielen sich Wissenschaft und Technik nicht in einer sterilen, abstrakten Welt ab, die von der Anwendung wissenschaftlicher und technischer Kenntnisse auf das menschliche Tun unabhängig ist – und das ist auch gar nicht möglich. Jedes menschliche Tun hat moralische und ethische Folgen. Daher ist es richtig, dass Techniker gesellschaftliche und ethische Verantwortung tragen. Techniker können jedoch nicht verantwortungsbewusst handeln, wenn sie nicht berücksichtigen, wie ihre Systeme grundlegende Menschenrechte in puncto Privatsphäre, Sicherheit, Handlungsfähigkeit und Gleichheit unterstützen oder untergraben. Maschinelles Lernen und datenbasierte künstliche Intelligenz haben weitverbreitete Bedenken gegenüber der gesellschaftlichen Rolle der Technologie weiter verstärkt.

Wie können wir ethische Probleme der KI im Blick behalten und Systeme für maschinelles Lernen verantwortungsbewusst entwickeln?

Wir sollten dazu bei einer Reihe grundlegender Implikationen ansetzen, die Entwicklungen auf Basis von maschinellem Lernen mit sich bringen, sowie bei den Gründen, aus denen dies zu Uneinigkeiten führen kann. Der Grundgedanke des maschinellen Lernens besteht darin, dass die Details einer Funktion nicht in einem Softwarecodeblock beschrieben, sondern durch Verallgemeinerung ausgehend von einer Reihe an Beispielen für erwartetes Verhalten erlernt werden. Diese Trainingsdaten lassen sich explizit vorbereiten, wenn eine Reihe von Eingaben mit entsprechenden Zielausgaben verknüpft wird (überwachtes Lernen). Das Training kann jedoch auch implizit oder fortlaufend stattfinden, wobei erwartete Ergebnisse entweder implizit in den Eingabedaten enthalten sind (unüberwachtes Lernen) oder Belohnungsmetriken für erfolgreiche Ausgabereihen vergeben werden (bestärkendes oder verstärkendes Lernen). Meist wird das im Training erlernte Verhaltensmodell anschließend als Bausteinfunktion in einem „Inferenzsystem“ bereitgestellt. Die realen Nutzereingaben fließen dann in das Modell ein, sodass das System ein Ergebnis berechnen kann, das den im Training erlernten Mustern stark ähnelt. Welche Arten ethischer Probleme mit KI bei Funktionen auf Basis maschinellen Lernens sollten für eine verantwortungsbewusste KI bedacht werden? In bestimmten Hinsichten ist Software auf Basis maschinellen Lernens nicht grundlegend anders als Software, die mit traditionellen prozeduralen Programmierverfahren entwickelt wird. Bei jeder Software gilt es, Voreingenommenheiten, Privatsphäre, Fairness, Transparenz und Datenschutz zu berücksichtigen. Die Verfahren des maschinellen Lernens sind jedoch weniger gut bekannt, benötigen große Mengen an Trainingsdaten und müssen manchmal einfach erklärbar sein. Aufgrund dieser Merkmale gilt es, die Rolle der KI-Ethik in diesem Bereich genauer zu beleuchten.

Zentrale Fragen bei der Ausarbeitung von Grundsätzen für die verantwortungsbewusste KI-Entwicklung

Unten ist eine Reihe wichtiger Fragen zur KI-Ethik aufgeführt. Auch wenn sich die einzelnen Aspekte in vielen Punkten überschneiden, ist es sinnvoll, die verantwortungsbewusste Entwicklung aus mehreren Blickwinkeln zu betrachten:
  • Voreingenommenheit: Werden mit der Funktion unfaire, unbeabsichtigte oder unangemessene Voreingenommenheiten im Umgang mit unterschiedlichen Personen eingeführt? Wurde das System für die Verteilung von Nutzern entwickelt und trainiert, für die es in der Praxis eingesetzt wird? Verhindern Entwurf, Implementierung und Tests Vorgeingenommenheiten im Zusammenhang mit gesetzlich geschützten Personenmerkmalen?
  • Privatsphäre: Müssen Nutzer für Training und Verwendung der Funktion mehr personenbezogene Daten als nötig angeben? Sind personenbezogene Daten vor unbefugter oder zweckwidriger Weitergabe geschützt?
  • Transparenz: Ist ausreichend gut bekannt, getestet und dokumentiert, wie sich die Funktion verhält, damit Entwickler von Systemen, in die die Funktion integriert wird, sowie Nutzer und sonstige Prüfer ihre Funktionsweise nachvollziehen können? Ist das Verhalten der implementierten Funktion grundsätzlich deterministisch, sodass die Wiederholung derselben Eingaben zu denselben Ausgaben führt?
  • Sicherheit: Sind erfasste Daten oder Produkte bei Training und Implementierung der Funktion vor zweckwidriger Übertragung, Verstößen und Weitergabe geschützt? Dazu können personenbezogene Daten zählen, deren Privatsphäre es außerdem zu berücksichtigen gilt, sowie nicht personenbezogene Daten, für die Eigentumsrechte und vertraglich vereinbarte Nutzungsbeschränkungen gelten können.
  • Gesellschaftliche Folgen: Welche direkten und indirekten Folgen bringt die Technologie abgesehen von den spezifischen Bedenken in puncto Privatsphäre, Transparenz und Sicherheit bei einer allgemeinen Bereitstellung für die Gesellschaft mit sich? Fördert oder hemmt sie den Gedankenaustausch? Erhöht sie die Wahrscheinlichkeit von Gewalt oder Missbrauch? Ist sie umweltschädlich? Diese Kategorie der KI-Ethik wird bewusst offengelassen, da von keinem Entwicklungs- und Bereitstellungsteam erwartet werden kann, dass es sämtliche indirekten Auswirkungen seiner Arbeit vollständig abschätzen kann, insbesondere bei einer langjährigen und weltweiten Bereitstellung. Trotzdem kann der Versuch, die negativen Langzeitfolgen zu antizipieren, Teams dazu motivieren, Elemente zur Steuerung dieser Folgen in ihre Entwicklungen zu integrieren oder auf eine alternative technologische Strategie mit einer geringeren Zahl offensichtlicher gesellschaftlicher Nachteile umzustellen.
Die Liste der ethischen Fragen zur KI mag zunächst zu unscharf und abstrakt erscheinen, um praktisch anwendbar zu sein. Die Branche hat jedoch insbesondere zu Systemsicherheit und Datenschutz erfolgreich Entwicklungsleitfäden bereitgestellt, die als Vorlage hilfreich sein können. Cisco ist seit vielen Jahren führend bei der Entwicklung von Systemen, die den Datenschutz berücksichtigen. Damit ist dieser Rahmen ein naheliegender Ausgangspunkt für die Entwicklung verantwortungsbewusster Systeme auf Basis maschinellen Lernens bei Webex. Die europäische Datenschutz-Grundverordnung (DSGVO) bildet zudem einen Rahmen für den Schutz der „Grundrechte und Grundfreiheiten natürlicher Personen“ und kann eine Reihe hilfreicher Grundsätze für Systeme auf Basis maschinellen Lernens liefern. Entwickler bei der Betrachtung ihres Hologramms einer Stadt.

Weitere Überlegungen zu KI und Ethik

Bei meiner Beschäftigung mit der verantwortungsbewussten Entwicklung von KI-Systemen haben sich drei Konzepte als besonders hilfreich erwiesen, um die gesellschaftliche und ethische Verantwortung von Technikern zu beleuchten:
  1. Ein Prozess für die verantwortungsbewusste Entwicklung maschinellen Lernens. Das potenzielle Anwendungsspektrum des maschinellen Lernens ist so breit, dass es aussichtlos ist, einen allgemeingültigen Entwicklungsablauf festzulegen. Das Innovationstempo bei Modelltypen, Trainingssystemen, Evaluierungsmetriken und Bereitstellungssystemen ist so hoch, dass jedes zu eng gefasste Rezept innerhalb kürzester Zeit hinfällig wird. Wir können jedoch ethische KI-Leitlinien mit klaren Kontrollpunkten aufstellen, an denen die Entwickler selbst und andere Prüfer die bisherige Arbeit begutachten, um sicherzustellen, dass die zentralen Fragen berücksichtigt und die Hauptentwicklungsentscheidungen dokumentiert wurden. Dabei können auch spezifische Tests durchgeführt werden, die die Systeme vor der Bereitstellung erfolgreich durchlaufen müssen.
  2. Berücksichtigung der Folgen. Wer Systeme entwickelt und implementiert, muss eine klare Vorstellung von KI-Ethik und den Folgen der erlernten Entscheidungen der trainierten Systeme haben. Entwickler und Implementierer müssen sich bewusst machen, dass ihre Funktionen des maschinellen Lernens in vielen Fällen Entscheidungen treffen, die reale Folgen für die Nutzer und andere Personen haben. Manche dieser Entscheidungen sind eindeutig und schwerwiegend, z. B. ob ein Hypothekenantrag akzeptiert oder abgelehnt wird. In anderen Fällen erfolgen Entscheidungen weniger explizit, ihre Folgen aber ebenfalls tiefgreifend. Angenommen, eine Funktion für erlernte Sprachverbesserung in einem Videokonferenzsystem verringert die Lautstärke der Durchschnittsfrau bezogen auf die männlichen Kollegen um 2 %: Kumuliert kann das schleichend die Möglichkeiten von Frauen verringern, sich am Arbeitsplatz einzubringen und etwas zu bewirken.
  3. Statistische Varianz zwischen Trainingsdaten und erwarteten Nutzerdaten. Maschinelles Lernen muss für das Systemtraining einen breiten Eingabedatenbereich heranziehen, um mit allen voraussichtlichen Bedingungen umgehen zu können. Die statistische Planung des Trainingssatzes ist der maßgebliche Faktor, der über das statistische Verhalten des endgültigen Systems entscheidet. Bei Sprachsystemen kann dieses vorgegebene Verteilungsverhältnis beispielsweise Zielprozentsätze für Sprecher einschließen, die jeweils amerikanisches Englisch, britisches Englisch und australisches Englisch sprechen, sowie für Sprecher des Englischen lateinamerikanischen Ursprungs und Sprecher aus Südasien, China, Kontinentaleuropa und weiteren Regionen. Darüber hinaus kann es Zielprozentsätze für hohe und tiefe Stimmen, Stimmen von Sprechern unterschiedlichen Alters, das Sprechen in unterschiedlich stark hallenden Räumen und unterschiedliche Arten und relative Amplituden von Geräuschen einschließen. Entwickler sollten die Verteilung der Zielgruppe ausdrücklich kennen und dokumentieren und Training und Tests auf die Zielnutzung abgestimmt entwerfen. Darüber hinaus sollten Entwickler mögliche Lücken der Zielgruppenspezifikation bedenken, beispielsweise bei der Abdeckung gesetzlich geschützter Merkmale (Ethnie, nationale Herkunft, Geschlecht, Religion usw.). Das ist keine leichte Aufgabe, denn die betreffende Variation kann unter Anwendungsbedingungen eine Vielzahl potenzieller Dimensionen haben. Entwickler sollten beim Testen ein breiteres Merkmalsspektrum als beim ursprünglichen Training berücksichtigen und mit einer Sensitivität bei der Varianz rechnen, die die Einbeziehung neuer Daten oder die Abänderung der Verteilungen erfordert, um eine gute Leistung für alle Zieleinsatzbedingungen zu erreichen.
Die Entwicklung verantwortungsbewusster KI steckt noch in den Kinderschuhen. Es ist noch viel zu tun, bis wir alle Lücken bei der Erkennung von Voreingenommenheiten, dem Schutz der Privatsphäre, Transparenz, Datensicherheit und wesentlichen gesellschaftlichen Folgen kennen. Die bewusste Einbeziehung der KI-Ethik in Diskussion, Spezifikation, Training, Bereitstellung und Verwaltung kann jedoch der Startpunkt sein, um die Vertrauenswürdigkeit und Zuverlässigkeit dieser leistungsfähigen Verfahren grundlegend zu verbessern.
Melden Sie sich für eine kostenlose Testversion von Webex an. Profitieren Sie noch heute von einer besseren Zusammenarbeit im Team und den Vorzügen unserer Videokonferenztechnologie.
Weitere Informationen Die neuesten KI-Funktionen von Webex für die Zukunft der Arbeit Neuerungen bei kooperativer KI: Die Zukunft der hybriden Arbeit antreiben Bessere Erfahrungen bei der Arbeit und für Kunden in einer hybriden Arbeitswelt

About The Author

Chris Rowen
Chris Rowen VP of Engineering Cisco
Chris is a Silicon Valley entrepreneur and technologist known for his groundbreaking work developing RISC microprocessors, domain-specific architectures and deep learning-based software.
Learn more

Topics


More like this