Vorurteilsvolle KI verändert das amerikanische Leben. Was können wir dagegen tun?

Vorurteilsvolle KI verändert das amerikanische Leben. Was können wir dagegen tun?
Vorurteilsvolle KI verändert das amerikanische Leben. Was können wir dagegen tun?
Anonim

Stellen Sie sich eine Welt vor, in der künstlich intelligente Algorithmen Entscheidungen treffen, die Ihren Alltag beeinflussen. Stellen Sie sich vor, sie haben Vorurteile.

Dies ist die Welt, in der wir bereits leben, sagt die Datenwissenschaftlerin Harvard PhD und Autorin Cathy O'Neil. (Lesen Sie hier den ersten Teil unserer Diskussion mit Dr. O'Neil). Wir haben uns mit dem Nominierten für den National Book Award zusammengesetzt, um herauszufinden, was wir im Zeitalter von Big Data gegen Vorurteile tun können. CT: Ist die KI voreingenommen?

CO: Jeder Algorithmus, der nicht explizit fair gemacht wurde, sollte als voreingenommen angesehen werden. Weil wir als Menschen Vorurteile haben. Wenn wir das anerkennen und diese Algorithmen mit unseren Werten und unseren Daten erstellen, sollten wir nicht davon ausgehen, dass auf magische Weise etwas passiert ist, um die Dinge fair zu machen. Da ist keine Magie.

CT: Woher beziehen Algorithmen ihre Daten?

CO: Das hängt vom Algorithmus ab. Manchmal soziale Medien, zum Beispiel für politische Marktausrichtung oder Werbung oder für gewinnorientierte Hochschulen und räuberische Kredite - aber viele Daten werden nicht in sozialen Medien oder sogar online gesammelt.

Die Datenerfassung ist zunehmend an das wirkliche Leben gebunden, z. B. einen Job zu bekommen, an Ihrem Arbeitsplatz zu arbeiten, aufs College zu gehen oder ins Gefängnis zu gehen. Diese Dinge können wir mit Datenschutzgesetzen nicht umgehen. Es handelt sich um Machtprobleme, bei denen die Personen, auf die die Algorithmen abzielen, keine Macht haben und die Personen, die die Informationen sammeln und die Algorithmen erstellen und bereitstellen, die gesamte Macht haben. Sie haben keine Datenschutzrechte, wenn Sie ein Angeklagter sind, Sie haben keine Datenschutzrechte an Ihrem Arbeitsplatz und Sie haben nicht viel Datenschutzrechte, wenn Sie sich für einen Job bewerben, weil Wenn Sie die Fragen, die Ihr zukünftiger Arbeitgeber Ihnen gestellt hat, nicht beantworten, werden Sie den Job wahrscheinlich nicht bekommen.

Wir sollten weniger über Datenschutz als über Leistung nachdenken, wenn es um Algorithmen und den Schaden geht, den sie verursachen können.

CT: Was können wir tun, um es besser zu machen?

CO: Wir können anerkennen, dass diese Algorithmen von Natur aus nicht perfekt sind, und sie auf ihre Fehler testen. Wir sollten fortlaufende Audits und Monitore durchführen lassen - insbesondere für wichtige Entscheidungen wie Einstellung, strafrechtliche Verurteilung oder Beurteilung von Personen an ihrem Arbeitsplatz -, um sicherzustellen, dass die Algorithmen so funktionieren, wie wir es möchten, und nicht auf diskriminierende oder unfaire Weise.

Image

Ailsa Johnson / © Kulturreise

CT: Was sind die besten und schlechtesten Szenarien für die datengesteuerte Zukunft?

CO: Das schlimmste Szenario ist das, was wir jetzt haben - dass wir alle blindlings erwarten, dass Algorithmen perfekt sind, obwohl wir es jetzt besser wissen sollten. Und wir verbreiten vergangene Ungerechtigkeiten und Ungerechtigkeiten. Und wir ignorieren weiterhin die Mängel dieser Algorithmen.

Das beste Szenario ist, dass wir anerkennen, dass diese Algorithmen von Natur aus nicht besser sind als Menschen. Wir entscheiden, was wir als Menschen wollen, was wir anstreben. Wie die Gesellschaft aussehen soll und welche Werte wir vermitteln. Wenn wir das erfolgreich machen, könnten diese Algorithmen besser sein als Menschen.

CT: Welche Rolle können alltägliche Menschen spielen?

CO: Die wichtigste Rolle, die eine Person spielen kann, besteht darin, keinem Algorithmus implizit zu vertrauen. Eine enorme Skepsis haben. Wenn Sie anhand eines Algorithmus bewertet werden, fragen Sie: „Woher weiß ich, dass es fair ist, woher weiß ich, dass es hilfreich ist, woher weiß ich, dass es korrekt ist? Wie hoch ist die Fehlerrate? Für wen schlägt dieser Algorithmus fehl? Scheitern Frauen oder Minderheiten? ' Stellen Sie diese Art von Frage.

Die zweite Sache, die über die Skepsis hinausgeht, ist, dass wenn Sie glauben, ein Algorithmus sei Ihnen oder anderen Menschen gegenüber unfair, sich mit diesen anderen Menschen zu organisieren. Ein aktuelles Beispiel sind Lehrer. Die statistischen Modelle über Lehrer mit Mehrwert sind schreckliche, fast zufällige Zahlengeneratoren. Aber sie wurden verwendet, um zu entscheiden, welche Lehrer in den USA eine Amtszeit erhalten und welche Lehrer entlassen werden sollten.

Mein Vorschlag ist, dass sie ihre Gewerkschaft dazu bringen, zurückzudrängen. Und das geschah an einigen Stellen. Es ist jedoch überraschend, wie wenig Widerstand es aufgrund der mathematischen Natur des Punktesystems gab.

CT: Wie sind Sie zu Big Data gekommen?

CO: Ich habe an der Wall Street gearbeitet und die Finanzkrise von innen miterlebt. Ich war angewidert von der Art und Weise, wie Mathematik verwendet wurde, um Menschen auszunutzen oder Menschen zu täuschen. Ich sah die Art von Schaden, der durch mathematische Lügen entstehen könnte, was ich als "Waffe der Mathematik" bezeichne.

Ich beschloss, mich davon zu lösen, also trat ich der Occupy Wall Street bei und begann als Datenwissenschaftler zu arbeiten. Langsam wurde mir klar, dass wir auch außerhalb der Wall Street einen fehlerhaften und irreführenden Hype um irreführende Datenalgorithmen sahen und dass dies zu großem Schaden führen würde. Der Unterschied bestand darin, dass Menschen auf der ganzen Welt zwar die Finanzkrise bemerkten, ich aber nicht dachte, dass die Menschen die Fehler dieser Big-Data-Algorithmen bemerken würden, da sie normalerweise auf individueller Ebene auftreten.

Lesen Sie hier den ersten Teil unserer Diskussion mit Dr. O'Neil. Dr. Cathy O'Neils Buch The Weapons of Math Destruction: Wie Big Data die Ungleichheit erhöht und die Demokratie bedroht, ist ab sofort erhältlich.