Wie verändert Big Data das tägliche Leben in ganz Amerika?

Wie verändert Big Data das tägliche Leben in ganz Amerika?
Wie verändert Big Data das tägliche Leben in ganz Amerika?

Video: Big Data – Massenüberwachung oder Grundlage für das digitale Leben? | SRF Einstein 2024, Juli

Video: Big Data – Massenüberwachung oder Grundlage für das digitale Leben? | SRF Einstein 2024, Juli
Anonim

Die Idee von 'Big Data' ist allgegenwärtig geworden, aber was ist das und wie verändert es unsere Lebensweise? Wir haben uns mit der Datenwissenschaftlerin, Harvard PhD und der Nominierten für den National Book Award, Cathy O'Neil, zusammengesetzt, um dies herauszufinden.

CT: Beginnen wir mit den Grundlagen - was genau ist 'Big Data'?

CO: Big Data ist ein neuer Ansatz zur Vorhersage von Dingen. Insbesondere bedeutet "Big Data" die Verwendung von zufällig gesammelten Daten - wie Sie in Ihrem Browser suchen oder was Sie auf Facebook tun -, um auf Dinge über Sie zu schließen, wie was Sie kaufen werden oder was Ihre politischen Zugehörigkeiten sind. Es ist eine indirekte Methode, um Menschen herauszufinden. Zum Beispiel fragt eine Kamera, die uns überwacht, nicht: "Was machst du?" - Es wird nur zu sehen, was wir tun.

CT: Und was ist ein Algorithmus?

CO: Algorithmen sind Berechnungen, die die über Sie gesammelten Daten [interpretieren], um eine Vorhersage zu erstellen. Stellen Sie sich das wie eine mathematische Gleichung vor, die versucht, eine Frage zu beantworten, die als Vorhersage definiert ist, wie zum Beispiel: "Ist diese Person dabei, etwas zu kaufen?" oder 'Wird diese Person für jemanden stimmen?'

CT: Warum höre ich gerade so viel darüber?

CO: Vor 'Big Data' würden Statistiker teure Dinge tun, wie Menschen zu befragen, um die Zukunft herauszufinden. Zum Beispiel, wenn Sie Leuten direkte Fragen stellen wie: "Für wen werden Sie stimmen?" Jetzt verlassen wir uns zunehmend auf "Datenauspuff", was ich die Daten nenne, die ständig über Sie gesammelt werden, um auf Sie zu schließen.

Vor 'Big Data' hatten Unternehmen nur wilde Vermutungen anzustellen. Jetzt haben wir bessere als wilde Vermutungen. Was überrascht, ist, dass die meisten Big-Data-Algorithmen äußerst ungenau sind und es keinen Grund gibt, zu glauben, dass sie richtig sind. Aber sie sind besser als wilde Vermutungen. Und deshalb hat sich Big Data so entwickelt wie bisher.

CT: Wenn sie ungenau sind, was reflektieren sie dann?

CO: Die fehlerhaften Datensätze, die wir ihnen zuführen. Algorithmen wissen nichts über das hinaus, was wir ihnen sagen. Wenn wir also ungleichmäßige Daten haben und diese dem Algorithmus oder voreingenommenen Daten zuführen, wird dies als Realität angesehen.

Image

Ailsa Johnson / © Kulturreise

CT: Was ist ein reales Beispiel dafür?

CO: Ein Beispiel könnte sein, dass in den Vereinigten Staaten Schwarze fünfmal häufiger wegen Räuchertopfs verhaftet werden als Weiße. Dies liegt nicht daran, dass Schwarze häufiger einen Topf rauchen - beide Gruppen rauchen einen Topf mit der gleichen Rate. Schwarze werden nur viel häufiger dafür verhaftet. Wenn Sie dies einem Algorithmus übergeben, den wir verwenden, wird dies zu Recht darauf schließen, dass schwarze Menschen in Zukunft viel wahrscheinlicher wegen Räuchertopfs verhaftet werden. Und dann erhalten Schwarze ein höheres Risiko für Kriminalität, was sich auf die strafrechtliche Verurteilung auswirkt.

Ein anderes Beispiel ist ein Gedankenexperiment. Ich werde Fox News verwenden, weil Fox News kürzlich Ausbrüche hatte, die mit einer internen Kultur des Sexismus zusammenhängen. Das Experiment lautet: "Was würde passieren, wenn Fox News versuchen würde, mithilfe ihrer eigenen Daten einen Algorithmus für maschinelles Lernen zu erstellen, mit dem in Zukunft Mitarbeiter eingestellt werden können?"

Nehmen wir an, wir suchen Leute, die zum Beispiel bei Fox News erfolgreich waren. Es hängt davon ab, wie Sie Erfolg definieren würden, aber normalerweise schauen Sie sich Leute an, die Erhöhungen, Beförderungen erhalten oder lange bleiben. Durch eine dieser Maßnahmen würden die Daten widerspiegeln, dass Frauen bei Fox News keinen Erfolg haben. Wenn es als Einstellungsalgorithmus verwendet wird, würde es dieses Problem verbreiten. Es würde sich um einen Pool von Bewerbern handeln und sagen: „Ich möchte keine Frauen einstellen, weil sie hier nicht erfolgreich sind. Sie sind keine guten Angestellten. ' Und es müssen nicht nur Fox News sein - jede Unternehmenskultur ist voreingenommen. Wenn Sie Algorithmusdaten eingeben, wird diese durch die Algorithmusvorspannung weitergegeben. Es verstärkt weiterhin die Vorurteile, die bereits in der Gesellschaft bestehen.

CT: Sind die Vorurteile beabsichtigt?

CO: Ich glaube nicht, dass Datenwissenschaftler versuchen, sexistische oder rassistische Algorithmen zu entwickeln. Algorithmen für maschinelles Lernen sind jedoch außergewöhnlich gut darin, relativ nuancierte Muster aufzunehmen und sie dann zu verbreiten. Es ist nicht etwas, was Datenwissenschaftler absichtlich tun, aber es ist trotzdem voreingenommen.

CT: Welche Rolle spielen ungenaue Algorithmen in unserem täglichen Leben?

CO: Sie werden bei allen möglichen Entscheidungen für das Leben der Menschen verwendet - von der Zulassung zum College bis zur Arbeitssuche.

Es gibt Algorithmen, die entscheiden, wie die Polizei Nachbarschaften überwacht, sowie Algorithmen, die entscheiden, wie Richter Angeklagte verurteilen. Es gibt Algorithmen, die entscheiden, wie viel Sie für eine Versicherung bezahlen oder welche Art von APR [Zinssatz] Sie auf Ihrer Kreditkarte erhalten. Es gibt Algorithmen, die entscheiden, wie Sie Ihre Arbeit erledigen, anhand derer Gehaltserhöhungen ermittelt werden. Es gibt Algorithmen auf jedem Schritt des Weges, von der Geburt bis zum Tod.

CT: Wo bleibt uns das?

CO: Wir sind in die Big-Data-Ära gesprungen und haben bei jedem einzelnen Problem Algorithmen ausgelöst, vorausgesetzt, diese Algorithmen müssen fairer sein als Menschen - aber tatsächlich sind sie genauso unfair wie Menschen. Wir müssen es besser machen.

Klicken Sie hier, um den zweiten Teil unseres Interviews mit Dr. O'Neil zu lesen. Ihr Buch The Weapons of Math Destruction: Wie Big Data die Ungleichheit erhöht und die Demokratie bedroht, ist ab sofort erhältlich.