Ein Pre-Crime-System namens Beware ist beispielsweise in der Lage, Bürger von Fresno, Kalifornien, als hoch, mittel oder niedrig einzustufen. Presseberichten zufolge sammelt das System nicht nur Daten über vergangene Verbrechen, sondern auch über Websuchen, Eigentumsaufzeichnungen und Beiträge in sozialen Netzwerken.
FÜR DAS VERBRECHEN VERHAFTET WERDEN, DAS SIE NOCH NICHT BEGANGEN HABEN
Computer werden ziemlich gut darin, die Zukunft vorherzusagen. In vielen Fällen machen sie es besser als Menschen. Deshalb verwendet Amazon sie, um herauszufinden, was Sie wahrscheinlich kaufen werden, wie Netflix weiß, was Sie vielleicht sehen möchten, wie Meteorologen genaue 10-Tages-Vorhersagen erstellen.
Jetzt hat ein Team von Wissenschaftlern gezeigt , dass ein Computer menschliche Richter bei der Vorhersage, wer ein Gewaltverbrechen begehen wird, übertreffen kann. In einem im letzten Monat veröffentlichten Papier beschrieben sie, wie sie ein System aufgebaut haben, das mit Menschen begann, die bereits wegen häuslicher Gewalt verhaftet wurden, und dann herausgefunden hat, wer von ihnen am ehesten dasselbe Verbrechen erneut begehen würde.
Die Technologie könnte Opfer möglicherweise davor bewahren, verletzt oder sogar getötet zu werden. Es könnte auch verhindern, dass die am wenigsten gefährlichen Straftäter unnötig ins Gefängnis müssen. Und doch hat es etwas Beunruhigendes, Maschinen einzusetzen, um zu entscheiden, was mit Menschen geschehen soll. Wenn gezielte Werbung fehlschlägt, steht niemandes Freiheit auf dem Spiel.
Seit zwei Jahrzehnten verwenden Polizeidienststellen Computer , um Zeiten und Orte zu identifizieren, an denen Verbrechen wahrscheinlicher sind, und den Einsatz von Beamten und Detektiven zu steuern. Jetzt gehen sie einen weiteren Schritt: Verwenden riesiger Datensätze, um kriminell veranlagte Personen zu identifizieren. Sie tun dies mit unterschiedlichem Maß an Transparenz und wissenschaftlichen Tests. Ein Pre-Crime- System namens Beware ist beispielsweise in der Lage, Bürger von Fresno, Kalifornien, als hoch, mittel oder niedrig einzustufen. Presseberichten zufolge sammelt das System nicht nur Daten über vergangene Verbrechen, sondern auch über Websuchen, Eigentumsaufzeichnungen und Beiträge in sozialen Netzwerken.
Kritiker warnen davor, dass die neue Technologie ohne ausreichende öffentliche Diskussion überstürzt eingesetzt wurde. Eine Frage ist genau, wie die Software funktioniert – das ist das Betriebsgeheimnis des Herstellers. Eine andere Frage ist, ob es wissenschaftliche Beweise dafür gibt, dass eine solche Technologie wie beworben funktioniert.
IM GEGENSATZ DAZU LEGT DAS JÜNGSTE PAPIER ÜBER DAS SYSTEM ZUR VORHERSAGE HÄUSLICHER GEWALT DAR, WAS ES KANN UND WIE GUT ES ES KANN.
Einer der Schöpfer dieses Systems, der Statistiker der University of Pennsylvania, Richard Berk, sagte, er arbeite nur mit öffentlich zugänglichen Daten von Personen, die bereits festgenommen wurden. Das System sammle und zerkleinere keine Daten über normale Bürger, sagte er, sondern mache die gleichen Prognosen, die Richter oder Polizisten früher machen mussten, wenn es an der Zeit war, zu entscheiden, ob ein Verdächtiger festgenommen oder freigelassen werden soll.
DIE UNS IM MINORITY REPORT GEZEIGTE TECHNOLOGIE HAT SICH BEREITS BEWAHRHEITET:
Er begann vor mehr als einem Jahrzehnt mit der Arbeit an Kriminalitätsprognosen und hatte bis 2008 ein computergestütztes System geschaffen, das die Experten bei der Auswahl der auf Bewährung Bewährungshelfer am ehesten wieder straffällig machte. Er verwendete ein maschinelles Lernsystem – fütterte einen Computer mit vielen verschiedenen Arten von Daten, bis er Muster entdeckte, die er verwenden konnte, um Vorhersagen zu treffen, die dann gegen bekannte Daten getestet werden konnten.
MASCHINELLES LERNEN FÜHRT NICHT UNBEDINGT ZU EINEM ALGORITHMUS, DEN MENSCHEN VERSTEHEN KÖNNEN. BENUTZER WISSEN, WELCHE PARAMETER BERÜCKSICHTIGT WERDEN, ABER NICHT, WIE DIE MASCHINE SIE VERWENDET, UM IHRE ANTWORTEN ZU ERHALTEN.
In dem im Februar im Journal of Empirical Legal Studies veröffentlichten Papier zu häuslicher Gewalt untersuchten die Berk- und Penn-Psychologin Susan Sorenson Daten von etwa 100.000 Fällen, die alle zwischen 2009 und 2013 aufgetreten sind. Auch hier verwendeten sie ein maschinelles Lernsystem, das Fütterung Computerdaten zu Alter, Geschlecht, Postleitzahl, Alter bei der ersten Verhaftung und eine lange Liste möglicher früherer Anklagen wegen Dingen wie Trunkenheit am Steuer, Tiermisshandlung und Verbrechen mit Schusswaffen. Sie verwendeten keine Rasse, obwohl Berk sagte, dass das System nicht vollständig rassenblind ist, da einige Rückschlüsse auf die Rasse aus der Postleitzahl einer Person gezogen werden können.
Die Forscher verwendeten etwa zwei Drittel der Daten, um das System zu „trainieren“, indem sie der Maschine Zugriff auf die Eingabedaten sowie das Ergebnis verschafften – unabhängig davon, ob diese Personen ein zweites Mal wegen häuslicher Gewalt festgenommen wurden oder nicht. Das andere Drittel der Daten verwendeten sie, um das System zu testen, indem sie dem Computer nur die Informationen lieferten, die ein Richter bei der Anklage wissen konnte, und um zu sehen, wie gut das System vorhersagte, wer erneut wegen häuslicher Gewalt verhaftet werden würde.
Es wäre einfach, die Zahl der Wiederholungstäter auf null zu reduzieren, indem man einfach jeden einsperrt, der wegen häuslicher Gewalt angeklagt ist, aber die Inhaftierung von Personen, die keine Gefahr darstellen, ist mit Kosten verbunden, sagte Berk. Derzeit werde etwa die Hälfte der wegen häuslicher Gewalt Verhafteten freigelassen, sagte er. Die Herausforderung, vor der er und Sorenson standen, bestand darin, weiterhin die Hälfte freizugeben, aber eine weniger gefährliche Hälfte auszuwählen. Das Ergebnis: Rund 20 Prozent der von Richtern Freigelassenen wurden später wegen derselben Straftat festgenommen. Von den Entscheidungen des Computers waren es nur 10 Prozent.
Berk und Sorensen arbeiten derzeit mit der Polizei von Philadelphia zusammen, um das maschinelle Lernsystem anzupassen, um vorherzusagen, welche Haushalte am stärksten von häuslicher Gewalt bedroht sind. Diese, sagte er, können mit zusätzlicher Überwachung angegriffen werden.
Das Bewährungssystem wurde bereits in Philadelphia eingeführt. Bewährungshelfer in der Stadt werden durch ein maschinelles Lernsystem Gruppen mit hohem, mittlerem und niedrigem Risiko zugeordnet, sodass sich die Bewährungshelfer hauptsächlich auf die Fälle mit hohem Risiko konzentrieren können.
Ein Nachteil könnte ein eindimensionalerer Entscheidungsprozess sein. Als ich vor einigen Jahren einen Artikel über das Bewährungssystem für den Philadelphia Inquirer schrieb, erfuhr ich, dass einige Bewährungshelfer das System als einschränkend empfanden. Sie sagten, dass sie einen größeren Einfluss haben könnten, wenn sie mehr Zeit mit Straftätern mit geringem Risiko verbringen würden, die bereit wären, Hilfe anzunehmen, um ihr Leben in den Griff zu bekommen – vom Drogenentzug, der Bewerbung um einen Job oder dem Erwerb eines Hochschulabschlusses.
Ihre Sorge war, dass ihre Chefs zu viel Vertrauen in das System und zu wenig in sie setzen würden. Dies spiegelt das Problem wider, das Berk sagt, dass ihn beunruhigt: Dass die Menschen der Technologie zu viel Vertrauen schenken. Wenn ein System keine wissenschaftlichen Tests durchlaufen hat, ist Skepsis angebracht. Und selbst diejenigen, die nachweislich das menschliche Urteilsvermögen übertreffen, sind alles andere als perfekt. Maschinelles Lernen könnte Verbrechensbekämpfern eine Informationsquelle für ihre Entscheidungsfindung bieten, aber in diesem Stadium wäre es ein Fehler, wenn sie es die Entscheidungen für sie treffen lassen würden.