
New York hat ein vom Weltwirtschaftsforum unterstütztes KI-Überwachungssystem vorgestellt, das Verbrechen vorhersagt. Es zielt auf das U-Bahn-System der Stadt ab. Die Metropolitan Transit Authority (MTA) setzt diese Technologie ein , um „irrationales oder besorgniserregendes Verhalten“ zu erkennen und so die Sicherheit angesichts der wachsenden öffentlichen Besorgnis zu erhöhen.
Gouverneurin Kathy Hochul, die der U-Bahn-Überwachung seit 2021 Priorität einräumt, reagiert damit auf eine Welle spektakulärer Übergriffe und Raubüberfälle, die die Angst geschürt haben. Da derzeit 40 Prozent der U-Bahn-Bahnsteigkameras in Echtzeit von menschlichen Bedienern überwacht werden, stellt das KI-System eine deutliche Verstärkung der Bemühungen zur Verhinderung krimineller Aktivitäten dar.
Naturalnews.com berichtet: In diesem Zusammenhang arbeitet die MTA mit KI-Firmen zusammen, um eine Echtzeit-Videoanalysetechnologie zu implementieren, die nach „problematischem Verhalten“ sucht und die Strafverfolgungsbehörden alarmiert, bevor es zu Vorfällen kommt .
Anders als Gesichtserkennungssysteme würde die KI keine Einzelpersonen identifizieren, sondern verdächtige Handlungen wie unbeaufsichtigte Taschen oder aggressive Bewegungen erkennen, um mögliche Bedrohungen vorherzusagen. Die Behörde bezeichnete dies als „prädiktive Prävention“ – eine Art Vorab-Fahndung, die nervöse Ticks, ängstliches Herumlaufen oder sogar Selbstgespräche zu potenziellen Warnsignalen für die Strafverfolgungsbehörden macht.
Das KI-System würde die Überwachungsabdeckung erweitern, ohne dass zusätzliches Personal erforderlich wäre, und das New York Police Department (NYPD) automatisch über potenzielle Gefahren informieren.
„KI ist die Zukunft“, sagte MTA-Sicherheitschef Michael Kemper. „Wir arbeiten gerade mit Technologieunternehmen zusammen und prüfen, was es aktuell auf dem Markt gibt, was machbar ist und was im U-Bahn-System funktionieren würde.“
Politiker glauben, dass KIs grundsätzlich objektiver sind als Menschen
Dieser Schritt hat bei Bürgerrechtsaktivisten die Besorgnis ausgelöst und warnt vor einer riskanten Entwicklung hin zu massenhafter Verhaltenspolizei.
In einem Artikel für Reclaim the Net behauptete Cristina Maas , dass sich unter politischen Entscheidungsträgern eine gefährliche Illusion verbreite: der Glaube, dass Algorithmen von Natur aus objektiv seien und die Voreingenommenheit und blinden Flecken des menschlichen Urteils überwunden hätten.
Sie argumentierte jedoch, dass KI kein Orakel sei. Vielmehr sei sie ein verworrenes Netz aus Code und menschlichen Annahmen, trainiert mit fehlerhaften Daten und verbreitet von Tech-Evangelisten, die sich nie im Chaos einer U-Bahn zur Rushhour zurechtfinden mussten, geschweige denn mit den Komplexitäten realer Entscheidungsfindung. Ihre Hochglanzpräsentationen versprechen Fortschritt, doch in Wirklichkeit verkaufen sie einen Anschein von Präzision über dieselben alten Vorurteile, neu verpackt als Innovation.
„Welche Muster diese Systeme auch immer erkennen, sie spiegeln dieselben blinden Flecken wider, die wir bereits haben – nur schneller, kälter und mit einer glaubhaften Abstreitbarkeitsklausel im Lieferantenvertrag“, schrieb Maas. „Und während die MTA mit sichereren Pendelstrecken prahlt, geht es in Wirklichkeit um Kontrolle. Um die Steuerung der Wahrnehmung. Darum, sagen zu können: ‚Wir haben etwas getan‘, selbst wenn es nur darum geht, das berühmteste öffentliche Verkehrssystem der Welt in einen gescheiterten Science-Fiction-Piloten zu verwandeln.“