Share This Post

Main Slider / News

Putin und Musk mögen Recht haben: Branchenexperten sagen, es sei theoretisch unmöglich, sicherzustellen, dass KI den Menschen nicht schadet

Putin und Musk mögen Recht haben: Branchenexperten sagen, es sei theoretisch unmöglich, sicherzustellen, dass KI den Menschen nicht schadet
Spread the love

Je weiter die Forscher in der künstlichen Intelligenz (KI) Fortschritte machen, desto lauter und häufiger werden die Rufe, die Technologie nicht einfach auf die leichte Schulter zu nehmen, sondern komplett aufzugeben.

Und warum? Denn viele befürchten, dass die Technologie eines Tages die Menschen angreifen und uns alle auslöschen wird.

Einer der lautstärksten Vertreter dieser Theorie war der Unternehmer und Tesla-Gründer Elon Musk, der 2015 zusammen mit dem Wissenschaftler Stephen Hawking einen offenen Brief an die Technologiebranche schrieb und warnte, dass KI nicht nur zig Millionen Menschen arbeitslos machen würde, sondern aber wahrscheinlich werden selbstlernende Roboter auf lange Sicht weitaus intelligenter als Menschen. Und wenn das passiert, sagen sie, sind wir vom Aussterben durch Killerroboter bedroht.

Diese Warnung wurde kürzlich, wenn auch in etwas weniger dramatischer Weise, vom russischen Präsidenten Wladimir Putin wiederholt, der im September einer Million russischen Schulkindern per Satelliten-Videoverbindung sagte, dass KI „die Zukunft“ für „die gesamte Menschheit“ sei.

„Wer in diesem Bereich führend wird, wird Herrscher der Welt“, sagte er.

Es stellt sich heraus, dass diese Männer möglicherweise genau richtig sind.

In einem auf der Website des IMDEA Networks Institute veröffentlichten Aufsatz – einer Netzwerkforschungsorganisation mit einem multinationalen Forschungsteam, das sich mit modernster wissenschaftlicher Grundlagenforschung beschäftigt – ist es „theoretisch unmöglich“, ein „Superintelligence“-KI-System zu enthalten, was bedeutet, dass es nicht möglich ist „gelehrt“ oder „gezwungen“ werden, Menschen zu schützen oder zu verteidigen.

„Maschinen, die ‚lernen‘ und selbstständig Entscheidungen treffen, verbreiten sich in unserem täglichen Leben über soziale Netzwerke und Smartphones, und Experten denken bereits darüber nach, wie wir sie so entwickeln können, dass sie nicht abtrünnig werden“, heißt es in dem Essay.

Einige der bisher gemachten Vorschläge beinhalten das „Training“ selbstlernender Maschinen, bestimmte Arten von Daten und Informationen zu ignorieren, die es ihnen ermöglichen könnten, Rassismus oder Sexismus zu erlernen, und sie so zu codieren, dass sie Werte von Empathie und Respekt demonstrieren.

„Aber nach einigen neuen Arbeiten von Forschern der Universidad Autónoma de Madrid sowie anderer Schulen in Spanien, den USA und Australien wird es unmöglich sein , eine KI einzudämmen, sobald sie ‚superintelligent‘ wird – denken Sie an Ex Machina. “ sagt der Aufsatz.

Wie würde ein „Superintelligence“-Programm aussehen? Es wäre wahrscheinlich eines, das jedes andere existierende Programm enthält, komplett mit der Möglichkeit, neue Programme zu erhalten, sobald sie verfügbar sind. (Verwandt: Elon Musk warnt, dass KI die Menschheit auslöschen könnte .)

Da die KI jedoch selbstlernend ist, könnte der Roboter, der Computer oder das Gerät der „Superintelligenz“ zu diesem Zeitpunkt in der Lage sein, seine eigene Codierung und Programmierung in Echtzeit zu erstellen. So schnell würden  solche Maschinen  lernen – dann produzieren und reagieren.

Im Moment ist der Gedanke, dass Maschinen die Welt regieren können, nichts anderes als eine Theorie. Aber es ist eine, bei der einige sehr kluge Leute sehr besorgt sind, wohin uns die KI führen wird und nicht allzu lange in Zukunft.

Putin hat in seinem Chat mit russischen Schulkindern vielleicht nicht auf militärische Anwendungen von KI angespielt, aber denken Sie nicht einen Moment daran, dass er nicht darüber nachdenkt, wie die Technologie an bestehende (und zukünftige) Waffensysteme angepasst werden kann.

Anstatt nur „Killer“-Roboter zu bauen, die mit beschleunigter Geschwindigkeit lernen können, stellen Sie sich Standard-Waffensysteme vor, die spontan denken und sich anpassen .

Nehmen wir zum Beispiel Interkontinentalraketen. Gegenwärtig haben Raketen dank satellitengespeister Datenverbindungen eine gewisse Anpassungsfähigkeit im Flug. Das macht sie für Raketenabwehrsysteme schwieriger zu treffen.

Aber was wäre, wenn ankommende Interkontinentalraketen Bedrohungen erkennen und sich in Echtzeit ohne menschliches Eingreifen darauf einstellen könnten ? Sie würden viel tödlicher und genauer werden – und viel schwieriger zu verteidigen.

„Die KI-Forschung wird wahrscheinlich eine Revolution in der Militärtechnologie bringen, die der Erfindung von Flugzeugen und Atomwaffen gleichkommt“, schrieb Gregory Allen für CNN . „Mit anderen Worten, Musk hat Recht, dass jedes Land eine KI-Überlegenheit anstrebt und dass dieses Streben neue Risiken mit sich bringt.“

JD Heyes ist leitender Korrespondent für das Natural News- Netzwerk von Websites und Herausgeber von The National Sentinel .

Quellen sind:

CNN.com

IMDEA.org

NaturalNews.com

Medizinskandal Alterung

Share This Post

Herzlich Wilkommen auf unsere neue Webseite !

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Translate »
Zur Werkzeugleiste springen