Demokratische Senatoren haben das Recht gefordert, das Internet zu kontrollieren und zu zensieren, um sich vor der Möglichkeit zu schützen, dass KI Inhalte produziert, die sie als „Fehlinformationen“ erachten.
Am Dienstag unternahmen die Gesetzgeber während der ersten Anhörung des Senats zu generativer KI Versuche, die Kontrolle über das Internet zu übernehmen, wobei sie das Aufkommen generativer KI als Vorwand nutzten.
Die Anhörung trug den Titel „Aufsicht über KI: Regeln für künstliche Intelligenz“ und mehrere Senatoren befragten die Zeugen, OpenAI-CEO Sam Altman, IBM Chief Privacy & Trust Officer Christina Montgomery und den emeritierten NYU-Professor Gary Marcus, wie generative KI zensiert werden könnte oder eingeschränkt, sodass keine Inhalte erstellt werden können, die ihrer Meinung nach Fehlinformationen sind.
Senatorin Amy Klobuchar (D-MN) sagte: „Wir können einfach nicht zulassen, dass die Leute Dinge erfinden und dann keine Konsequenzen daraus ziehen.“
Sie beschwerte sich auch darüber, dass der generative KI-Chatbot von OpenAI, ChatGPT, falsche Informationen produziert habe, nachdem ihr Team ihn gebeten hatte, einen Tweet über einen Wahllokal in Bloomington, Minnesota, zu erstellen, und nutzte dieses Beispiel, um zu suggerieren, dass „alle Arten von Fehlinformationen“ generiert werden könnten während Wahlen.
ReclaimtheNet -Bericht : Altman sagte gegenüber Klobuchar, dass OpenAI über die Auswirkungen auf Wahlen besorgt sei und sagte: „Hoffentlich können die gesamte Branche und die Regierung schnell zusammenarbeiten.“
Während er feststellte, dass ChatGPT sich von sozialen Medien unterscheidet, weil es zum Generieren von Inhalten und nicht zum Verteilen verwendet wird, versicherte Altman Klobuchar dennoch, dass OpenAI ChatGPT-Ausgaben zensiert, indem es die Generierung bestimmter Dinge verweigert und Aktivitäten überwacht, damit es erkennen kann, wenn Benutzer viele davon generieren Inhalt.
Ironischerweise antwortete Klobuchar auf Altman, indem er als Rechtfertigung für sein Vorgehen anführte, „was in der Vergangenheit mit russischer Einmischung und Ähnlichem passiert ist“.
Die Behauptung, Russland habe sich in die Präsidentschaftswahl 2016 eingemischt und die sozialen Medien manipuliert, wurde von mehreren Zensurbefürwortern vorgebracht, die argumentieren, dass falsche Behauptungen, die nicht durch Fakten gestützt werden, gefährlich seien. Dennoch gibt es nur sehr wenige Beweise, die diese massive russische Einmischungsbehauptung stützen. Sowohl Twitter-Beamte als auch ein Bericht von Sonderermittler John Durham stellten bei der Untersuchung der Behauptungen fest, dass es an Beweisen mangelt.
Senator Mazie Hirono (D-HI) deutete an, dass die KI-generierten Bilder der Verhaftung des ehemaligen Präsidenten Donald Trump, die im März viral gingen, „schädlich“ seien, beklagte sich darüber, dass solche Bilder von OpenAI möglicherweise nicht als schädlich eingestuft würden, und drängte auf „Leitplanken“. dass wir unser Land buchstäblich vor schädlichen Inhalten schützen müssen.“
Senator Richard Blumenthal (D-CT) gab an, dass er das Verbot generativer KI-Modellausgaben „bei Wahlen“ befürworte, und fragte die Zeugen, welche anderen Ausgaben ihrer Meinung nach verboten oder eingeschränkt werden sollten.
Montgomery sagte, „Fehlinformationen“ seien ein „enorm wichtiger“ Bereich, den es zu untersuchen gelte. Marcus sagte, „medizinische Fehlinformationen“ seien „etwas, worüber man sich wirklich Sorgen machen muss“ und forderte „strenge Regulierung“.
Senator Josh Hawley (R-MO) schlug die Schaffung eines Bundesklagerechts vor, das „Privatpersonen, die durch diese Technologie geschädigt werden, ermöglicht, vor Gericht zu gehen“ und generative KI-Unternehmen zu verklagen, wenn sie „medizinische Fehlinformationen“ oder „Wahlfehlinformationen“ erhalten .“
Marcus lehnte den Vorschlag ab und meinte, er würde „viele Anwälte reich machen“, sei aber „zu langsam, um viele der Dinge zu beeinflussen, die uns wichtig sind“.
Marcus fügte hinzu, es sei nicht klar, ob Abschnitt 230 des Communications Decency Act (CDA), der Online-Plattformen Immunität von der zivilrechtlichen Haftung für benutzergenerierte Inhalte auf ihrer Plattform gewährt, wenn sie die Inhalte „gutgläubig“ moderieren, gilt oder nicht zur generativen KI. Dies veranlasste Hawley zu dem Vorschlag, dass der Gesetzgeber ein neues Gesetz schaffen wird, das festlegt, dass Abschnitt 230 nicht für generative KI gilt.
Senator Chris Coon (D-DE) sagte, „Desinformation, die Wahlen beeinflussen kann“, sei „völlig vorhersehbar“ und beklagte, dass es dem Kongress bisher nicht gelungen sei, die Desinformationsvorschriften in sozialen Medien anzuwenden. Er fragte die Zeugen, ob die Richtung der EU der richtige Weg sei (ein Verweis auf das weitreichende KI-Gesetz der Europäischen Union, das KI risikobasiert reguliert und bestimmte Einsatzmöglichkeiten von KI verbietet).
Montgomery sagte, der EU-Ansatz sei „sehr sinnvoll“ und es müssten „Leitplanken vorhanden sein“.
Coons bezeichnete auch die Fähigkeit der KI, „völlig falsche Informationen“ zu liefern, als „erhebliches Risiko“ und sagte, dass KI reguliert werden müsse. Er fragte Altman, wie OpenAI entscheidet, ob ein Modell „sicher genug für die Bereitstellung“ ist.
Altman sagte, OpenAI habe weit über sechs Monate damit verbracht, die Sicherheitsstandards für GPT-4 festzulegen, die neueste Version des großen Sprachmodells, das ChatGPT antreibt, und versucht, die „Schäden“ zu finden.
Senatorin Lindsey Graham (R-SC) meinte, dass Abschnitt 230 ein „Fehler“ sei. Er kam zu dem Schluss, dass Nutzer Plattformen verklagen können sollten, wenn sie „Verleumdungen“ zulassen oder es versäumen, ihre Nutzungsbedingungen gegen Handlungen wie „Mobbing“ durchzusetzen.
Er forderte alle Zeugen auf, zuzustimmen, dass „wir das nicht noch einmal tun wollen“ und dass es „eine Haftung geben sollte, wo Menschen zu Schaden kommen“.
Marcus bemerkte, dass es einen „grundsätzlichen Unterschied zwischen der Reproduktion von Inhalten und der Generierung von Inhalten“ gebe, stimmte aber dennoch zu, dass es eine Haftung geben sollte, wenn Menschen zu Schaden kommen. Montgomery sagte, IBM wolle „die Haftung von einem angemessenen Sorgfaltsstandard abhängig machen“. Altman sagte, Abschnitt 230 sei nicht der richtige Rahmen und drängte auf „einen völlig neuen Ansatz“.
Während Senatoren auf beiden Seiten des Ganges bestrebt sind, KI-Unternehmen zur Zensur von Inhalten zu zwingen, die als Fehlinformationen gelten, erwähnte keiner von ihnen, dass die auf diesem vagen, subjektiven Begriff basierende Social-Media-Zensur zu einer Massenzensur wahrheitsgetreuer Inhalte geführt hat, wie z Hunter Bidens Laptop-Geschichte und Aussagen darüber, dass der Covid-Impfstoff die Übertragung nicht verhindert .
Die Kommentare von Senator Hirono zeigen auch, dass der Gesetzgeber keine Bedenken hat, diese umfassenden Zensurregeln auf KI-generierte Memes oder ähnliche Inhalte anzuwenden, die nicht ernst genommen werden sollen. Während einige Leute glaubten, dass die von Hirono erwähnten KI-generierten Trump-Verhaftungsbilder real seien, wussten viele, dass sie nicht real waren und betrachteten sie als eine unterhaltsame Möglichkeit, mit KI zu experimentieren, während Trumps Verhaftung bevorstand.
Bedenken hinsichtlich einer Überzensur wurden bei dieser Anhörung nicht nur nie angesprochen, sondern die dominanten KI-Unternehmen beginnen bereits damit, die Ergebnisse ihrer Tools zu zensieren.
Der CEO von Midjourney, dem generativen KI-Tool, das zur Erstellung der viralen Bilder der Trump-Verhaftung verwendet wurde, hat zugegeben, dass Midjourney verschiedene Aufforderungen blockiert , darunter Aufforderungen, die versuchen, Bilder mit dem chinesischen Präsidenten Xi Jinping zu erstellen.
Zensur ist nur eine der Beschränkungen, die der Gesetzgeber dieser potenziell transformativen Technologie aufzuerlegen versucht. Viele Senatoren sind auch große Befürworter davon, dass nur Unternehmen, die über eine staatlich genehmigte Lizenz verfügen, generative KI-Tools anbieten dürfen .