Eine aktuelle Studie von Google-Forschern zeigt, wie künstliche Intelligenz das Internet durch die Verbreitung falscher Informationen durcheinanderbringt. Angesichts der Rolle von Google bei der Entwicklung der KI-Technologie ist dies etwas ironisch. Die Zugänglichkeit und Raffinesse von KI-generierten Inhalten haben neue Formen des Missbrauchs ermöglicht und bestehende Probleme verschärft, wodurch es schwieriger wird, zwischen Wahrheit und Lüge zu unterscheiden.
Seit ihrer Einführung im Jahr 2022 hat die generative KI viele Möglichkeiten eröffnet, die Entwicklung in vielen Bereichen zu beschleunigen. Heute verfügen KI-Tools über ein breites Spektrum an Fähigkeiten: von der komplexen audiovisuellen Analyse (durch natürliches Sprachverständnis) über mathematisches Denken bis hin zur Erstellung realistischer Bilder. Diese Vielseitigkeit hat den Einsatz der Technologie in kritischen Branchen wie dem Gesundheitswesen, öffentlichen Diensten und der wissenschaftlichen Forschung ermöglicht.
Mit dem technologischen Fortschritt werden die Risiken des Missbrauchs immer besorgniserregender. Ein erhebliches Problem ist die Verbreitung von Fehlinformationen, die das Internet überschwemmen. Eine aktuelle Analyse von Google ergab, dass KI heute die Hauptquelle für bildbasierte Fehlinformationen ist. Dieses Phänomen wird durch die zunehmende Verfügbarkeit von Tools verschärft, mit denen jeder mit minimalen technischen Kenntnissen Inhalte erstellen kann.
Bisherige Forschungsarbeiten liefern zwar wertvolle Einblicke in die Gefahren, die durch den Missbrauch von KI entstehen, geben jedoch keine genauen Informationen zu den verschiedenen Strategien, die zu diesem Zweck eingesetzt werden. Mit anderen Worten: Uns fehlt das detaillierte Wissen über die Taktiken, mit denen Angreifer falsche Informationen verbreiten. Angesichts der zunehmenden Leistungsfähigkeit der Technologie ist es von entscheidender Bedeutung, zu verstehen, wie sich Missbrauch äußert.
Eine neue Studie des Google-Teams beleuchtet die verschiedenen Strategien, mit denen KI-generierte Falschinformationen online verbreitet werden. „Durch diese Analyse identifizieren wir wichtige und neu entstehende Missbrauchsmuster, darunter potenzielle Motive, Strategien und wie Angreifer die Fähigkeiten des Systems in verschiedenen Formen (z. B. Bilder, Text, Audio, Video) nutzen und missbrauchen“, erklären die Forscher in ihrem vorab auf der arXiv-Plattform veröffentlichten Artikel.
Missbrauch, der keine tiefgreifenden technischen Kenntnisse erfordert
Die Forscher analysierten 200 Medienberichte über den Missbrauch von KI zwischen Januar 2023 und März 2024. Sie identifizierten wichtige Trends, darunter die Art und Weise und Motivation hinter dem Einsatz von KI-Tools in unkontrollierten Umgebungen (also im realen Leben). Die Analyse umfasste Bilder, Text, Audio- und Videoinhalte.
Die häufigsten Missbrauchsfälle waren falsche Bilder von Personen und die Fälschung von Beweisen. Diese falschen Inhalte werden oft verbreitet, um die öffentliche Meinung zu beeinflussen, Betrug zu erleichtern und Profit zu machen. Interessanterweise erfordern die meisten Fälle (9 von 10) kein tiefes technisches Wissen, sondern nutzen die leicht zugänglichen Fähigkeiten von KI-Tools.
Obwohl der Missbrauch nicht offenkundig schädlich ist, ist er potenziell gefährlich. Experten weisen darauf hin, dass die zunehmende Komplexität, Zugänglichkeit und Verbreitung generativer KI-Tools zu neuen Formen des Missbrauchs auf niedrigerer Ebene führt. Diese Handlungen sind weder offenkundig schädlich noch stellen sie klare Verstöße gegen die Nutzungsbedingungen der Tools dar, werfen aber dennoch beunruhigende ethische Bedenken auf.
Dieses Ergebnis deutet darauf hin, dass die meisten KI-Tools zwar ethische Sicherheitsbedingungen haben, die Benutzer jedoch Wege finden, diese mit intelligent formulierten Aufforderungen zu umgehen. Laut dem Team handelt es sich dabei um eine neue und sich entwickelnde Form der Kommunikation, die darauf abzielt, die Grenzen zwischen zuverlässigen und falschen Informationen zu verwischen. Letztere zielt hauptsächlich auf politisches Bewusstsein und Eigenwerbung ab. Dies ist mit einem Anstieg des öffentlichen Misstrauens gegenüber digitalen Informationen und einer Überlastung der Benutzer mit Überprüfungsaufgaben verbunden.
Andererseits können Nutzer diese Sicherheitsmaßnahmen auch auf andere Weise umgehen. Wenn es beispielsweise keine Möglichkeit gibt, eine Eingabeaufforderung einzugeben, die explizit den Namen einer Berühmtheit enthält, können Nutzer ein Foto von einer Suchmaschine herunterladen und es dann nach Belieben verändern, indem sie es als Link in ein KI-Tool einfügen.
Die ausschließliche Verwendung von Daten aus den Medien schränke jedoch den Umfang der Studie ein, sagen die Forscher. Diese Organisationen konzentrieren sich tendenziell auf bestimmte Informationen, die ihre Zielgruppe interessieren könnten, was zu einer Verzerrung der Analyse führen kann. Darüber hinaus erwähnt das Dokument seltsamerweise keinen einzigen Fall des Missbrauchs von von Google entwickelten künstlichen Intelligenztools.
Dennoch helfen uns die erzielten Ergebnisse zu verstehen, in welchem Ausmaß die Technologie die Qualität digitaler Informationen beeinflusst. Laut den Forschern unterstreicht dies die Notwendigkeit eines mehrgleisigen Ansatzes zur Reduzierung der Risiken eines böswilligen Einsatzes von Technologie.