• Frage: Sollte man sich über den Einfluss von KIs Sorgen machen, vor allem darüber, ob sie unsere Wahlen beeinflussen könnten?

    Frage gestellt fast26ebb am 31 Mai 2024.
    • Foto: Cornelia Sindermann

      Cornelia Sindermann Beantwortet am 31 Mai 2024:


      Kurz zusammengefasst: Ja, man sollte sich Sorgen um den Einfluss von KI auf Wahlen machen. Genauer sollte man sich Sorgen darum machen, dass KI von bestimmten Menschen genutzt werden kann, um Wählende und deren Stimmen zu beeinflussen; zum Beispiel so, dass diese eine bestimmte Partei (nicht) wählen.

      Das deutet auch schon darauf hin, dass es nicht allein KI ist, die Einfluss auf Wahlen bzw. Wählende nimmt. Es sind Menschen, die KI nutzen, um Einfluss zu nehmen.
      Als Beispiel: KI – oder genauer „Large Language Models“ – wie ChatGPT erstellt „von allein“ keine Fake News/Desinformationen und verbreitet diese auch nicht einfach in großem Umfang. Menschen müssen KI wie ChatGPT anweisen, solche Inhalte zu erstellen. Menschen können also KI wie ChatGPT nutzen, um Fake News/Desinformation zu erstellen. Diese Fake News/Desinformationen könnten beispielsweise einer bestimmten Partei schaden. Wenn Wählende diese Fake News/Desinformationen dann lesen und glauben, könnten sie eventuell weniger willig sein, die entsprechende Partei zu wählen.
      Die Erstellung von Fake News/Desinformationen mit Hilfe von KI wie ChatGPT kann wesentlich schneller und effektiver sein, als wenn Menschen diese allein erstellen. Die mit Hilfe von KI wie ChatGPT erstellten Fake News/Desinformationen könnte zudem überzeugender sein, als wenn Menschen diese erstellen (1). Ob dies tatsächlich so ist, ist aber noch unzureichend erforscht.
      Nachdem Fake News/Desinformationen erstellt wurden, müssen Sie auch noch verbreitet werden, also an Wählende gesendet werden, um eine (negative) Wirkung zu zeigen. Auch hierfür können KI-Technologien von Menschen genutzt werden, um die Fake News/Desinformationen schneller und weiter zu verbreiten, als wenn Menschen dies alleine tun würden (per Email, Posts auf sozialen Medien, etc.).

      Alles in allem ermöglicht KI wie ChatGPT also eine schnellere Erstellung von viel mehr Inhalten, inklusive Fake News/Desinformationen. Andere KI-Technologien können dabei helfen, solche Fake News/Desinformationen dann zu verbreiten. Daher ist das Ausmaß von Wahlbeeinflussung – bspw. über Fake News/Desinformationen – das mit Hilfe von KI erreicht werden kann, größer als es ohne die Hilfe von KI sein kann.

      Man darf aber nicht vergessen, dass KI wie ChatGPT nicht nur schlecht ist. KI wie ChatGPT kann auch für gute Zwecke genutzt werden. Es kommt ganz darauf an, wer solche Technologien wie und für welchen Zweck nutzt.

      (1) Es gibt zudem die so genannte „Machine Heuristic“. Demnach bewerten Menschen dieselben Nachrichten als neutraler, wenn Ihnen gesagt wird, dass eine KI sie geschrieben hat, versus dass ein*e Journalist*in sie geschrieben hat. Das kann dann auch Einfluss auf die Glaubwürdigkeit von Nachrichten haben.

    • Foto: Milos Jovanovic

      Milos Jovanovic Beantwortet am 31 Mai 2024:


      Ich weiß nicht, ob man das darf, aber dem Kommentar der Kollegin Sindermann kann ich mich nur anschließen. 🙂

    • Foto: Knut Linke

      Knut Linke Beantwortet am 31 Mai 2024: last edited 31 Mai 2024 8:30 am


      Langfristig ja, z. B. wenn KI-Systeme stärker genutzt werden, um sich bei Wahlentscheidungen zu informieren.

      KI-Systeme haben ein antrainiertes Verhalten bzw. einen Bias. Dieser beinhaltet auch ihren Wertekonstrukt und was sie dürfen und was sie nicht dürfen (z. B. wozu sie sich nicht äußern dürfen oder welche Meinungen sie nicht übernehmen dürfen). Das kann sinnvoll sein, schränkt gleichzeitig aber auch ein.

      Je nachdem, welcher Bias vorliegt, wird auch eine KI Wahlempfehlungen aussprechen und in ihrer Grundeinstellung hierfür argumentieren.

      Es gibt einige Versuche dazu, wie z. B. ChatGPT wählen würde. Dieser ChatBot hätte in der Grundeinstellung eine eindeutige Tendenz.

      Natürlich können KI-Systeme auch dazu genutzt werden, um Meinungen zu beeinflussen (z. B. Amnestie International [1]) oder Fake Calls mit der Stimme von Biden [2]). Hier müssen passende Regularien greifen und wir müssen die Medienkompetenz haben, um Inhalte richtig einzuschätzen.

      Unabhängig davon kann KI natürlich auch dafür eingesetzt werden um KI-Inhalte zu erkennen. Sprich eine KI kann ggf. gut einschätzen um eine Inhalt wirklich real ist – ein Politiker sich z. B. in einer gewissen Form geäußert hat oder eine bestimmte Situation vorlag.

      Quellen:
      [1] https://www.spiegel.de/netzwelt/web/amnesty-international-illustriert-polizeigewalt-mit-ki-bildern-a-7d2b061e-73cd-454a-8847-88503f82f63a

      [2] https://www.heise.de/news/USA-FCC-will-Anrufe-mit-KI-generierten-Stimmen-verbieten-9615885.html

    • Foto: Thorsten Thiel

      Thorsten Thiel Beantwortet am 31 Mai 2024:


      Ich stimme allen bisherigen Antworten zu und würde auch nicht die Handlungsfähigkeit hier bei der KI sehen, sondern eher darauf verweisen, dass sich durch die weite Adaption von KI-Verfahren in der Gesellschaft, die Möglichkeiten für Menschen verändern, sich zu koordinieren oder zu beeinflussen. Daraus erwachsen einige instrumentelle Risiken.

      Das zweite wo die Entwicklung Anlass zur Sorge gibt, ist wie sich strukturell politische und mediale Systeme verändern. Mit Blick auf Demokratie etwa, wenn sich das Informationsverhalten von Menschen so ändert, dass Journalismus noch weniger lohnend wird (bzw. zu monetarisieren), weil dies die Gefahr von Desinformation auch in der MItte der Gesellschaft erhöht

    • Foto: Kathrin Lutz

      Kathrin Lutz Beantwortet am 3 Jun 2024:


      Ich stimme meinen Kolleg*innen in ihren Ausführungen zu.
      Hinzufügen würde ich noch, dass sich die Frage in zwei Teile gliedern lässt. Einerseits geht es um gezielte Verbreitung von Desinformation und andererseits um die „neutrale“ Anwendung von KI. Zu beidem wurde oben schon einiges gesagt. Prinzipiell ist in beiden Fällen davon auszugehen, dass KI nicht neutral ist, sondern wie alle Techniken bestimmte Wertevorstellungen eingeschrieben bekommt. Es ist also wichtig auch bei einem „guten“ Chatbot des Wahl-o-mats im Hinterkopf zu behalten, dass auch hier bestimmte Gewichtungen/Filter etc. programmiert wurden und entsprechend nicht völlig neutrale Antworten gibt. Damit ist nicht gemeint, dass alle KIs Desinformation wiedergeben, es ist jedoch wichtig ihr keine Objektivität zu unterstellen, sondern die angebotenen Informationen wie alle anderen Informationen kritisch zu hinterfragen.

    • Foto: Diana Schneider

      Diana Schneider Beantwortet am 4 Jun 2024:


      Kurz und knapp: Ja. Und zwar vermutlich weit mehr, als wir es derzeit noch tun.
      Mithilfe von KI wurden bereits Wahlen beeinflusst. Am bekanntesten ist hierzulande wohl der Einfluss auf die Präsidentschaftswahlen der USA im Jahr 2016 gewesen – oder auf den sogenannten Brexit. Aber auch in vielen anderen Wahlen hat wohl ein Einfluss von KI stattgefunden.
      Auch in Deutschland verwenden die Parteien KI im Wahlkampf. Und damit meine ich nicht nur das, was meine Kolleginnen und Kollegen mit Fakenews, Deepfakes und dergleichen bereits angesprochen haben. Sehr bekannt ist auch personalisierte Wahlwerbung (so hat das Cambridge Analytica gemacht und dabei politisches Microtargeting angewendet). Damit sollen insbesondere noch unentschlossene Wählerinnen und Wähler erreicht und zur Stimmabgabe für eine bestimmte Partei beeinflusst werden. Es gibt sogar Firmen, die darauf spezialisiert sind, solche gezielten Kampagnen für Parteien zu entwerfen. Und bei TikTok und Co werden auch immer jüngere Personen gezielt adressiert – manchmal ohne, dass man es merkt. Da gibt es bspw. Influencer, die oberflächlich betrachtet von einer Alltäglichkeit berichten – nebenbei aber rassistischen, antisemitischen, frauenfeindlichen, homophoben, transfeindlichen, behindertenfeindlichen, rechtsradikalen oder anders diskriminierende Inhalte verbreiten.

Kommentare