-
Frage gestellt derm26fan am 5 Jun 2024.
-
Nico Noltemeyer Beantwortet am 5 Jun 2024: last edited 5 Jun 2024 7:48 am
Ich denke sehr gefährlich! Wenn Menschen in Machtpositionen zum Beispiel KI zur Überwachung, Cyberkriegsführung und auch zum Töten von Menschen (autonome Waffensysteme) nutzen. Eine Kriegsführung oder die Manipulation/Radikalisierung der Bürger:innen ist mit KI ebenfalls deutlich einfacher.
-
-
Diana Schneider Beantwortet am 5 Jun 2024:
KI kann sehr gefährlich sein, wenn sie in „falsche Hände“ gelangt. Aber um ehrlich zu sein: Sie kann auch sehr gefährlich werden, wenn sie in „richtigen Händen“ ist. Vielleicht hast Du mitbekommen, dass die EU gerade ein Gesetz zur KI verabschiedet? In dem Gesetz wird nicht nur definiert, welche KI-Systeme innerhalb der EU nicht eingesetzt werden sollen, sondern auch – und das wird eine wesentlich größere Anzahl an Systemen treffen – geregelt, welche Anforderungen KI-Systeme haben sollen, die ein erhöhtes Risiko für die Sicherheit, Gesundheit und die Grundrechte der EU-Bürgerinnen und EU-Bürger haben. Und das sind Systeme, die durchaus eingesetzt werden sollen, weil sie einen Mehrwert haben. Dass sie aber (endlich) auch reguliert werden, zeigt, dass man mit ihnen auch Unfug anstellen kann.
-
Knut Linke Beantwortet am 5 Jun 2024:
KI kann, wenn es falsch genutzt wird und in die falschen Hände kommt, durchaus gefährlich sein.
Ein gutes Beispiel ist hier die Fake-Call-Aktion mit Biden in den USA: https://www.heise.de/news/USA-FCC-will-Anrufe-mit-KI-generierten-Stimmen-verbieten-9615885.html
Hier werden wir in der nahen Zukunft bestimmt sehr viele Fälle von Ton- oder auch Bildfälschungen haben (neuer Enkeltrick per Videotelefonie o. ä.). Wir werden sich dann wahrscheinlich passende Schutzprogramme entwickeln lassen, die KI-Einsatz erkennen können.
-
Michael A. Hedderich Beantwortet am 5 Jun 2024:
Wenn Leute absichtlich KI für böse Zwecke verwenden, kann dies sehr gefährlich sein. Knut hat ja schon Beispiele genannt, wie Scammer versuchen Leute mit KI auszutricksen. Davon wird es vermutlich in Zukunft mehr geben und wir werden lernen müssen uns davor zu schützen, sowohl mit technischen Hilfsmitteln als auch mit unserem Verhalten (indem wir zum Beispiel mehr hinterfragen, ob das was wir lesen und sehen von Menschen stammt).
Die „falschen Hände“ können aber auch Leute sein, die gar nichts böses vorhatten, aber die Grenzen von KI nicht gut genug kennen. So haben manche KI-Systeme zum Beispiel Vorurteile und behandeln manche Leute besser als andere. Das ist ein Problem, wenn etwa eine KI automatisiert entscheiden sollen, wer einen Kredit bekommen soll oder wenn – in der Zukunft vielleicht – eine KI medizinische Entscheidungen treffen soll. Wenn man einfach ein KI-System verwendet ohne sich Gedanken über deren Grenzen zu machen, können gefährliche Fehler passieren.
Verwandte Fragen
Gibt es schon Ansätze, wie man gefakte KI Videos von echten Videos unterscheiden kann, zum Beispiel bei Verbrechen?
Welche Chancen und Risiken birgt Künstliche Intelligenz für die Demokratie?
Kann KI in politischen Prozessen oder in der Politik generell demokratische Entscheidungen beeinflussen?
Inwiefern werden uns KIs in den kommenden Jahren beeinflussen?
Kürzlich gestellte Fragen
-
Welche Herausforderungen siehst du bei der Vermittlung von Themen wie gruppenbezogene Menschenfeindlichkeit und
-
Gibt es schon Ansätze, wie man gefakte KI Videos von echten Videos unterscheiden kann, zum Beispiel bei Verbrechen?
-
Welche Chancen und Risiken birgt Künstliche Intelligenz für die Demokratie?
-
Was denken Sie? Wie gefährlich kann KI in den falschen Händen sein? (1 Kommentar)
-
Kann KI in politischen Prozessen oder in der Politik generell demokratische Entscheidungen beeinflussen? (1 Kommentar)
Kommentare
Teresa commented on :
Knut und Michael kann ich mich bei der Beantwortung dieser Frage nur anschließen: Nicht nur zwangläufig Menschen, die böse Absichten mit der Nutzung von KI-Systemen verfolgen, sondern auch Personen, die nicht umfassend auch über die Risiken der KI-Nutzung informiert sind, können als „falsche Hände“ angesehen werden. Zusätzlich zu Vorurteilen, die manchmal von KI-Systemen reproduziert werden, ist es manchmal auch so, dass KI-System Inhalte völlig neu „erfinden“ oder diese in einen falschen Zusammenhang setzen. So entstehen schnell realistische, aber falsche Inhalte. Die Sensibilisierung für die Gefahren von KI-Systemen ist daher von entscheidender Bedeutung.