• Frage: Wer ist dafür verantwortlich falls etwas schief geht?

    Frage gestellt deny26ebb am 30 Mai 2024.
    • Foto: Knut Linke

      Knut Linke Beantwortet am 30 Mai 2024:


      Das kommt auf die allgemeine Geschäftsbedingungen an O:-) und auf die Situation in der die KI eingesetzt wird.

      In der Realität ist der Anbieter eines Services für die KI verantwortlich. Es gibt auch EU-Regeln für den Einsatz von KI-Systemen. So müssen „kritische“ KI-Systeme von Menschen überwacht werden und der Anbieter muss dafür sorgen, dass es einen Not-Ausschalter gibt.

    • Foto: Thorsten Thiel

      Thorsten Thiel Beantwortet am 31 Mai 2024:


      Das ist eine Frage, die nicht einfach so feststeht, sondern die wir als Gesellschaft beantworten müssen. Und dafür haben wir ein Rechtssystem, in dem Verantwortlichkeiten hergestellt und zugeschrieben werden. Und das beginnt schon damit, dass man festlegt, wie Prozesse dokumentiert werden müssen und dass man gegen deren Ergebnisse Widerspruchsmöglichkeiten hat. Bei KI müssen wir hier noch einige Institutionen bilden, aber wir sollten nicht nru philosophisch diskutieren, ob die Maschine verantwortlich sein kann

    • Foto: Anna-Maria Brandtner

      Anna-Maria Brandtner Beantwortet am 3 Jun 2024:


      Inzwischen gibt es dafür tatsächlich Gesetze, die große Teile der Verantwortungsfrage rechtlich regeln. Übrigens ist die EU internationale Vorreiterin in der Gesetzgebung zu KI. Wenn euch diese Thematik interessiert, schaut euch gerne das „Gesetz über digitale Dienste“ (Digital Service Act) und das „Gesetz über digitale Märkte“ (Digital Markets Act) an. Der AI Act hat auch schön nachgelegt, vor allem in Sachen Kennzeichnung. Darauf kann man als Europäer*in richtig stolz sein. :))

      Als Ethikerin sehe ich aber ebenso noch große Lücken. Nehmen wir z.B. ChatGPT und die Frage der Zensur. Wie ihr sicherlich bemerkt habt, bekommt ihr auf manche Fragen keine Antwort oder nur eine sehr eingeschränkte Antwort. Das liegt daran, dass alle großen KI-Firmen ihre KI Systeme so trainieren, dass sie keine verwerflichen Aussagen treffen. Prinzipiell ist das auch richtig so.

      Die Firmen selber wollen da natürlich keine negativen Schlagzeilen schreiben oder gar verklagt werden. Da die größten KI Firmen in den USA sitzen, trainieren diese ihre KI Systeme nach der US-amerikanischen Moral und Gesetzgebung. Das heißt, das viel zensiert wird, was in Europa nicht so problematisch wäre. Selbst wenn die Aussagen aber problematisch wären, sollten wir als Bürger*innen aber Mitspracherecht haben, da diese Systeme so bedeutend sind und Fragen der Zensur gesellschaftlich-rechtlich diskutiert werden müssen. Die entsprechenden Firmen haben da also eine Verantwortung, die ich wegen der Bedeutung ihrer KI Systeme nicht ganz gerechtfertigt finde.

    • Foto: Diana Schneider

      Diana Schneider Beantwortet am 5 Jun 2024:


      Ganz viele Dinge haben meine Kolleginnen und Kollegen schon genannt. Ich denke, es ist wichtig zwischen den verschiedenen Dimensionen von Verantwortung zu unterscheiden: rechtliche Verantwortung, wo bspw. auch die Frage geklärt werden muss: Wer haftet eigentlich im Schadensfall? Und wie ist ein Schadensfall in Bezug auf KI definiert? Dann gibt es die moralische Verantwortung, soziale Verantwortung, gesellschaftliche Verantwortung – und die persönliche Verantwortung eines jeden Einzelnen. Wenn wir sagen, wir haben als Gesellschaft die Verantwortung für einen verantwortungsvollen Umgang mit KI Systemen zu achten, dann sollten wir auch unser eigenes Handeln danach ausrichten und hier Verantwortung übernehmen.

Kommentare