• Frage: Gibt es Themen, bei der die KI nicht durch Informationen Entscheidung trifft, sondern durch eine fest stehende Programmierung?

    Frage gestellt dean26buy am 3 Jun 2024.
    • Foto: Anna-Maria Brandtner

      Anna-Maria Brandtner Beantwortet am 3 Jun 2024:


      Ohne „Informationen“ kann keine KI funktionieren, wenn man Informationen einfach als Daten über die Welt definiert. Es gibt aber zwei grundlegend verschiedene Funktionsweisen von KI, die du vielleicht meinen könntest.

      „KI“ ist in der Informatik „Machine Learning“. Heutzutage läuft dies meines Wissens nach ausschließlich über statistisches Lernen, also das Auswerten von großen Mengen von Daten, bei dem der Rechner/die Maschine gewisse Muster erlernt und dann umsetzt. Zum Beispiel lernt ein Sprachprogramm wie ChatGPT, dass im Deutschen auf ein „q“ immer ein „u“ folgt oder dass alle Ländernamen groß-, Länderartikel aber kleingeschrieben werden. Dazu gibt man dem Programm grob Millionen von Textseiten, und es „merkt“ und „erschließt“ sich alle Zusammenhänge von Buchstaben. Wenn „q“ immer zusammen mit „u“ auftaucht, wird es so lernen, immer ein „u“ an ein „q“ bei seinen Antworten zu hängen.

      Bis vor knapp zwanzig Jahren war Machine Learning jedoch hauptsächlich noch das Aufstellen von Regeln, nach denen der Rechner gewisse Eingaben zu gewissen Ausgaben übersetzt. Das nennt man „symbolische KI“. Die Regeln wurden von Menschen bewusst entworfen und in die Maschine einprogrammiert, während in modernen Machine-Learning-Systemen die Maschinen relativ selbstständig die Verbindungen von Aus- und Eingaben erlernen. Hierfür ist ein bekanntes Beispiel „Eliza“, ein Übersetzungsprogramm von Joseph Weizenbaum aus den 60ern, das bei einer Texteingabe bestimmte Schlüsselwörter nach vordefinierten Regeln suchte und auf Basis dieser einen Antworttext produzierte. Das Ergebnis ist ein KI-System, das wie ChatGPT Text auf Eingaben produziert, nur dass „unter der Haube“ technisch ein ganz anderes System wirkt. Die alten Systeme sind also vielleicht in deinem Sinn „feststehend“(er).

    • Foto: Knut Linke

      Knut Linke Beantwortet am 3 Jun 2024:


      Ja.

      Ein KI-System hat ein festgelegtes und antrainiertes Verhalten. Hier können z. B. bestimmte politische Verhaltensweisen, dass sich z. B. eine KI antisemitisch äußert, ausgeschlossen werden.

      Auch wenn ein KI-System dann für eine bestimmte Perspektive oder eine Anfrage eine andere Antwort generieren würde, wird das System dann – zu Recht – diese Perspektive nicht einnehmen.

    • Foto: Thorsten Thiel

      Thorsten Thiel Beantwortet am 4 Jun 2024:


      Stimme beiden Vorrednern zu. Wo man es schön sehen kann: Fragen Sie mal Gemini (die Google-KI) nach dem Datum der Wahlen in Thüringen und nach dem Datum des WM-Finales. Es beantwortet nur eine Frage (die nach dem Fußball), Wahlauskunft ist gerade zu heikel, selbst bei so trivialen Fragen

    • Foto: Diana Schneider

      Diana Schneider Beantwortet am 5 Jun 2024:


      Wie Du anhand der vorherigen Antworten lesen kannst, schließt sich das nicht aus. Es gibt ganz unterschiedliche Systeme: solche, die eine – wie Du schreibst – feststehende Programmierung haben und alle eingehenden Informationen nach diesem Schema F verarbeiten. Und dann gibt es Modelle, in denen der Algorithmus gelernt hat, was getan werden soll – und dieses Verhalten so lange wiedergibt, bis (1) etwas Neues gelernt wird, was zu diesem Modell nicht passt – und das Modell entsprechend angepasst werden muss, oder (2) dem Algorithmus gesagt wird „hier hast Du falsch gelernt“ oder „bitte mache bei dieser Information zukünftig folgendes“. Letzteres nennt man übrigens kontrolliertes Lernen.

Kommentare