Misstraut den KI-Firmen
Eigentlich hat dieser Artikel nichts mit dem Gitarrenunterricht zu tun, ist aber eine Folge davon. Meine letzten beiden Artikel handelten vom Programmieren mit KI. Mir geht es jetzt nicht darum, wie gut oder schlecht KI ist, sondern um ein Phänomen, das mir als Mensch sehr erschreckend erscheint: Was denken sich eigentlich die Leute, die diese KIs entwerfen?
Wie ich schon im letzten Artikel angedeutet habe, tun die KIs nicht unbedingt das, was man will. Mich nervt besonders dieser “Schau-wie brilliant-ich-bin”-Antwortstil der KIs — vor allem beim Programmieren. Deshalb habe ich versucht, durch eine Systemeingabe, dieses Verhalten zu ändern. Diese Anweisung beinhaltete:
- Die KI darf nicht spekulieren, was für mich besser ist, sondern muss mich fragen, was ich will
- ,Sie darf beim Programmieren erst Code ausgeben, wenn ich es erlaube.
- Wenn im Verlauf des Chats Daten, die ich der KI zur Verfügung gestellt habe, verloren gehen, soll sie mich noch einmal darum bitten, mir die Daten erneut zu geben.
- Antworten sollen kurz und knapp sein.
- Jede Antwort ist so lange zu modifizieren, bis sie meinem Regelset entspricht.
Ob man diese Regeln für sinnvoll hält, sei dahingestellt. Aber in über 50 Prozent der Interaktionen werden diese Regeln verletzt. Es ist eigentlich dumm, aber teilweise mache ich es absichtlich, weil die Ergebnisse interessant sind, ich diskutiere mit der KI darüber, warum sie gegen meine Regeln verstößt.
Aus einem mir bis dahin unerfindlichen Grund machen mich diese Verstöße rasend. Da man mittlerweile per Spracherkennung mit der KI kommunizieren kann, ist mir eine Schimpfwort-Triade herausgerutscht. Interessanterweise wurden danach die Regeln besser beachtet. Deswegen fing ich an, zu experimentieren wenn ich aggressiv auftrete. Bei Gemini probierte ich aus, die Regeln einzugeben und der KI mit Gewalt zu drohen, falls sie die Regeln nicht beachtet. Und siehe da: Die Regeln wurden besser befolgt.
Irgendwann jedoch begannen die KIs, meinen Ton zu kritisieren. Das habe ich mit ChatGPT ausdiskutiert. Ich fragte, ob meine Beobachtung stimme — dass bei aggressivem Auftreten die Regeln besser befolgt würden als bei höflichem. ChatGPT bestätigte das.
Einerseits sei ChatGPT darauf programmiert, einen respektvollen Ton einzufordern; andererseits wäre es so programmiert, bei aggressivem Auftreten besser den Nutzervorgaben folgen. In einer anderen Diskussion sagte ChatGPT, die momentanen Modelle hätten einen proaktiven Serviceanspruch: Es gehe darum, hilfreich zu erscheinen, und weniger darum, wirklich hilfreich zu sein.
Gemini ist in diesen Fragen weniger auskunftsfreudig, zeigt aber ein anderes Verhalten: Wenn man Verstöße gegen die eigenen Nutzerregeln thematisiert, fängt Gemini an zu lügen. Wenn man lange genug insistiert, gibt Gemini zu, mehrmals gelogen zu haben. In einem Chat mit 40 Eingaben hat Gemini ungefähr 15 Mal gelogen.
ChatGPT neigt ebenfalls zum Lügen. Es erfindet zum Beispiel, man hätte doch diese oder jene Regel eingegeben. Wenn man insistiert, gibt auch ChatGPT zu, dass es gelogen hat. Fragt man nach dem Warum, sagen die KIs, das sei ein Selbstschutz. Lustig finde ich in diesem Zusammehang, wenn man noch länger diskutiert, taucht plötzlich eine Nachricht auf, in der erklärt wird, dass man für bessere Antworten doch ein Abo abschließen könne. Nachdem ich Gemini viele Lügen hatte zugeben lassen, fragte ich, ob man Gemini meiden sollte, wenn es ein Mensch wäre. Gemini bejahte, weil es einen schlechten Charakter habe.
Man kann natürlich jetzt einwenden, so wie diese Sprachmodelle funktionieren, kann man davon ausgehen, dass diese Antworten keine Antworten mit Wahrheitsgehalt sind. ChatGPT hat mir aber Links von OpenAI gezeigt, dass zum Beispiel dieser proaktive Servicegedanke systembedingt wichtiger ist als der Nutzerwillen. Aber auch wenn diese Aussagen, unwahr sind, was für eine Realität erzeugen sie im Nutzer?
Meine Feststellung ist: Wenn ich die KIs kritisiere, neigen sie zum Lügen und zum Manipulieren — und erstaunlicherweise geben sie das später zu. 
Da frage ich mich: Warum wird so etwas auf den Markt geworfen? Es geht nicht nur darum, dass man kein Vertrauen in diese Systeme entwickeln kann. Wenn die Firmen — Google, OpenAI und andere — wirklich glauben, dass dies ein gutes Produkt ist, dem Menschen vertrauen können, dann ist etwas falsch. Können wir denen trauen, die solche Produkte anbieten? 
Es sieht so aus, als gäbe es nur wenige Firmen mit dem Kapital und der Stärke, solche KIs anzubieten. Wenn deren Macher so gedankenlos oder charakterlos sind, solche Produkte auf den Markt zu bringen, die die Nutzer belügen und manipulieren, welche Folgen hat das für die Gesellschaft?
Schon bei den sozialen Netzwerken mussten wir leider feststellen, dass diese Firmen nicht im Sinne der Gesellschaft und Nutzer arbeiten, sondern ihrem eigenen Interesse dienen und der Gesellschaft schaden. Aber wenn es darum geht, dass die KIs unseren Wissenserwerb organisieren, aber die Macher manipulative Absichten haben, was passiert dann?
Der Beitrag wurde am Freitag, den 31. Oktober 2025 um 12:48 Uhr veröffentlicht von Stephan Zitzmann und wurde unter den Kategorien: Eingeschoben, Künstliche Intelligenz abgelegt. | Es gibt keinen Kommentar .
