Neues von der KI
Meine Programmierversuche mit der KI habe ich mehr oder weniger aufgegeben. Der hauptsächliche Grund ist: Der Aufwand, den ich betreiben muss, bis ich das erwünschte Ergebnis habe, dürfte mehr Zeit kosten, als ich in den nächsten zehn Jahren für diese Probleme aufwende, wenn ich sie auf meine bisherige Weise löse.
Warum rede ich von 10 Jahren? Ich gehe wegen meines Alters davon aus, dass ich die nächsten 10 Jahre noch unterrichten werde.
Was sind aber die Hauptprobleme gewesen?
Die KI, meist Gemini:
- hat keine Selbstkontrolle,
- verliert deswegen das Ziel aus den Augen,
- vergisst gegebene Informationen,
- täuscht die Erledigung von Aufgaben vor.
Im Grundprinzip weiß ich, wie die Dinge gehen müssten, aber ich weiß nicht, was man genau machen müsste.
Zum Beispiel habe ich versucht, einen Music-XML-nach-LilyPond-Code-Konverter zu bauen. Grundsätzlich ist das Prinzip klar: Gehe das Music-XML durch und schreibe die Sachen, die zusätzlich an den Noten stehen, um. Achte darauf, dass bestimmte Dinge, die im Music-XML zu einer bestimmten Klasse gehören, dann zu einer bestimmten Klasse im LilyPond-Code gehören. Die KI werkelte dann fröhlich vor sich hin. Das Ergebnis war, dass die KI das Zeitkonzept von Music-XML nicht verstanden hatte, obwohl ich der KI gesagt hatte, sie möge doch die Music-XML-Dokumentation konsultieren. Es stellte sich heraus, dass die KI dies nicht gemacht hatte und dass ich ihr sehr ausdrücklich auf die Füße treten musste, damit sie endlich in der Music-XML-Dokumentation nachsah. Dann funktionierte der Konverter so einigermaßen.
Anderes Beispiel: Ich habe versucht, mir einen weiteren Konverter von Music-XML in eine MIDI-Datei schreiben zu lassen. Aus meinen bisherigen Erfahrungen heraus habe ich der KI eine Ausgangsdatei und eine Zieldatei zur Verfügung gestellt, damit sie überprüfen kann, ob der Konverter funktioniert. Was machte aber die KI?
Sie las die Daten aus dem Music-XML aus, übersetzte diese in MIDI-Daten und schrieb dann ein Programm, das nur diese Daten in eine MIDI-Datei schrieb.
Bei einem anderen Projekt gab ich der KI ein Flussdiagramm, mit dem ich der KI klarmachen wollte, was verlangt war. Die KI werkelte fröhlich vor sich hin und ich stellte plötzlich fest, weil ich den Gedankenprozess mitlesen konnte: Was hat das mit meinem Flussdiagramm zu tun?
Die KI hatte im Verlauf ihrer Arbeit schlichtweg das Ziel und das Flussdiagramm vergessen und wollte einen eigenen Algorithmus für mein Problem entwickeln.
Deswegen war ich jetzt sehr fasziniert von dem Begriff Metaprompt. Bei einem Metaprompt gibt man der KI eine Datenquelle, auf welche sich die KI allein beziehen darf. Dieser Begriff wurde in einem ARD-Podcast erläutert, der beschrieb, wie man KI im Unterricht verwenden könnte.
Das musste ich natürlich ausprobieren. Also lud ich mein Unterrichtsmaterial für meine Anfängerinnen und Anfänger in die KI hoch. Die KI bekam den Auftrag: Wenn dich ein Schüler fragt, darfst du ihm nicht die Antwort verraten, sondern gibst ihm Tipps, wo er nachschauen muss und worauf er achten sollte. Weiter: Sie darf nichts hinzuerfinden und sich nicht auf externes Wissen beziehen. Danach fragte ich die KI: ‚Auf was für einer Saite greife ich das a?‘
Ich bekam die Antwort, ich möge auf Seite 68 schauen und dort die Saiten abzählen. Ich möge von der dicken zur dünnen Saite zählen. Das Problem ist: Auf Seite 68 gibt es ein Griffbild des Tons a, aber es gibt keine dicken und dünnen Saiten. Alle Saiten sind gleich dick. Also bat ich die KI – ehrlich gesagt habe ich sie nicht gebeten, sondern, weil ich schon häufig solche eigenartigen Erlebnisse hatte, sehr missmutig angemotzt: ‚Sie möge mir doch bitte eine Anleitung für den Metaprompt schreiben, sodass nichts hinzuerfunden wird, auch bei den Grafiken.‘
Diesen Prompt verwendete ich, und schon wieder kam die Antwort mit den dünnen und dicken Saiten.
Was mich zu meinem momentanen Hauptproblem mit KI führt: Einerseits muss man herausfinden, wie man eine KI steuert, damit sie einem die richtige Antwort gibt, aber dann gibt es ein neues Update oder vielleicht eine neue Gewichtung, und fünf Tage später funktioniert das alles nicht mehr. KI ist einfach zu unzuverlässig, als dass man mit ihr verlässlich arbeiten könnte. Man kann keine Workflows mit ihr entwickeln.
Man könnte sich Programme schreiben lassen, um eine gewisse Automatisierung zu erreichen. Siehe weiter oben, das waren solche Versuche.
Weiter hat KI keine Selbstkontrolle. KI antwortet zwanghaft. Ein Mensch ahnt, wann er keine Ahnung hat und deswegen keine Antwort geben sollte. Ein Mensch gibt das sogar zu. Eine KI plappert und handelt einfach munter drauflos, egal wie unfundiert die Antwort ist. Weil die KI nicht zu einer Selbstreflexion fähig ist, stiehlt sie eher Zeit, als dass sie hilft.
Ich frage KIs teilweise schon gar nicht mehr, ob etwas mit ihnen möglich ist, weil die Antworten vor Zuversicht strotzen, die garantiert keine Berechtigung hat.
Der Beitrag wurde am Samstag, den 28. März 2026 um 08:49 Uhr veröffentlicht von Stephan Zitzmann und wurde unter den Kategorien: Eingeschoben, Künstliche Intelligenz abgelegt. | Es gibt keinen Kommentar .