Das habe ich einmal mit ChatGPT ausprobiert, weil ich wissen wollte, ob da interessante Vorschläge kommen. Konkret habe ich nach einer Möglichkeit für asynchrone Datei-Eingaben unter Windows gesucht.
Der erste Vorschlag hat nicht funktioniert, und da kann man ja in einen Dialog treten: Ich habe also geantwortet, warum das nicht geht, und es kam prompt der nächste Vorschlag - der auch nicht funktioniert hat. Und so ging es weiter, die Vorschläge wurden immer komplizierter - aber keiner war richtig. Immerhin hatte nur einer einen Syntaxfehler. Die KI liest offenbar auch keine Dokumentation und empfiehlt auch Lösungen, bei denen explizit dokumentiert ist, dass sie unter Windows nicht funktionieren.
Die weiteren Details habe ich vergessen, aber die Erkenntnis war: Die KI tritt verblüffend selbssicher auf mit ihren fehlerhaften Vorschlägen. Das taugt vielleicht, um sich auf ein paar Ideen bringen zu lassen, oder wenn zufällig das exakt gleiche Problem schon mal von ChatGPT gelöst worden ist, aber sonst ist es zweifelhaft.
Auf PerlMonks hat
cavac mal AI-Code präsentiert, da habe ich auch im Review recht schnell zwei Fehler gefunden. Die Bemerkung von Hauke, dass eine KI leider keine Tests mitliefert, kann ich auch nur unterschreiben.
Mein Fazit: Das ist tückisch, weil der Code so plausibel aussieht und sich die KI auch nicht wirklich verantwortlich fühlt für das, was sie abgibt. Auf die Ausrede "ich kann nichts dafür, der Code kommt von der KI" braucht man vielleicht nicht mehr lange zu warten.