Wenn Unkenntnis die „Lösung“ impliziert

Unkenntnis

Über (vorschnelle oder nicht hilfreiche) Lösungen hab' ich schon den ein oder anderen Artikel geschrieben. [1] [2] [3] [4]

In diesem Artikel muss ich mir mal meinen Unmut von der Seele schreiben, weil mir das beschriebene Szenario immer wieder begegnet und ich irgendwie noch nicht den richtigen Weg gefunden habe, der den betroffenen Personen wirklich gerecht wird und ihnen dann auch zu einer Lösung ihres Problems verhilft.

Mein Dilemma hat sich auch bei der Findung des passenden Titels für diesen Artikel ausgedrückt. Statt Unkenntnis stand auch Unwissenheit oder noch provozierender keine Ahnung zur Auswahl. Ich habe mich dann für Unkenntnis entschieden, in der Hoffnung, dass ich damit nur einen Zustand beschreibe und keinen Betroffenen persönlich zu nahe trete.

Bei mir treffen öfters mal Anfragen ein, in denen eine bestimmte Kompetenz in Verbindung mit einer Aufgabenstellung angefragt werden. Die entsprechende Aufgabenstellung beschreibt dann oft detailliert eine Form des Lösungswegs, um ein bestimmtes Ziel zu erreichen.

Was ich eben immer wieder „spannend“ finde, ist eben die Vorgabe des Lösungswegs, der mit der angefragten Kompetenz verbunden ist. Bzgl. dieser angefragten Kompetenz geht meine Vermutung dahin, dass sie nicht angefragt werden würde, wenn sie in der Organisation vorhanden wäre.

Daraus ergibt sich dann für mich die Frage, woher die Schlussfolgerung auf den Lösungsweg kommt, wenn die zugehörige Kompetenz aber gar nicht vorhanden ist. Nicht selten wird das dann noch davon gekrönt, dass dieser Lösungsweg sich scheinbar aus der Problemstellung ergibt, wozu ich wiederum besagte Kompetenz voraussetze.

Besonders interessant wird es, wenn die Kompetenz sowohl auf einer operativen als auch strategischen Ebene gefordert wird, also wieder in meiner Annahme mindestens in der Kombination nicht vorhanden sein kann.

„Es ist nichts schrecklicher als eine tätige Unwissenheit.“

– Johann Wolfgang von Goethe

Soweit also mal das Problem. Dass ich noch keine Lösung hab', hatte ich schon geschrieben. Dann liegt es nahe sich mit den Ursachen zu beschäftigen, idealerweise mit den Beteiligten. Unglücklicherweise sind die allerdings Teil des Problems und stehen deshalb unter Umständen der Fragestellung nicht ganz neutral gegenüber (was bspw. die Warum-Frage auch schon ausschließt).

Was macht man also in solchen Fällen?

In Zeit von ChatGPT & Co. fängt man einfach mal eine Diskussion mit einer KI darüber an.

Diesen Dialog jetzt hier einzufügen, würde den Rahmen des Artikelumfangs deutlich sprengen. Deshalb gebe ich nur meine Eindrücke und Schlussfolgerungen weiter, ohne den Anspruch auf Korrektheit.

Bemerkenswert fand ich dabei, dass in den Antworten von ChatGPT selbst auch Lösungen genannt wurden, statt auf die Ursachen der Situation einzugehen. Da es sich grundsätzlich und vereinfachend ausdrückt bei allen KI-Antworten immer nur um ein statistisches Abbild der zugrundeliegenden Trainingsdaten handelt, interpretiere ich dieses „Verhalten“ mal so, dass wohl auch in den Trainingsdaten viel mehr Lösungen als Ursachenanalysen enthalten sind.

ChatGPT unterliegt also der gleichbaren Problematik, dass viel zu schnell Lösungen definiert, als dass Ursachen analysiert werden.

Gleichzeitig bin ich mich aber auch bewusst, dass diese Interpretation auch nur eine Hypothese ist. Deshalb habe ich die Unterhaltung auf dieser Ebene noch etwas weitergeführt.

An der Fortsetzung war bemerkenswert, dass er jetzt selbst den Aspekt Wahrscheinlichkeit als Basis seiner Antworten und gleichzeitig den bewussten Versuch einer Erklärung ins Spiel gebracht hat. Bei manchen Antworten bin ich auch den Verdacht nicht ganz losgeworden, dass die Erklärungsversuche leichte Tendenzen von Ausreden hatten, bspw. Zeit- und Ressourcenmangel. Auch das könnten wiederum Abbilder der Trainingsdaten sein.

Über die rein inhaltliche Ebene hinaus, ist mir auf jeden Fall auch noch aufgefallen, dass er immer wieder mit der Komplexität (scheinbar) überfordert war und es im Verlauf der Unterhaltung öfters zu Wiederholungen kam (vermutlich durch die technisch beschränkte Anzahl der berücksichtigbaren Tokens).

Als Fazit habe ich für mich (wieder) die Schlussfolgerung gezogen, dass ChatGPT durchaus ein Impulsgeber sein kann, dass man aber in speziellen Fällen nicht zu viel erwarten darf. Trotzdem kann auch Reflexion auch dieser „Irrtümer“ den eigenen Horizont erweitern und ist deshalb lohnend, auch wenn dann kein greifbares Ergebnis entsteht.

Und wenn der Artikel zu gar nix gut war, hat er mir zumindest gezeigt, wie oft ich schon Artikel geschrieben hab', die irgendwas mit Lösungen zu tun haben und was dabei schiefen gehen kann. Die folgenden vier Links sind nur ein Auszug dessen.

[1] Warum gute Antworten nicht immer gute Lösungen sind
[2] Warum Wissen keine Lösung ist
[3] Warum Lösungen manchmal keine Lösung sind
[4] Warum Lösungen nicht immer Lösungen sind

Frage: Wo hat Ihnen die eigene Unkenntnis schon mal einen Streich gespielt? Wie sind Sie damit umgegangen? Was wären mögliche Alternativen oder Vermeidungsstrategien gewesen?

Sie können einen Kommentar hinter­lassen, indem Sie hier klicken.

Oder teilen Sie den Artikel, gerne mit Ihrem Kommentar, auf Ihrem bevorzugten Social-Media-Kanal und lassen andere an Ihrer Erkenntnis teilhaben.

Jetzt eintragen und Artikel/Denkanstöße zukünftig per eMail erhalten.

Artikel teilen auf ...

Hinweis: Ich behalte mir vor, Kommentare zu löschen, die beleidigend sind oder nicht zum Thema gehören.