Nutzung von KI/LLMs Ende 2024

In diesem Post versuche ich, meine Erfahrung mit (Nicht-) Nutzern und Nutzerinnen von Large Language Models (LLM), wie ChatGPT, Anthropics usw. aus meinem sozialen Umfeld zu reflektieren.

Steve Jobs erzählte in einem Interview, dass der Personal Computer (=Mac) wie ein „Bicycle for the mind“ sei. Er bezog sich auf eine Studie über die Energieeffizienz verschiedener Spezies bei der Fortbewegung. Der Mensch schnitt schlechter ab als Tiere wie der Kondor, doch auf einem Fahrrad übertraf er alle. Jobs sah Computer ähnlich: Sie steigern das geistige Potenzial, wie ein Fahrrad die körperliche Effizienz. Mit Computern könnten Menschen schneller denken, kreativer arbeiten und komplexe Probleme lösen.

Large Language Models (LLMs) sind KI-Systeme, die mithilfe riesiger Datenmengen trainiert wurden, um menschliche Sprache zu verstehen, zu generieren und darauf zu reagieren. Sie sind schon seit über zehn Jahren in Entwicklung, bekamen aber seit 2022 vermehrt Aufmerksamkeit und wurden in Form von ChatGPT für viele Menschen nutzbar. Firmen wie Open AI oder Anthropics haben sie auch kostenlos verfügbar gemacht, um Aufmerksamkeit und Investorenkapital zu mobilisieren.

In meinem Freundeskreis gehört die überwiegende Mehrheit der Menschen bisher zu den Late- oder Non-Adaptern. Aus meinen Lehrveranstaltungen (2024) schätze ich, dass nur gut die Hälfte der Studierenden bisher Erfahrungen mit LLMs gesammelt hat. Beide Beobachtungen haben eine kleine Stichprobe, die erste ist auch durch mein Alter (Ende 60) beeinflusst.

Es ist interessant, das Akzeptanzverhalten bei LLMs mit der Akzeptanz von Textverarbeitung, des Internets (besonders Google) zu vergleichen. Seit Ende der 1980er Jahre verbreitete sich Textverarbeitung. Es gab am Anfang viele Vorbehalte über ihren Nutzen und auch Versuche, ihre Einführung in Institutionen und Unternehmen zu verhindern. Ein humorvoller Clip aus einer norwegischen TV-Show zeigt die Vorbehalte gegenüber Textverarbeitung – transportiert auf den Übergang vom Schreiben auf Papierrollen zum Schreiben in Buchkladden zwischen 1. und 4. Jahrhundert. Ich kann mich an ähnliche Probleme und Argumente noch in den 1990er Jahren erinnern. 10 Jahre später hatte ich noch Kollegen, die E-Mails von ihren Sekretärinnen ausdrucken ließen und sie mit dem Bleistift am Rand beantworteten. Die Sekretärinnen tippten das dann ab und versandten die Antwortmails. Inzwischen nutzen diese Kollegen allerdings auch Textverarbeitung, E-Mails und das Internet.

Auch die Nutzung des Internets und insbesondere von Google-Recherchen brauchte lange, um sich weit in der Gesellschaft zu verbreiten. Das Lebensalter spielt dabei eine wichtige Rolle. In einem höheren Alter „lohnt es sich halt nicht mehr, das noch zu lernen“. Auch kognitiv fällt es älteren Menschen schwerer, sich auf neue Werkzeuge und Denkkonzepte einzulassen oder umzustellen. Die Gründe sind vermutlich weniger physiologisch als im zweischneidigen Wert von Erfahrung zu suchen. Erfahrung hilft in vielen Tätigkeiten, Aufgaben schnell zu erledigen. Aber Erfahrungen blockieren oft auch den Zugang zu Neuem. Das Bildungssystem und die Arbeitserfahrung in vielen Berufen unterstützen oder erfordern auch eine gewisse Abstumpfung. Lange nachdem die Tätigkeit des Feilens keine Rolle mehr im metallverarbeitenden Gewerbe spielte, war diese Tätigkeit noch stark in der Ausbildung von Metallarbeitern vertreten. Ihre Funktion bestand darin, die Auszubildenden darin zu trainieren, Monotonie zu ertragen. Ähnlich implizite Ausbildungsprozesse gibt es in vielen Berufen und Karrieren auch heute noch, auch wenn es eher darum geht, institutionalisierten Bullshit ertragen zu können. In vielen Berufen und abhängig von individuellen Dispositionen blockiert dies auch das viel gelobte lebenslange Lernen. Diese Blockaden verhindern bei älteren Menschen, dass sie Dinge mit Google oder auf YouTube suchen, die ihre Kinder oder Enkelkinder ganz selbstverständlich suchen – und auch beantwortet bekommen.

Für viele Menschen ist heute auch noch wenig praktischer, insbes. beruflicher Nutzen aus der Anwendung von LLMs zu erkennen. Das wird sich 2025 etwas ändern, wenn LLMs niedrigschwelliger auf Smartphones verfügbar werden. Das war bei Textverarbeitung und Internet anfangs ähnlich.

Die Nutzung von ChatGPT unterscheidet sich etwas von den genannten früheren Innovationen. Einerseits haben die Programme sehr schnell Fortschritte in der leichten Nutzbarkeit gemacht, man kann sich z.B. mit ChatGPT inzwischen sehr gut akustisch und natürlich unterhalten. Andererseits ist aber die Spezifik der Nutzbarkeit heute schwieriger zu durchschauen als bei Textverarbeitung oder Google-Recherche.

Das führt dazu, dass ich die Early Adopters in zwei Untergruppen unterteilen will. Nennen wir die erste Gruppe die „Mis-Users“.

Im Beispiel des „Bicycle for the mind“ erhöht das Fahrrad die Effizienz der Fortbewegung, aber es ist völlig klar, dass der Mensch das Fahrrad lenkt, und seine Muskelkraft bleibt der Antrieb. So ähnlich ist es auch bei Textverarbeitung und Internet.

Bei ChatGPT kann das Missverständnis entstehen, dass die KI die Richtung bestimmt und der Beitrag des Nutzers nur noch im Cut und Paste besteht. Eine Nutzung von LLMs, die so vorgeht, ist fatal. Alle LLMs „halluzinieren“ immer wieder, insbesondere wenn sie mit für sie nicht beantwortbaren Fragen konfrontiert werden. Es besteht wenig Hoffnung, dass sich dies bald ändern könnte. Viel hängt von den Prompts ab, mit denen LLMs befragt werden. Dies ist ähnlich wie die „Kunst des Googelns“. Qualifikationen wie ein großer Wortschatz des Nutzers und eine differenzierte Denkweise, aber v.a. auch Erfahrung mit dem Werkzeug sind wichtig.

Aus meiner (immer noch) Tätigkeit als Hochschullehrer (aber nicht nur) sehe ich gelegentlich Missbrauch von ChatGPT. Im Kontext von Hochschulen taucht die Frage auf, welche Nutzung von LLMs legitim ist und wie man es erkennen kann, ob Arbeiten mit/von LLMs geschrieben wurden. Die Regulierung der legitimen Nutzung ist einfach und in vielen Fakultäten bereits umgesetzt. Die Feststellung, ob eingereichte Texte illegitim sind, ist schwierig. Eine maschinelle Lösung gibt es dafür meines Wissens nicht, anders als bei Plagiatsdetektoren. Wenn man viel mit ChatGPT arbeitet, erkennt man den „Sound“. Aber das wäre auch zu vermeiden, weil es inzwischen KI-basierte Programme zur „Humanisierung“ von Texten durch Paraphrasierung gibt. Ein mündliches Gespräch kann hier schnell Aufschluss über die geistigen Eigentumsverhältnisse geben.

Menschen, die ChatGPT das Lenken und das Ausformulieren überlassen, werden damit auf die Dauer nicht sehr erfolgreich sein. Oft geben kleine Fehler Aufschluss für andere und zerstören die Reputation. In vielen Fällen wäre es besser gewesen, wenn diese Menschen keine LLMs verwendet hätten. Das gilt aber auch für Textverarbeitung oder Autos. Noch besser ist es, den Gebrauch von LLMs zu lernen. Dazu gibt es viele Anleitungen in YouTube, aber auch Bücher und Videokurse.

ChatGPT und Co. werden zum Turbo-Fahrrad, wenn der Nutzer die Kontrolle behält und nicht versucht, seine Kompetenz künstlich aufzublähen. LLMs sind heute schon sehr wertvoll, als Hilfswerkzeug für Wissensarbeiter, um Ideen zu entwickeln, schnell Fakten zusammenzutragen und ggf. auch Formulierungsvorschläge zu machen. Mit intensiver Nutzung entstehen Erfahrungen, was wirksame Fragen/Prompts sind, was man erwarten kann und was nicht. Inzwischen bietet ChatGPT auch die Suche im Internet an, verbunden mit Quellenangaben, ähnlich wie Perplexity. ChatGPT Canvas und das Modell o-1 erleichtern es, die Vorgehensweise nachzuvollziehen. Für mich hat es sich bewährt, bestimmte Chats in das Notizbuch Notion zu übernehmen und später zu verdichten und zu verfolgen. Ich bemerke auch, wie sich meine Fragetechnik durch den häufigen Gebrauch von LLMs verbessert hat, und das nicht nur gegenüber LLMs.