Artificial Intelligence

  • Diskussion im SPIEGEL: Warum nutzen Sie KI bisher nicht?

    Im Zusammenhang mit der aktuellen Diskussion über Deepseek schaffte es der SPIEGEL zwar nicht, über die aktuelle, massive Cyberattacke gegen Deepseek zu berichten, aber er eröffnete eine Leserdiskussion zur Nutzung von KI: „Nutzen Sie KI im Alltag?“. Hier kommt eine Analyse und Wertung der Gründe, warum SPIEGEL-Leser bisher nicht KI nutzen.

    Ein häufiger Vorwurf an KI-Systeme, insbesondere Sprachmodelle wie ChatGPT, ist, dass sie unzuverlässig sind. Tatsächlich kommt es immer wieder vor, dass KI fehlerhafte Antworten liefert oder sogar Dinge „halluziniert“, also Informationen erfindet. Wer etwa nach wissenschaftlichen Fakten sucht, kann dabei auf Zitate oder Studien stoßen, die schlichtweg nicht existieren. Das ist nicht nur ärgerlich, sondern kann in einigen Fällen auch problematisch sein, etwa wenn Entscheidungen auf diesen Informationen basieren.

    „Man kann der KI nicht trauen – sie macht Fehler und verbreitet falsche Informationen.“

    Dieses Argument ist berechtigt. Gleichzeitig muss man jedoch beachten, dass KI-Systeme Werkzeuge sind – und wie jedes Werkzeug richtig genutzt werden müssen. Ein Hammer ist schließlich auch kein Problem, solange man ihn nicht für Dinge verwendet, für die er nicht gemacht wurde. KI eignet sich hervorragend, um Ideen zu generieren, Standardaufgaben zu beschleunigen oder grobe Vorlagen zu erstellen. Für die Verifizierung von Fakten hingegen ist immer noch der Mensch zuständig. Dass Menschen selbst oft Fehler machen, wird bei diesem Argument übrigens gerne übersehen. Die KI ist vielleicht nicht perfekt – aber sind wir es?


    „KI macht uns abhängig und dumm.“

    Ein weiteres häufiges Argument ist die Angst vor einem Verlust der menschlichen Fähigkeiten. Kritiker befürchten, dass Menschen durch die Nutzung von KI aufhören, selbstständig zu denken. Wenn KI für uns Texte schreibt, Probleme löst und sogar Entscheidungen trifft, könnten wir irgendwann unfähig werden, diese Dinge eigenständig zu tun. Was passiert, wenn die Technologie einmal ausfällt? Werden wir dann völlig hilflos sein?

    Diese Bedenken sind nicht aus der Luft gegriffen. Jede technologische Entwicklung bringt die Gefahr mit sich, dass wir bestimmte Fähigkeiten weniger trainieren. Denken Sie an Navigationssysteme: Früher waren wir gezwungen, Karten zu lesen und uns Wege einzuprägen. Heute verlassen sich viele Menschen vollständig auf GPS. Aber bedeutet das, dass wir unsere Orientierung völlig verloren haben? Vermutlich nicht. Vielmehr haben wir uns daran gewöhnt, uns auf neue Hilfsmittel zu verlassen – ähnlich wie bei Taschenrechnern oder Rechtschreibprogrammen.

    Der Schlüssel liegt im bewussten Umgang. Es ist wichtig, KI als Ergänzung zu sehen und nicht als Ersatz für eigenes Denken. Sie kann uns Arbeit abnehmen und Zeit sparen, aber sie sollte uns nicht davon abhalten, unsere eigenen Fähigkeiten weiterzuentwickeln. In Schulen und Bildungseinrichtungen wird es besonders wichtig sein, diesen bewussten Umgang zu fördern.


    „Ich sehe keinen Nutzen für mich.“

    Manche Menschen behaupten, dass KI in ihrem Alltag schlichtweg keine Rolle spielt – oder dass sie für sie persönlich keinen Mehrwert bietet. Sie erledigen ihre Aufgaben lieber selbst und sehen keinen Grund, dies zu ändern. Oft wird auch darauf hingewiesen, dass die Ergebnisse von KI noch nicht perfekt sind und die Technologie daher keinen echten Nutzen bringt.

    Diese Einstellung ist natürlich subjektiv, aber sie könnte auch an mangelnder Aufklärung liegen. Viele Menschen sind sich nicht bewusst, wie KI bereits in ihrem Leben präsent ist. Wenn Sie schon einmal einen Text mit einer Autokorrektur geschrieben, eine Suchmaschine genutzt oder sich Vorschläge in einem Streamingdienst anzeigen lassen haben, dann haben Sie bereits von KI profitiert – möglicherweise, ohne es zu merken. Der Nutzen liegt also oft im Verborgenen.

    Natürlich gibt es Menschen, deren Lebensstil oder berufliche Tätigkeiten wenig Berührungspunkte mit KI haben. Doch die Technologie entwickelt sich weiter, und mit ihr auch die Bandbreite an Anwendungen. Der vermeintliche Nutzen mag heute noch nicht erkennbar sein, könnte aber in Zukunft deutlich werden – sei es durch intelligente Haushaltshilfen, personalisierte Lernsysteme oder verbesserte Gesundheitsdiagnosen.


    „KI ist gefährlich und manipulativ.“

    Ethische und gesellschaftliche Bedenken gehören zu den häufigsten Argumenten gegen KI. Kritiker befürchten, dass KI für Manipulation, Überwachung oder sogar für kriminelle Zwecke eingesetzt werden könnte. Beispiele dafür gibt es tatsächlich: KI-generierte Fake News oder Deepfakes, die gezielt zur Täuschung eingesetzt werden, zeigen, wie mächtig diese Technologie sein kann. Auch die Möglichkeit, dass KI-basierte Algorithmen gezielt Menschen beeinflussen – etwa bei der Werbung oder in der Politik –, ist nicht von der Hand zu weisen.

    Diese Bedenken sind sehr ernst zu nehmen. Gleichzeitig liegt die Verantwortung nicht bei der Technologie selbst, sondern bei den Menschen, die sie entwickeln und nutzen. KI ist ein Werkzeug, und wie jedes Werkzeug kann es für gute oder schlechte Zwecke verwendet werden. Wichtig ist, dass es klare Regeln und ethische Leitlinien gibt, die den Einsatz von KI regulieren. Viele Unternehmen und Regierungen arbeiten bereits daran, solche Standards zu schaffen.

    Das bedeutet aber nicht, dass wir die Technologie als Ganzes ablehnen sollten. Es wäre schade, die Chancen von KI nicht zu nutzen, nur weil sie auch Risiken birgt. Stattdessen sollten wir uns darauf konzentrieren, wie wir diese Risiken minimieren können.


    „Die Technik ist noch nicht ausgereift.“

    Ein weiterer Punkt ist die noch nicht perfekte Qualität vieler KI-Anwendungen. Fehlerhafte Antworten, ungenaue Analysen oder mangelnde Anpassungsfähigkeit sind häufige Kritikpunkte. Manchmal wirkt es, als ob die Technologie eher ein Spielzeug für Technikbegeisterte ist, als ein wirklich nützliches Werkzeug.

    Diese Kritik ist in gewisser Weise berechtigt. KI steckt noch in den Kinderschuhen und hat viel Potenzial für Verbesserungen. Aber das gilt für jede neue Technologie. Denken Sie an die ersten Mobiltelefone oder Computer: Sie waren groß, teuer und wenig benutzerfreundlich. Heute sind sie aus unserem Alltag nicht mehr wegzudenken. Auch KI wird sich weiterentwickeln – und mit ihr die Qualität der Anwendungen.


    „Der Energieverbrauch ist zu hoch.“

    Ein Argument, das vor allem in Zeiten des Klimawandels an Bedeutung gewinnt, ist der hohe Energieverbrauch von KI-Systemen. Die Rechenleistung, die für das Training und den Betrieb moderner Modelle benötigt wird, ist enorm. Das ist nicht nur teuer, sondern auch eine Belastung für die Umwelt.

    Dieses Argument ist sehr relevant, und die Technologiebranche muss dringend Wege finden, KI nachhaltiger zu machen. Gleichzeitig sollte man den Nutzen von KI nicht außer Acht lassen. Sie kann in vielen Bereichen helfen, Energie zu sparen – etwa durch Optimierungen in der Logistik oder im Energiemanagement. Es ist also eine Frage der Abwägung, in welchen Bereichen der Energieaufwand gerechtfertigt ist.


    „Datenschutzbedenken – meine Daten landen in falschen Händen.“

    Viele Menschen haben Bedenken, dass ihre Daten durch KI-Systeme missbraucht werden könnten. Insbesondere wenn Daten auf Servern in Ländern mit fragwürdigen Datenschutzstandards gespeichert werden, wächst die Skepsis. Wer möchte schon, dass seine privaten Informationen in einem Überwachungsstaat landen?

    Diese Sorgen sind verständlich, und es ist wichtig, dass Anbieter von KI-Systemen transparent mit Daten umgehen und hohe Sicherheitsstandards einhalten. Gleichzeitig liegt es auch an den Nutzern, sich über die Anbieter und deren Datenschutzrichtlinien zu informieren. Nicht jede KI ist automatisch ein Risiko für die Privatsphäre.


    Fazit: Wo stehen wir mit der KI-Nutzung?

    Die Argumente gegen KI sind vielfältig und haben oft einen wahren Kern. Viele der Bedenken sind berechtigt und sollten nicht ignoriert werden. Gleichzeitig zeigt ein genauerer Blick, dass die meisten Probleme lösbar sind – sei es durch bessere Regulierung, technologische Weiterentwicklungen oder bewussteren Umgang mit der Technologie.

    Künstliche Intelligenz ist keine perfekte Lösung für alle Probleme, aber sie bietet immense Chancen. Anstatt sie grundsätzlich abzulehnen, wäre es sinnvoller, ihre Nutzung kritisch zu hinterfragen und gleichzeitig an ihrer Verbesserung mitzuwirken. Denn eines ist klar: Die Zukunft wird von KI geprägt sein, und es liegt an uns, wie wir diese gestalten wollen. Ablehnung mag kurzfristig bequem erscheinen, doch auf lange Sicht könnte es klüger sein, sich mit der Technologie auseinanderzusetzen – und das Beste aus ihr zu machen.

    Disclaimer: Die Zusammenfassung und Wertung der Argumente der Nicht-Nutzer in diesem Artikel geschah durch ChatGPT höchstpersönlich. Ich habe diese Artikel in nur 5 Minuten „erstellt“.

    Weiterlesen →
  • Nutzung von KI/LLMs Ende 2024

    In diesem Post versuche ich, meine Erfahrung mit (Nicht-) Nutzern und Nutzerinnen von Large Language Models (LLM), wie ChatGPT, Anthropics usw. aus meinem sozialen Umfeld zu reflektieren.

    Steve Jobs erzählte in einem Interview, dass der Personal Computer (=Mac) wie ein „Bicycle for the mind“ sei. Er bezog sich auf eine Studie über die Energieeffizienz verschiedener Spezies bei der Fortbewegung. Der Mensch schnitt schlechter ab als Tiere wie der Kondor, doch auf einem Fahrrad übertraf er alle. Jobs sah Computer ähnlich: Sie steigern das geistige Potenzial, wie ein Fahrrad die körperliche Effizienz. Mit Computern könnten Menschen schneller denken, kreativer arbeiten und komplexe Probleme lösen.

    Large Language Models (LLMs) sind KI-Systeme, die mithilfe riesiger Datenmengen trainiert wurden, um menschliche Sprache zu verstehen, zu generieren und darauf zu reagieren. Sie sind schon seit über zehn Jahren in Entwicklung, bekamen aber seit 2022 vermehrt Aufmerksamkeit und wurden in Form von ChatGPT für viele Menschen nutzbar. Firmen wie Open AI oder Anthropics haben sie auch kostenlos verfügbar gemacht, um Aufmerksamkeit und Investorenkapital zu mobilisieren.

    In meinem Freundeskreis gehört die überwiegende Mehrheit der Menschen bisher zu den Late- oder Non-Adaptern. Aus meinen Lehrveranstaltungen (2024) schätze ich, dass nur gut die Hälfte der Studierenden bisher Erfahrungen mit LLMs gesammelt hat. Beide Beobachtungen haben eine kleine Stichprobe, die erste ist auch durch mein Alter (Ende 60) beeinflusst.

    Es ist interessant, das Akzeptanzverhalten bei LLMs mit der Akzeptanz von Textverarbeitung, des Internets (besonders Google) zu vergleichen. Seit Ende der 1980er Jahre verbreitete sich Textverarbeitung. Es gab am Anfang viele Vorbehalte über ihren Nutzen und auch Versuche, ihre Einführung in Institutionen und Unternehmen zu verhindern. Ein humorvoller Clip aus einer norwegischen TV-Show zeigt die Vorbehalte gegenüber Textverarbeitung – transportiert auf den Übergang vom Schreiben auf Papierrollen zum Schreiben in Buchkladden zwischen 1. und 4. Jahrhundert. Ich kann mich an ähnliche Probleme und Argumente noch in den 1990er Jahren erinnern. 10 Jahre später hatte ich noch Kollegen, die E-Mails von ihren Sekretärinnen ausdrucken ließen und sie mit dem Bleistift am Rand beantworteten. Die Sekretärinnen tippten das dann ab und versandten die Antwortmails. Inzwischen nutzen diese Kollegen allerdings auch Textverarbeitung, E-Mails und das Internet.

    Auch die Nutzung des Internets und insbesondere von Google-Recherchen brauchte lange, um sich weit in der Gesellschaft zu verbreiten. Das Lebensalter spielt dabei eine wichtige Rolle. In einem höheren Alter „lohnt es sich halt nicht mehr, das noch zu lernen“. Auch kognitiv fällt es älteren Menschen schwerer, sich auf neue Werkzeuge und Denkkonzepte einzulassen oder umzustellen. Die Gründe sind vermutlich weniger physiologisch als im zweischneidigen Wert von Erfahrung zu suchen. Erfahrung hilft in vielen Tätigkeiten, Aufgaben schnell zu erledigen. Aber Erfahrungen blockieren oft auch den Zugang zu Neuem. Das Bildungssystem und die Arbeitserfahrung in vielen Berufen unterstützen oder erfordern auch eine gewisse Abstumpfung. Lange nachdem die Tätigkeit des Feilens keine Rolle mehr im metallverarbeitenden Gewerbe spielte, war diese Tätigkeit noch stark in der Ausbildung von Metallarbeitern vertreten. Ihre Funktion bestand darin, die Auszubildenden darin zu trainieren, Monotonie zu ertragen. Ähnlich implizite Ausbildungsprozesse gibt es in vielen Berufen und Karrieren auch heute noch, auch wenn es eher darum geht, institutionalisierten Bullshit ertragen zu können. In vielen Berufen und abhängig von individuellen Dispositionen blockiert dies auch das viel gelobte lebenslange Lernen. Diese Blockaden verhindern bei älteren Menschen, dass sie Dinge mit Google oder auf YouTube suchen, die ihre Kinder oder Enkelkinder ganz selbstverständlich suchen – und auch beantwortet bekommen.

    Für viele Menschen ist heute auch noch wenig praktischer, insbes. beruflicher Nutzen aus der Anwendung von LLMs zu erkennen. Das wird sich 2025 etwas ändern, wenn LLMs niedrigschwelliger auf Smartphones verfügbar werden. Das war bei Textverarbeitung und Internet anfangs ähnlich.

    Die Nutzung von ChatGPT unterscheidet sich etwas von den genannten früheren Innovationen. Einerseits haben die Programme sehr schnell Fortschritte in der leichten Nutzbarkeit gemacht, man kann sich z.B. mit ChatGPT inzwischen sehr gut akustisch und natürlich unterhalten. Andererseits ist aber die Spezifik der Nutzbarkeit heute schwieriger zu durchschauen als bei Textverarbeitung oder Google-Recherche.

    Das führt dazu, dass ich die Early Adopters in zwei Untergruppen unterteilen will. Nennen wir die erste Gruppe die „Mis-Users“.

    Im Beispiel des „Bicycle for the mind“ erhöht das Fahrrad die Effizienz der Fortbewegung, aber es ist völlig klar, dass der Mensch das Fahrrad lenkt, und seine Muskelkraft bleibt der Antrieb. So ähnlich ist es auch bei Textverarbeitung und Internet.

    Bei ChatGPT kann das Missverständnis entstehen, dass die KI die Richtung bestimmt und der Beitrag des Nutzers nur noch im Cut und Paste besteht. Eine Nutzung von LLMs, die so vorgeht, ist fatal. Alle LLMs „halluzinieren“ immer wieder, insbesondere wenn sie mit für sie nicht beantwortbaren Fragen konfrontiert werden. Es besteht wenig Hoffnung, dass sich dies bald ändern könnte. Viel hängt von den Prompts ab, mit denen LLMs befragt werden. Dies ist ähnlich wie die „Kunst des Googelns“. Qualifikationen wie ein großer Wortschatz des Nutzers und eine differenzierte Denkweise, aber v.a. auch Erfahrung mit dem Werkzeug sind wichtig.

    Aus meiner (immer noch) Tätigkeit als Hochschullehrer (aber nicht nur) sehe ich gelegentlich Missbrauch von ChatGPT. Im Kontext von Hochschulen taucht die Frage auf, welche Nutzung von LLMs legitim ist und wie man es erkennen kann, ob Arbeiten mit/von LLMs geschrieben wurden. Die Regulierung der legitimen Nutzung ist einfach und in vielen Fakultäten bereits umgesetzt. Die Feststellung, ob eingereichte Texte illegitim sind, ist schwierig. Eine maschinelle Lösung gibt es dafür meines Wissens nicht, anders als bei Plagiatsdetektoren. Wenn man viel mit ChatGPT arbeitet, erkennt man den „Sound“. Aber das wäre auch zu vermeiden, weil es inzwischen KI-basierte Programme zur „Humanisierung“ von Texten durch Paraphrasierung gibt. Ein mündliches Gespräch kann hier schnell Aufschluss über die geistigen Eigentumsverhältnisse geben.

    Menschen, die ChatGPT das Lenken und das Ausformulieren überlassen, werden damit auf die Dauer nicht sehr erfolgreich sein. Oft geben kleine Fehler Aufschluss für andere und zerstören die Reputation. In vielen Fällen wäre es besser gewesen, wenn diese Menschen keine LLMs verwendet hätten. Das gilt aber auch für Textverarbeitung oder Autos. Noch besser ist es, den Gebrauch von LLMs zu lernen. Dazu gibt es viele Anleitungen in YouTube, aber auch Bücher und Videokurse.

    ChatGPT und Co. werden zum Turbo-Fahrrad, wenn der Nutzer die Kontrolle behält und nicht versucht, seine Kompetenz künstlich aufzublähen. LLMs sind heute schon sehr wertvoll, als Hilfswerkzeug für Wissensarbeiter, um Ideen zu entwickeln, schnell Fakten zusammenzutragen und ggf. auch Formulierungsvorschläge zu machen. Mit intensiver Nutzung entstehen Erfahrungen, was wirksame Fragen/Prompts sind, was man erwarten kann und was nicht. Inzwischen bietet ChatGPT auch die Suche im Internet an, verbunden mit Quellenangaben, ähnlich wie Perplexity. ChatGPT Canvas und das Modell o-1 erleichtern es, die Vorgehensweise nachzuvollziehen. Für mich hat es sich bewährt, bestimmte Chats in das Notizbuch Notion zu übernehmen und später zu verdichten und zu verfolgen. Ich bemerke auch, wie sich meine Fragetechnik durch den häufigen Gebrauch von LLMs verbessert hat, und das nicht nur gegenüber LLMs.

    Weiterlesen →
  • Mein 1. Custom GPT: „Opa kocht“

    Im November 2023 hat Open AI Custom GPTs vorgestellt. „Custom GPTs sind spezialisierte Versionen von allgemeinen GPT-Modellen. Diese Modelle, bekannt für ihre Fähigkeit, menschenähnliche Texte zu generieren, können für spezifische Anwendungsfälle angepasst werden. Sie werden mit einem maßgeschneiderten Datensatz trainiert, um in einem bestimmten Bereich wie Kochen, Medizin oder Literatur spezialisiert zu sein.“ Die letzten drei Sätze wurden von Chat GPT selbst gespendet.

    Zum Zeitpunkt ihrer Einführung sind Custom GPTs noch nicht viel mehr als Eingabemasken, mit denen man per Mausklick eine Startabfrage abruft, um damit einen Dialog mit ChatGPT zu starten. Voraussetzung für die Erstellung, aber auch die Nutzung von Custom GPTs ist ein ChatGTP Plus Account (aktuell $20 / Monat).

    Ein Custom GPT ist in wenigen Minuten erstellt, in der üblichen Dialogform. Es steht dann im eigenen Konto zur Verfügung und man kann es anderen Personen per Link zugänglich machen oder es in das öffentliche Verzeichnis der Custom GPTs aufnehmen lassen. Stand November 2023 ist zunächst kein großer Mehrwert für die Nutzer gegenüber dem allgemeinen Abfragedialog von ChatGPT erkennbar. In Zukunft wäre denkbar, dass Erfahrungen mit ChatGPT-Abfragen (Prompt Craft) in die Formulierung von Custom GPTs einfliessen. Ein direkter Markt für Custom GPTs ist offenbar noch nicht geplant, aber evtl. eine Beteiligung der Autoren an Zusatzeinkünften, wenn Nutzer z.B. den ChatGPT Plus Tarif buchen, um ein Custom GPT zu nutzen.

    Mein erster Versuch war ein Kochratgeber „Opa kocht“, der anhand noch vorhandener Lebensmittel Ratschläge gibt, was man daraus kochen könnte.

    Mein Custom GPT ist unter diesem Link verfügbar: https://chat.openai.com/g/g-7XYk9QX4W-opa-kocht

    Es bleibt abzuwarten, ob Open AI den Nutzern zukünftig wirklich die Möglichkeit gibt, eigene Modelle zu trainieren. Dann wären die Custom GPTs mehr als glorifizierte Startseiten.

    Zum Abschluss ein Link zu einem humorvollen Video mit elaborierteren Custom GPTs, die etwas an Weizenbaums Eliza erinnern:

    Weiterlesen →

Bilder, die ich mit künstlicher Intelligenz geschaffen habe: