ChatGPT und ähnliche Tools haben in den letzten Monaten für viel Furore gesorgt. Nicht zuletzt bei der Inhaltserstellung können sie eine enorme Hilfe sein. Zugleich solltest du dir der Grenzen dieser Werkzeuge bewusst sein und verstehen, wie du besonders gute Ergebnisse erzielst.
In diesem Artikel erkläre ich dir, warum die neue Generation der KI-Angebote so viel besser ist. Er ist der Start einer Serie zum Thema. Das Thema „Künstliche Intelligenz“ erlebt Phasen des Überschwangs und der Niedergeschlagenheit nun schon seit Jahrzehnten.
Bekannt sind hier etwa Elon Musks Vorhersagen in Sachen autonome Fahrzeuge: Der Bereich machte für eine Weile schnelle Fortschritte. Computergesteuerte Taxen und Busse schienen zum Greifen nah. Die Kurve der Verbesserungen flachte aber bald ab und inzwischen sind die Prognosen in diesem Bereich deutlich vorsichtiger geworden. Insofern habe ich mir eine gesunde Skepsis bei solchen Hype-Themen angewöhnt.
Die allerdings flog bei ChatGPT schnell aus dem Fenster. Als ich es das erste Mal ausprobieren konnte, war ich so verblüfft wie begeistert: Dieser „Chatbot“ funktionierte endlich so, wie die vielen Vorgänger es nur versprochen hatten. Es war fast schon unheimlich.
ChatGPT reagiert auf Fragen erstaunlich menschlich. Und es scheint auf jede Frage eine Antwort zu wissen – oder mehrere. Es passt die Art, Länge und Komplexität des Outputs dynamisch anhand meiner Vorgaben an. Es versteht Zusammenhänge der Konversation und kann auf Themen und Fakten zurückgreifen, die vorher angesprochen wurden. Es verarbeitet lange und komplexe Inputs mit nur geringer Verzögerung. Und es versteht und antwortet auch auf Deutsch.
Erstaunlich leistungsfähiger Textgenerator
Schnell wurde klar: ChatGPT ist nicht nur ein leistungsfähiger KI-Assistent, sondern ebenso ein KI-Textgenerator.
Meine früheren Versuche mit Werkzeugen dieser Art waren immer große Enttäuschungen gewesen. Die Produkte konnten nie mit den Versprechungen des Marketings mithalten. Sie eigneten sich vielleicht, um Ideen anzuregen. Man konnte einiger Versatzstücke entnehmen. Aber die Texte waren selten als Ganzes brauchbar.
Anders ist das nun mit ChatGPT und seinen Varianten und Konkurrenten: Richtig genutzt, können sie nicht nur Ideen liefern, sondern gleich ein umfassendes Konzept und mindestens einen guten ersten Entwurf.
„*“ zeigt erforderliche Felder an
Als jemand, der einen Großteil seines Lebensunterhalts mit dem Schreiben und Bearbeiten von Texten verbringt, sage ich das nicht gerne: Was ChatGPT liefert, ist oftmals auf demselben Niveau, das ich von menschlichen Autor*innen gesehen habe. Bisweilen ist es sogar besser.
Die Grenzen und speziellen Marotten dieser neuen KI-Tools werden nach intensiven Tests dann aber ebenfalls deutlich. Dazu weiter unten mehr.
Wie wurde dieser Fortschritt möglich?
Wie aber war dieser plötzliche Sprung in Qualität überhaupt möglich? Drei Punkte werden dazu meist genannt:
- Trainingsdaten: Heutige KI-Modelle lernen anhand vorhandener Inhalte (Texte, Bilder, Audio, Code etc.). Die Menge bereits digital vorliegender Daten ist rasant angestiegen, was dem Training enorm hilft.
- Rechenpower: Spezialisierte Computer und Komponenten haben die Trainingsvorgänge erheblich beschleunigt und ermöglichen größere und komplexere Modelle.
- Algorithmen: Nicht zuletzt gab es wichtige Fortschritte unter der Haube. So gilt etwa die „Transformer“-Methode als ein wesentlicher Grund dafür, dass KI heute Texte so viel besser verstehen und generieren kann als noch vor einigen Jahren.
Beeindruckend ist es zudem, sich die Zahl der „Parameter“ von Sprachmodellen in den letzten Jahren anzusehen. Mehr Parameter ermöglichen es dem Modell, mehr Wissen zu kodieren und komplexere Aufgaben zu bewältigen:
- 2019, GPT-2: 1,5 Milliarden Parameter
- 2020, GPT-3: 175 Milliarden Parameter
- 2022, PaLM: 540 Milliarden Parameter
- 2022, GPT-4: rund 1 Billion Parameter
- 2022. Claude: rund 10 Billionen Parameter
Diese Zahlen sind faszinierend, aber komplexere Modelle sind nicht immer automatisch überlegen oder die bessere Wahl. Ein Trend geht aktuell etwa dahin, Modelle spezieller auf bestimmte Aufgaben zu trainieren und sie passend zu justieren. Es ist deshalb zu erwarten, dass es neben allgemeinen Werkzeugen mehr und mehr Angebote geben wird, die für einen klar umrissenen Zweck bestimmt sind.
Spannend sind in diesem Zusammenhang zudem Modelle, die zusätzlich mit individuellen Daten trainiert werden: So können Unternehmen etwa alle ihre Dokumente in ein solches System einspeisen, um dynamisch Antworten zu bekommen.
Ein anderer interessanter Messwert, der zuletzt mehr ins Rampenlicht gerückt ist, ist die Kontextlänge. Je größer dieser Wert, desto mehr Inhalte einer Konversation kann das Werkzeug einbeziehen. Mehr Kontext hilft der KI also, längere Chats zu führen, aber auch größere Eingaben zu verarbeiten.
Je nach Anwendungsfall kann das einen erheblichen Unterschied ausmachen, wenn ein Angebot wie Anthropics Claude beispielsweise ganze Bücher innerhalb von Sekunden verarbeitet und analysiert.
Gemessen wird die Kontextlänge in „Token“, wobei ein Token in etwa einem Wort entspricht. Einige Beispiele:
- GPT-2: 1.024 Token
- GPT-3: 2.048 Token (in einer neuen Version bis zu 16.000 Token)
- PaLM: 65.536 Token
- GPT-4: bis zu 32.000 Token
- Claude: vermutlich um die 100.000 Token
Ein längerer Kontext braucht dabei entsprechend mehr Rechenpower und Speicherplatz. Es ist deshalb eine technische Herausforderung, diese Werte weiter zu erhöhen.
Drei Optionen, um solche Werkzeuge zu nutzen
Wer solche Tools nutzen will, hat dazu derzeit im Wesentlichen drei Optionen:
- In der Cloud. ChatGPT, Claude, aber auch Bildgeneratoren wie MidJourney oder Stable Diffusion sind als Software-as-a-Service nutzbar. Die eigenen Daten werden also auf den Servern der Anbieter verarbeitet. Das ist je nach Art der Informationen durchaus problematisch. Zugleich musst du dich als Nutzer*in mit der Oberfläche und den Optionen des Angebots zufriedengeben. Dafür haben Unternehmen wie OpenAI, Microsoft, Google oder Anthropic spezialisierte, besonders leistungsfähige Server.
- Über eine API. Vor allem OpenAI bietet seine Schnittstellen aktiv an. Nicht alle KI-Modelle sind für alle sofort verfügbar. Dennoch lassen sich damit entweder eigene Anwendungen umsetzen oder Drittanbieter-Apps nutzen. Die Datenverarbeitung erfolgt hier weiterhin auf den Servern der KI-Unternehmen. Wo und wie sich das Angebot nutzen lässt, ist in diesem Fall aber individuell anpassbar.
- Auf dem eigenen Rechner oder Server. Nicht nur spezialisierte Rechner sind leistungsfähiger geworden, sondern auch allgemein erhältliche Laptops, Tablets und sogar Smartphones. Bei modernen und entsprechend ausgestatteten Geräten kann das ausreichen, um Werkzeuge wie KI-Assistenten direkt auf dem eigenen Computer zu nutzen. Die sind nicht so leistungsfähig wie die High-End-Anwendungen in der Cloud. Aber das ist auch gar nicht immer notwendig. Dafür verbleiben die eigenen Daten auf dem Rechner. Zudem lassen sich die Software und das Modell ganz nach den eigenen Bedürfnissen auswählen. Ein Beispiel ist hier LM Studio für Windows und Macs, mit dem du Sprachmodelle wie etwa Metas Llama-Familie auf dem eigenen PC nutzen kannst.
Darüber hinaus gibt es aktuell einen weiteren Trend, der sich meiner Einschätzung nach noch stärker durchsetzen wird: KI-Assistenten, die in andere Angebote integriert sind. Beispiele sind „Copilot“ in Microsoft 365, Adobes „Firefly“, Bing Chat oder Googles experimentelle, KI-unterstütze „Search Generative Experience“ (SGE).
Grenzen der KI-Tools
In weiteren Artikeln dieser Serie werde ich dir noch genauer aufzeigen, wie ich persönlich solche Angebote nutze, um Themen zu recherchieren, Ideen und Konzepte zu generieren sowie Texte und Bilder zu erstellen.
Bei aller Begeisterung für die Chancen und Möglichkeiten, die diese neuen Helferlein ermöglichen: Sie haben Grenzen, die du kennen solltest, und es gibt berechtigte Kritik.
Ein Angebot wie ChatGPT hat etwa gelernt, eine sprachlich korrekte und sinnvoll klingende Antwort zu geben. Das ist der Fokus. Die Validität der genannten Zahlen und Fakten hingegen nicht. Sie können stimmen oder aber frei erfunden sein. Du solltest also die Aussagen nicht ungeprüft übernehmen.
Bei manchen Aufgaben sind diese Werkzeuge zudem vollkommen überfordert. Mit Zahlen und Berechnungen können sie beispielsweise oftmals nicht gut umgehen.
Die Anbieter versuchen hier gegenzusteuern. Zum einen sollen die KI-Assistenten zu mehr Ehrlichkeit erzogen werden. Wenn sie etwas nicht genau wissen, sollen sie das deutlich machen. Zum anderen hat etwa OpenAI Plugins als eine Option hinzugefügt: Damit kann ChatGPT für bestimmte Themen und Aufgaben auf spezialisierte Werkzeuge und Informationsquellen zurückgreifen. Bing Chat ist ein anderes Beispiel: Es belegt die Quellen seiner Antworten mit Links und macht klar, wenn es eine Information nicht finden konnte.
Das Wissen eines KI-Assistenten wie ChatGPT oder Claude reicht außerdem oft nur bis zu einem bestimmten Datum. Alles, was seitdem passiert ist, ist unbekannt. Der Trainingsprozess einer solchen KI ist so aufwändig und langwierig, dass sich neue Informationen nicht einfach hinzufügen lassen. Dessen muss man sich bei manchen Themen bewusst sein.
Ein weiteres Problem ist darüber hinaus, dass eine KI Vorurteile und Falschinformationen verbreiten und damit verstärken kann, die es in seinen Trainingsdaten gefunden hat. Die KI versteht schließlich nicht, was sie dort tut. Sie prüft und recherchiert normalerweise auch nicht.
Was mir bei KI-Assistenten zudem im Alltag immer mal wieder fehlt: Sie lernen mich nicht kennen und sie lernen nicht von früheren Konversationen. Wie oben beschrieben, gibt es pro Chat eine bestimmte Kontextlänge. Aber der Kontext endet auf jeden Fall mit dem aktuellen Chat. Starte ich ein neues Gespräch, weiß der KI-Assistent nichts von früheren Interaktionen. Meine Hoffnung ist, dass diese Angebote in Zukunft noch persönlicher werden. SHO.AI verspricht das etwa.
Kritik an den KI-Tools
Eine grundsätzliche Kritik an Werkzeugen wie ChatGPT für Texte oder Stable Diffusion für Bilder ist das Trainingsmaterial. Wie bereits beschrieben, sind diese Daten unverzichtbar für den Lernprozess. Die Urheber wurden aber oftmals nicht gefragt, ob sie ihre Werke dafür bereitstellen wollen oder nicht. Für Aufregung sorgte etwa, dass KI-Bildgeneratoren Stile von Künstler*innen nachahmen können. Ist das dann eine automatisierte Urheberrechtsverletzung? Oder ist es vergleichbar mit menschlichen Werken, die schließlich ebenfalls von den Werken anderer inspiriert und beeinflusst sein können? Das sind spannende Fragen, die uns die nächsten Jahre noch weiter begleiten werden.
Die Debatte darum wird teils hitzig geführt. Kein Wunder: Manche Künstler*innen sehen sich als unfreiwillige Steigbügelhalter für eine KI missbraucht, die sie im Gegenzug überflüssig machen könnte. Und die Unternehmen verdienen Geld mit einem Produkt, das sich kostenlos an ihrer Arbeit bedient hat.
OpenAI bietet inzwischen eine Option, um zumindest die Inhalte der eigenen Website für solche Trainingszwecke in der Zukunft zu sperren.
Da stellt sich zudem die Frage, ob die Ergebnisse solcher Werkzeuge überhaupt genutzt werden dürfen. Ich hatte mich dazu mit Rechtsanwalt Dr. Carsten Ulbricht unterhalten. Die Frage lässt sich wie so oft nicht mit einem klaren Ja oder Nein beantworten.
Völlig offen ist nicht zuletzt die Frage, ob Werke einen Urheberschutz genießen, wenn sie von einer KI stammen und wer in diesem Fall als Urheber gilt. Als Maßstab gilt hier nach Meinung mancher, wie viel Arbeit die KI geleistet hat und wie viel der Mensch.
Fazit zu Content und KI
Die KI-Welt hat in den letzten Monaten einen Boom und Hype erlebt. Wie ich in diesem Beitrag hoffentlich zeigen konnte, ist die Begeisterung nicht vollkommen aus der Luft gegriffen. Die Fortschritte sind deutlich spürbar. Die Werkzeuge lassen sich für alltägliche Aufgaben einsetzen und können eine große Hilfe sein.
Bei alledem sind sie aber nicht perfekt, sie machen Fehler, sie reagieren unerwartet oder sie scheitern an einer Aufgabe komplett (und streiten das vielleicht sogar noch ab). Darüber hinaus gibt es berechtigte Kritik daran, wie diese Werkzeuge funktionieren und wie sie ihre Fähigkeiten erworben haben.
Mit diesen Punkten im Hinterkopf zeige ich im nächsten Teil der Serie, wie ich verschiedene KI-Werkzeuge für Kreativität und Produktivität einsetze.
Deine Fragen zu Content und KI
Was ist deine Meinung zu Künstlicher Intelligenz im Content Bereich? Welche Fragen sind noch offen? Verrate es uns gerne in den Kommentaren. Du möchtest über weitere Beiträge zum Thema WordPress und WooCommerce informiert werden? Dann folge uns auf LinkedIn, Facebook, Twitter oder über unseren Newsletter.