Generative KI umfasst Verfahren des maschinellen Lernens, die eigenständig neue Inhalte erzeugen können, darunter Texte, Bilder, Code und Audiomaterial. Im Gegensatz zu analytischen Modellen, die bestehende Daten klassifizieren oder auswerten, erstellen generative Systeme Ausgaben, die in Form und Struktur den Trainingsdaten ähneln, dabei jedoch eigenständige Variationen darstellen. Die zugrundeliegenden Architekturen sind vielfältig und reichen von Transformer-Modellen für die Texterzeugung über Diffusionsmodelle für die Bildgenerierung bis hin zu multimodalen Systemen, die verschiedene Medientypen verarbeiten und erzeugen können. Jüngere Entwicklungen wie KI-Agenten erweitern das Spektrum zusätzlich um die Fähigkeit, mehrstufige Aufgaben autonom zu planen und auszuführen. Die Artikel dieser Kategorie behandeln die technischen Grundlagen generativer Modelle, ihre Anwendungsgebiete in Wissenschaft, Wirtschaft und kreativen Berufen sowie die damit verbundenen Fragen zu Qualitätssicherung, Urheberrecht und verantwortungsvollem Einsatz. Dabei wird ein besonderer Fokus auf die Unterschiede zwischen den einzelnen Ansätzen und deren jeweilige Stärken gelegt.
Diffusion Models. Wie Midjourney und DALL-E durch schrittweise Rauschentfernung Bilder erzeugen.
Warum Large Language Models die Trennung von Code und Daten aufheben und klassische Sicherheitskonzepte versagen.
Kritische Bestandsaufnahme von KI-Agenten - zwischen autonomer Aufgabenlösung und der Realität einfacher Workflows.
Was Generative KI von klassischem Machine Learning unterscheidet - Transformer, Diffusion Models und zentrale Herausforderungen.
Analyse generativer KI als Allzwecktechnologie im historischen Vergleich zu Dampfmaschine, Elektrizität und Internet.
Von GPT-1 bis ChatGPT - die technische Evolution der OpenAI-Sprachmodelle in fünf Jahren kompakt erklärt.