Home Blog Themen Über Kontakt
Blog zu Data Science, maschinellem Lernen und künstlicher Intelligenz
  • Blog
  • Über
  • Kontakt
Blog zum Thema
Data Science
  • Machine Learning
  • Large Language Models
  • Generative AI
  • Natural Language Processing
Fachartikel
25.02.2026 Kategorien: Deep Learning• Generative Ai

Diffusion Models

Diffusion Models erzeugen neue Daten durch einen überraschend einfachen Prozess — sie lernen, Rauschen schrittweise zu entfernen. Dieser Artikel erklärt den Forward- und Reverse-Prozess, die Rolle von Latent Diffusion und Cross-Attention und zeigt, warum dasselbe Prinzip von der Bildgenerierung bis zum Proteindesign funktioniert.

Fachartikel
05.02.2026 Kategorien: Deep Learning• Language Models

Die Transformer-Architektur

Die Transformer-Architektur hat sich seit ihrer Einführung 2017 zur Grundlage nahezu aller modernen KI-Systeme entwickelt. Dieser Artikel erklärt, welches Problem sie löst, wie der Attention-Mechanismus funktioniert und warum drei Architekturfamilien für unterschiedliche Aufgaben existieren.

Praxisartikel
15.01.2026 Kategorie: Machine Learning

Was ist ein Modell?

Der Begriff Modell ist in der KI-Welt allgegenwärtig, doch was genau verbirgt sich dahinter? Dieser Artikel erklärt, was am Ende eines Trainingsprozesses entsteht, was in einer Modelldatei steckt und warum manche Modelle Milliarden von Parametern haben.

Fachartikel
28.12.2025 Kategorien: Neuroscience• Language Models

Lösungsstrategien: Der Umgang mit Beschränkungen

Schlaf löst Catastrophic Forgetting, Pattern Completion erklärt Halluzinationen, o1-Modelle zeigen Meta-Kognition - beide Systeme entwickeln kreative Lösungen für dieselben Probleme mit unterschiedlichen Trade-offs.

Teil 5 der Serie Gehirn Und Sprachmodelle
Fachartikel
19.12.2025 Kategorien: Neuroscience• Language Models

Fundamentale Unterschiede: Warum Gehirne keine Sprachmodelle sind

Empirische Evidenz für den Embodiment-Gap, evolutionäre Priors und methodische Artefakte zeigen, dass viele Parallelen oberflächlich bleiben. Die Unterschiede reflektieren fundamentale Designentscheidungen der Evolution vs. Engineering.

Teil 4 der Serie Gehirn Und Sprachmodelle
Fachartikel
12.12.2025 Kategorien: Neuroscience• Language Models

Hierarchie und Emergenz: Wie Bedeutung aus Schichten entsteht

Von paralleler Letter Recognition zu semantischer Emergenz in Transformer-Layers - beide Systeme bauen hierarchische Repräsentationen auf. Goldstein et al. (2022) identifizierten drei geteilte Prinzipien für predictive processing in Gehirn und LLMs.

Teil 3 der Serie Gehirn Und Sprachmodelle
Fachartikel
05.12.2025 Kategorien: Neuroscience• Language Models

Attention und Gedächtnis: Geteilte Mechanismen der Informationsverarbeitung

Der Primacy/Recency-Effekt beim Menschen und der Lost-in-the-Middle-Effekt bei LLMs könnten auf denselben attention-basierten Mechanismus zurückgehen. Information Compression ist kein Nebeneffekt, sondern fundamentales Prinzip effizienter Intelligenz.

Teil 2 der Serie Gehirn Und Sprachmodelle
Fachartikel
28.11.2025 Kategorie: Machine Learning

Feature Engineering und Datenvorverarbeitung

Systematische Aufbereitung und Transformation von Rohdaten zu aussagekräftigen Features als Fundament erfolgreicher maschineller Lernmodelle.

Seite 1 von 6 - Zeige 8 von 44 Artikeln
Älter
Übersicht
  • Startseite
  • Blog
  • Über Dataleap
  • Kontakt
  • Nutzungsbedingungen und
    Datenschutzerklärung
Themenseiten
  • Sprachmodelle / Language Models
  • Maschinelles Lernen / Machine Learning
  • Tiefen neuronale Netze / Deep Learning
  • Verarbeitung natürlicher Sprache / Natural Language Processing
  • Text Mining / Data Mining auf Texten
  • Graphs & Networks
Blog zu Data Science, maschinellem Lernen und künstlicher Intelligenz