Fachartikel

Maschinelles Lernen - Begriff und Abgrenzung

Eine kurze Einführung in den Begriff des maschinellen Lernens, eine Abgrenzung zu verwandten Disziplinen und die Unterschiede solcher Verfahren zur herkömmlichen Erstellung von Computerprogrammen.

Maschinelles Lernen bzw. Machine Learning bezeichnet ein Anwendungs- und Forschungsgebiet der Informatik, das sich mit Verfahren befasst, die Daten zur Vorhersage oder Entscheidungsfindung selbstständig auswerten können. Diese Algorithmen erstellen Modelle auf der Grundlage von Beispieldaten, um neue, unbekannte Daten bewerten zu können.

Die Verfahren gehen implizit davon aus, dass Strategien, die in der Vergangenheit gut funktioniert haben, wahrscheinlich auch in Zukunft gut funktionieren werden. Sie kommen zum Einsatz, wenn es aufgrund der Datenmenge, Datenkomplexität oder kontinuierlicher Änderungen der Bewertungskriterien zu aufwendig wäre, explizierte Verfahrensanweisungen zu programmieren.

Abgrenzung zur Künstlichen Intelligenz

Maschinelles Lernen wird oft als Teilbereich der Künstlichen Intelligenz (KI) betrachtet, die in den 1950er Jahren als Forschungsfeld entstand. In den 1990er Jahren entwickelte sich maschinelles Lernen jedoch eigenständig weiter mit dem Ziel, lösbare Probleme praktischer Natur anzugehen, anstatt eine allgemeine künstliche Intelligenz erschaffen zu wollen.

Der wesentliche Unterschied liegt in der Art des Lernens: Maschinelles Lernen basiert auf passiven Beobachtungen von Daten. Eine künstliche Intelligenz hingegen kann durch Interaktion mit der Umwelt das Lernen selbstständig optimieren. Verfahren mit einer solchen aktiven Komponente werden im maschinellen Lernen dem Reinforcement Learning zugeordnet.

Abgrenzung zu Data Mining

Maschinelles Lernen und Data Mining verwenden nahezu dieselben Methoden und überschneiden sich erheblich. Der wesentliche Unterschied liegt jedoch im Fokus: Während sich maschinelles Lernen auf Vorhersagen konzentriert, die auf bekannten, aus Trainingsdaten erlernten Eigenschaften beruhen, liegt der Schwerpunkt beim Data Mining auf der Entdeckung unbekannter Eigenschaften in den Daten. In der Praxis werden beide Begriffe jedoch häufig synonym verwendet.

Unterschied zur traditionellen Programmierung

Bei der traditionellen Programmierung schreiben Entwickler detaillierte Wenn-Dann-Anweisungen für jede mögliche Situation. Ein Spam-Filter würde beispielsweise explizite Regeln enthalten wie die Überprüfung bestimmter Wörter oder Zeichenkombinationen in E-Mails. Dieser Ansatz stößt jedoch bei komplexen Aufgaben schnell an Grenzen, da die Anzahl der zu berücksichtigenden Regeln exponentiell anwächst.

Maschinelles Lernen verfolgt einen grundlegend anderen Ansatz: Statt explizite Regeln zu programmieren, entdecken Algorithmen automatisch Muster in großen Datenmengen. Das System lernt aus Beispielen und kann dieses Wissen auf neue, unbekannte Situationen anwenden. Ein Spam-Filter würde beispielsweise aus Tausenden von als Spam oder normal klassifizierten E-Mails lernen und dabei Muster erkennen, die für menschliche Programmierer nicht offensichtlich wären.

Historische Einordnung des Begriffs

Die Entwicklung des maschinellen Lernens lässt sich in mehrere charakteristische Epochen unterteilen, wobei sich sowohl die technischen Möglichkeiten als auch das Begriffsverständnis erheblich gewandelt haben.

alt Geschichte der künstlichen Intelligenz, maschinellem Lernen und Deep Leaning

Frühe Grundlagen (1940er-1950er Jahre)

Die konzeptionellen Wurzeln entstanden mit McCulloch und Pitts' Modell künstlicher Neuronen 1943. Der Begriff Künstliche Intelligenz wurde 1956 auf der Dartmouth-Konferenz geprägt, während Frank Rosenblatt 1957 das erste lernfähige Perceptron entwickelte.

In dieser Phase existierte noch keine klare begriffliche Trennung zwischen künstlicher Intelligenz und maschinellem Lernen. Das Begriffsverständnis konzentrierte sich auf symbolische Verfahren und explizite Regelbasierung als Grundlage intelligenten Verhaltens.

Entstehung des Machine Learning Begriffs (1960er Jahre)

Arthur Samuel prägte 1959 erstmals explizit den Begriff Machine Learning durch sein Checkers-Programm, das seine Spielstärke durch Erfahrung verbesserte. Er definierte maschinelles Lernen als Fähigkeit eines Computers, ohne explizite Programmierung zu lernen.

Das damalige Begriff verstand Lernen primär als Leistungsverbesserung durch Erfahrung. Maschinelles Lernen wurde noch als Teilgebiet der allgemeinen KI-Forschung betrachtet, ohne eigenständige methodische Abgrenzung.

KI-Winter und statistische Wende (1970er-1980er Jahre)

Nach übertriebenen Erwartungen erlebte die KI-Forschung in den 1970ern einen ersten Winter. Gleichzeitig entstanden wichtige theoretische Grundlagen: Der Backpropagation-Algorithmus wurde 1986 entwickelt, während Expertensysteme die praktische KI-Landschaft dominierten.

Das Begriffsverständnis verlagerte sich durch die enttäuschten Erwartungen: Maschinelles Lernen galt nunmehr als Randgebiet, da sich der Fokus auf explizite Wissensrepräsentation und regelbasierte Systemen verlagerte. Lernverfahren wurden hauptsächlich als Hilfsmittel zur automatischen Wissensakquisition verstanden.

Eigenständige Disziplin (1990er Jahre)

In den 1990er Jahren löste sich maschinelles Lernen konzeptionell von den ursprünglichen KI-Zielen und entwickelte sich zu einer eigenständigen Forschungsdisziplin: Statt einer allgemeinen künstlichen Intelligenz fokussierte sich maschinelles Lernen auf datengetriebene, praktische Problemlösungen. Die Abgrenzung zur symbolischen KI wurde bewusst vollzogen - maschinelles Lernen verstand sich als empirische, statistische Disziplin.

Parallel entwickelte sich Knowledge Discovery in Databases (KDD) als formalisierter Prozess zur systematischen Wissensentdeckung, der Data Mining als zentralen Analyseschritt einschloss. Data Mining und KDD konzentrierten sich dabei vor allem auf das Aufdecken neuer Muster in Daten, während maschinelles Lernen eher das Erlernen bekannter Muster mit dem Ziel einer Automatisierung verfolgte.

Diese Entwicklung war auch den vorausgegangenen KI-Wintern zu verdanken, die den Begriff künstliche Intelligenz für mehrere Jahrzehnte aus der Forschung haben verschwinden lassen.

Big Data Revolution (2000er Jahre)

Die Verfügbarkeit großer Datenmengen und verteilter Rechenkapazitäten durch das Internet ermöglichte völlig neue Anwendungsfelder. Das Begriffsverständnis erweiterte sich erneut: Maschinelles Lernen wurde so zum Werkzeug für die Analyse großer Datenmengen, Big Data.

Der Bereich Business Intelligence entstand, der integrierten maschinelle Lernverfahren für prädiktive Analysen und Vorhersagemodelle, wobei der Fokus auf geschäftlichen Entscheidungen und strategischen Erkenntnissen lag, während maschinelles Lernen die methodischen und algorithmischen Grundlagen dafür lieferte.

Die begrifflichen Grenzen zu Data Mining und angewandter Statistik verschwammen zunehmend, in der Öffentlichkeit wurden die Begriffe Machine Learning, Data Mining, Business Intelligence und Big Data zunehmend in einen Topf geworfen.

Deep Learning Durchbruch (2010er Jahre)

Der ImageNet-Wettbewerb 2012 markierte den Durchbruch tiefer neuronaler Netze. AlphaGo's Sieg gegen den Weltmeister 2016 und die Transformer-Architektur 2017 veränderten das Feld.

Das Begriffsverständnis veränderte sich erneut: Nun wurde "maschinelles Lernen" oft synonym für Deep Learning verwendet. Kurioserweise führte dieser Erfolg auch zur Wiederbelebung des KI-Begriffs, der bis dahin nur noch ein Nischendasein fristete. Viele Anwendungen wurden wieder als "künstliche Intelligenz" vermarktet.

Moderne Entwicklungen (2020er Jahre)

Large Language Models haben das öffentliche Verständnis erneut verändert und dem Begriff Künstliche Intelligenz einen weiteren Schub verliehen. Transformer-basierte Sprachmodelle zeigen emergente Fähigkeiten, die die Möglichkeiten traditioneller ML-Ansätze überschreiten.

Ähnlich wie damals bei Big Data werden auch heute mit maschinellem Lernen vor allem die methodischen und algorithmischen Grundlagen für die aktuelle KI-Revolution bezeichnet, während sich der Begriff KI zunehmend für die Anwendungen etabliert.

Fazit

Maschinelles Lernen stellt einen fundamentalen Paradigmenwechsel in der Informatik dar: von der expliziten Programmierung von Regeln hin zur automatischen Mustererkennung aus Daten. Diese Verfahren ermöglichen es, komplexe Probleme zu lösen, die sich nur schwer durch traditionelle Programmierung bewältigen lassen.

Im aktuellen Verständnis wird der Begriff sowohl für spezifische Verfahren als auch für lernende Systeme generell verwendet verwendet. Da er bei letzterem jedoch mit Künstliche Intelligenz konkurriert, bezeichnet man mit maschinellem Lernen eher wieder Ansätze und Algorithmen.

Im folgenden Artikel dieser Serie werden die verschiedenen Kategorien maschineller Lernverfahren und ihre charakteristischen Eigenschaften detailliert vorgestellt. Diese bilden die Grundlage für jedwede Form von automatisierten Lernverfahren.

Übersicht über maschinelle Lernverfahren