Das Grundprinzip von ML & menschlichem Lernen

von | 5. Sep. 2022 | Technik

Was ist Machine Learning?

Die Idee des Maschinellen Lernens (Machine Learning) ist deutlich älter als die KI-Forschung selbst. In der Wahrscheinlichkeitstheorie gibt es eine lange Tradition des »Lernens aus Beispielen«. Der Mathematiker Bayes hat schon im 18. Jahrhundert überlegt, wie man durch wiederholte Beobachtung von Experimenten die potenziellen Antworten auf statistische Fragestellungen immer weiter verbessern kann.

Das Geheimnis des menschlichen Lernens übte immer schon eine unwiderstehliche Anziehungskraft auf die wissenschaftliche Neugier aus. Neurowissenschaftler hatten in den 1950er-Jahren eine grundlegende Vorstellung davon, wie ein Neuron im Gehirn funktioniert. Donald O. Hebb legte 1949 die erste Theorie der neuronalen Netze und der Grundprinzipien des Lernens in solchen Netzen hervor. Hebb´s Theorie folgend besteht das Gehirn aus bestimmten Zelltypen den sog. Neuronen, die auf eine bestimmte Weise miteinander verbunden sind. Neuronen sind Zellkörper, die über sehr viele fadenartige Fortsätze, Dendriten, verfügen.

Eine dieser Fortsätze, Axon, ist aber immer länger als die anderen. An den Dendriten ist ein Neuron mit Hilfe sogenannter Synapsen mit den Axonen anderer Neuronen verbunden. Im Gegensatz zu den meisten anderen Zelltypen können Neuronen elektrisch aktiv sein und diese Aktivität mittels ihres Axons und den Synapsen an die Dendriten anderer Neuronen weitergeben. Ein Neuron integriert alle Signale, die es über seine Synapsen von anderen Neuronen empfängt. Sind diese Signale stark genug, dann wird es selbst aktiv und sendet ein Signal an seine nachfolgenden Neuronen.

Damit ist ein Neuronales Netz aufgebaut.

Dieses Netz steht über Sensoren (z.B. die Retina unserer Augen) mit der Außenwelt in Kontakt, und das Netz kann gleichzeitig über Aktoren (u.a. die Muskelzellen unseres Körpers) Einfluss auf unsere Umwelt nehmen. Dazwischen bestimmen rd. 90.000.000.000 Neuronen unser Denken, Fühlen und Handeln. Und jedes Neuron ist mit bis zu 10.000 anderen Neuronen verbunden.

Und jede Aktivierung stärkt die Verbindungen.

Grundsätzlich funktioniert Lernen in neuronalen Netzen, indem jene Synapsen verstärkt werden, die häufig aktiviert sind. Dadurch können diese Synapsen in Zukunft leichter aktiviert werden. Und solche Synapsen, die nicht aktiviert werden, schwächen sich mit der Zeit ab. Donald Hebb drückte das 1949 so aus: “Neurons that fire together, wire together.” oder “Neuronen die gleichzeitig feuern, sind miteinander verdrahtet.“

Und welche Anleihen hat ML daran?

Zurück zum Maschinellen Lernen: Wir Menschen können Katzen in jeder Situation auf Bildern erkennen – auch wenn unsere Netzhaut als Sensor »nur« ein pixeliges Bild einer Katze ermittelt. Wie schafft unser Gehirn das? Es lernt aus Erfahrung. Könnte man diese »Erfahrung« nicht auch in Algorithmen einfangen? Könnte ein Algorithmus eine Wissensbasis nicht ebenfalls aus Erfahrungen (Beispielen) aufbauen? Genau das ist die Idee des Maschinellen Lernens. Neudeutsch: Machine Learning. Nicht der Mensch baut eine Wissensbasis auf, sondern die Maschine macht das selbständig. Software-Entwickler begannen also schon bald nach Hebb’s Veröffentlichung damit, die Funktionsweise von Neuronen in Programmen nachzubilden. Die Künstlichen Neuronalen Netze (KNN) waren geboren. Einer der Pioniere der KNN war der Psychologe Frank Rosenblatt. Wie es weiterging? Wir gehen im Trendradar KI noch auf mehrlagige neuronale Netze, Deep Learning und viele weitere Formen des maschinellen Lernens ein.

Buch kaufen oder uns Autoren ansprechen.

0 Kommentare

Einen Kommentar abschicken

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Trendradar KI – Das Netzwerk

Die Digitale Erweiterung zum KI-Bestseller: Werden Sie Teil des Trendradar-Netzwerks. So erhalten Sie wertvolle Infos & Streams zu neuen branchenspezifischen Trendradaren. Profitieren Sie vom Austausch mit weiteren Entdecker*innen und Anwender*innen.