https://www.dire.it/08-10-2024/1086665-il-nobel-per-la-fisica-ai-padri-dellapprendimento-automatico/
- |
ROM – Der Nobelpreis für Physik 2024 wurde von der Schwedischen Akademie an Forscher verliehen John Hopfield und Geoffrey E.Hinton, der als Erster neuronale Netze „trainierte“ und damit den Weg für „leistungsstarkes automatisches maschinelles Lernen“ ebnete, also zur künstlichen Intelligenz.
Der Amerikaner John Hopfield hat, wie wir in der Notiz lesen, „ein assoziatives Gedächtnis geschaffen, das in der Lage ist, Bilder und andere Arten von Modellen in den Daten zu archivieren und zu rekonstruieren“.Was den Briten Geoffrey Hinton betrifft: „Er hat eine Methode erfunden, die selbstständig Eigenschaften in Daten finden und dann Aufgaben wie die Identifizierung bestimmter Elemente in Bildern ausführen kann.“
„Die Arbeit der Preisträger hat bereits großen Nutzen gebracht.„In der Physik nutzen wir künstliche neuronale Netze in den unterschiedlichsten Bereichen, etwa bei der Entwicklung neuer Materialien mit spezifischen Eigenschaften“, sagt Ellen Moons, Präsidentin des Nobelkomitees für Physik.
Die Schwedische Akademie fährt fort:„Wenn wir von künstlicher Intelligenz sprechen, meinen wir oft maschinelles Lernen über künstliche neuronale Netze. Diese Technologie wurde ursprünglich von der Struktur des Gehirns inspiriert.In einem künstlichen neuronalen Netzwerk werden Neuronen im Gehirn durch Knoten mit unterschiedlichen Werten dargestellt.Diese Knoten beeinflussen sich gegenseitig durch Verbindungen, die man mit Synapsen vergleichen kann und die verstärkt oder geschwächt werden können.Das Netzwerk wird trainiert, indem beispielsweise stärkere Verbindungen zwischen Knoten bei gleichzeitig hohen Werten aufgebaut werden.Die diesjährigen Gewinner haben seit den 1980er Jahren wichtige Arbeiten mit künstlichen neuronalen Netzen durchgeführt.“
Die Akademie fährt fort:„John Hopfield hat ein Netzwerk erfunden, das eine Methode zum Speichern und Neuerstellen von Mustern verwendet.Wir können uns Knoten als Pixel vorstellen.Das Hopfield-Netzwerk nutzt die Physik, die die Eigenschaften eines Materials anhand seines Atomspins beschreibt, einer Eigenschaft, die jedes Atom zu einem kleinen Magneten macht.Das Netzwerk als Ganzes wird auf eine Weise beschrieben, die der Energie im Spinsystem der Physik entspricht, und wird trainiert, indem Werte für Verbindungen zwischen Knoten ermittelt werden, sodass gespeicherte Bilder eine niedrige Energie aufweisen.Wenn das Hopfield-Netzwerk ein verzerrtes oder unvollständiges Bild erhält, arbeitet es methodisch durch die Knoten und aktualisiert ihre Werte, sodass die Energie des Netzwerks abnimmt.Das Netzwerk arbeitet dann schrittweise daran, das gespeicherte Bild zu finden, das dem unvollständigen Bild, mit dem es gefüttert wurde, am ähnlichsten ist.
Was Geoffrey Hinton betrifft: „Er nutzte Hopfields Netzwerk als Grundlage für ein neues Netzwerk mit einer anderen Methode:Die Boltzmann-Maschine.Dadurch kann gelernt werden, charakteristische Elemente in einem bestimmten Datentyp zu erkennen.Hinton verwendete Werkzeuge aus der statistischen Physik, der Wissenschaft von Systemen, die aus vielen ähnlichen Komponenten aufgebaut sind.Die Maschine wird trainiert, indem ihr Beispiele gegeben werden, die höchstwahrscheinlich auftauchen, wenn die Maschine in Betrieb genommen wird.Mit der Boltzmann-Maschine können Bilder klassifiziert oder neue Beispiele für den Mustertyp erstellt werden, auf den sie trainiert wurde.Hinton baute auf dieser Arbeit auf und trug dazu bei, die aktuelle explosive Entwicklung des maschinellen Lernens einzuleiten.“