Zum Inhalt springen

Glossar

Long-Short-Term-Memory

Long-Short-Term-Memory

Das Langzeitgedächtnis (Long Short-Term Memory, LSTM) ist eine Art Architektur für künstliche neuronale Netze (ANN), die häufig für Aufgaben wie Spracherkennung, Verarbeitung natürlicher Sprache und Zeitreihenvorhersage verwendet wird. Diese Architektur ermöglicht es dem Netz, langfristige Abhängigkeiten zu lernen, indem es Informationen über längere Zeiträume hinweg verfolgt. LSTM-Netze bestehen im Wesentlichen aus Einheiten, die Zellen genannt werden, um den Informationsfluss zu verwalten. Die Zellen verfügen über Speicherblöcke, die Gatter enthalten, mit denen der Informationsfluss gesteuert werden kann, so dass sich das Netz Informationen merken oder vergessen kann. Diese Gatter sind es, die der LSTM-Architektur ihre Vorteile gegenüber herkömmlichen rekurrenten neuronalen Netzen verleihen, da sie es dem Netz ermöglichen, sowohl aus kurz- als auch aus langfristigen Abhängigkeiten zu lernen.

Long-Short-Term-Memory auf ikipedia
Zurück