Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen Revision Vorhergehende Überarbeitung Nächste Überarbeitung | Vorhergehende Überarbeitung | ||
tensorflow [2024/07/30 20:47] jango [Recurrent] |
tensorflow [2024/07/30 20:53] (aktuell) jango [Recurrent] |
||
---|---|---|---|
Zeile 88: | Zeile 88: | ||
* Long Short-Term Memory (LSTM): LSTMs sind eine Art von RNN mit einer spezialisierten Speicherzelle, | * Long Short-Term Memory (LSTM): LSTMs sind eine Art von RNN mit einer spezialisierten Speicherzelle, | ||
* Gated Recurrent Unit (GRU): GRUs sind eine andere Variante von RNNs mit einer vereinfachten Struktur im Vergleich zu LSTMs, aber auch mit Gating-Mechanismen zur Steuerung des Informationsflusses. Sie sind rechentechnisch weniger aufwendig als LSTMs und liefern oft ähnliche Ergebnisse, wodurch sie eine beliebte Wahl für Sequenzmodellierungsaufgaben sind. | * Gated Recurrent Unit (GRU): GRUs sind eine andere Variante von RNNs mit einer vereinfachten Struktur im Vergleich zu LSTMs, aber auch mit Gating-Mechanismen zur Steuerung des Informationsflusses. Sie sind rechentechnisch weniger aufwendig als LSTMs und liefern oft ähnliche Ergebnisse, wodurch sie eine beliebte Wahl für Sequenzmodellierungsaufgaben sind. | ||
- | * Bidirectional RNN: In einem bidirektionalen RNN wird die Eingabesequenz sowohl in Vorwärts- als auch in Rückwärtsrichtung verarbeitet. Dadurch kann das RNN vergangenen und zukünftigen Kontext bei Vorhersagen berücksichtigen, was für bestimmte Aufgaben, wie beispielsweise | + | * Bidirectional RNN: In einem bidirektionalen RNN wird die Eingabesequenz sowohl in Vorwärts- als auch in Rückwärtsrichtung verarbeitet. Dadurch kann das RNN vergangenen und zukünftigen Kontext bei Vorhersagen berücksichtigen. [[https:// |
* Attention-based RNN: Attention-Mechanismen werden verwendet, um sich auf bestimmte Teile der Eingabesequenz zu konzentrieren, | * Attention-based RNN: Attention-Mechanismen werden verwendet, um sich auf bestimmte Teile der Eingabesequenz zu konzentrieren, | ||
* Transformer: | * Transformer: | ||
* Clockwork RNN: Clockwork RNNs haben unterschiedliche Zeitschritte für verschiedene Neuronen in der versteckten Schicht. Dadurch können verschiedene Teile des Netzwerks mit unterschiedlichen Frequenzen arbeiten, was bei Daten mit hierarchischen zeitlichen Mustern hilfreich sein kann. | * Clockwork RNN: Clockwork RNNs haben unterschiedliche Zeitschritte für verschiedene Neuronen in der versteckten Schicht. Dadurch können verschiedene Teile des Netzwerks mit unterschiedlichen Frequenzen arbeiten, was bei Daten mit hierarchischen zeitlichen Mustern hilfreich sein kann. | ||
- | * Echo State Network (ESN): ESN ist eine Art von Reservoir-Computing-Netzwerk, | + | * Echo State Network (ESN): ESN ist eine Art von [[https:// |
* Hierarchical RNN: Hierarchische RNNs stapeln mehrere RNN-Schichten, | * Hierarchical RNN: Hierarchische RNNs stapeln mehrere RNN-Schichten, | ||
* Dilated RNN: Dilated RNNs verwenden verdünnte (oder spärliche) Faltungen in der rekurrenten Schicht, wodurch das Netzwerk ein größeres [[https:// | * Dilated RNN: Dilated RNNs verwenden verdünnte (oder spärliche) Faltungen in der rekurrenten Schicht, wodurch das Netzwerk ein größeres [[https:// |