Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen Revision Vorhergehende Überarbeitung | |||
tensorflow [2024/07/30 20:48] jango [Recurrent] |
tensorflow [2024/07/30 20:53] (aktuell) jango [Recurrent] |
||
---|---|---|---|
Zeile 88: | Zeile 88: | ||
* Long Short-Term Memory (LSTM): LSTMs sind eine Art von RNN mit einer spezialisierten Speicherzelle, | * Long Short-Term Memory (LSTM): LSTMs sind eine Art von RNN mit einer spezialisierten Speicherzelle, | ||
* Gated Recurrent Unit (GRU): GRUs sind eine andere Variante von RNNs mit einer vereinfachten Struktur im Vergleich zu LSTMs, aber auch mit Gating-Mechanismen zur Steuerung des Informationsflusses. Sie sind rechentechnisch weniger aufwendig als LSTMs und liefern oft ähnliche Ergebnisse, wodurch sie eine beliebte Wahl für Sequenzmodellierungsaufgaben sind. | * Gated Recurrent Unit (GRU): GRUs sind eine andere Variante von RNNs mit einer vereinfachten Struktur im Vergleich zu LSTMs, aber auch mit Gating-Mechanismen zur Steuerung des Informationsflusses. Sie sind rechentechnisch weniger aufwendig als LSTMs und liefern oft ähnliche Ergebnisse, wodurch sie eine beliebte Wahl für Sequenzmodellierungsaufgaben sind. | ||
- | * Bidirectional RNN: In einem bidirektionalen RNN wird die Eingabesequenz sowohl in Vorwärts- als auch in Rückwärtsrichtung verarbeitet. Dadurch kann das RNN vergangenen und zukünftigen Kontext bei Vorhersagen berücksichtigen, was für bestimmte Aufgaben, wie beispielsweise | + | * Bidirectional RNN: In einem bidirektionalen RNN wird die Eingabesequenz sowohl in Vorwärts- als auch in Rückwärtsrichtung verarbeitet. Dadurch kann das RNN vergangenen und zukünftigen Kontext bei Vorhersagen berücksichtigen. [[https:// |
* Attention-based RNN: Attention-Mechanismen werden verwendet, um sich auf bestimmte Teile der Eingabesequenz zu konzentrieren, | * Attention-based RNN: Attention-Mechanismen werden verwendet, um sich auf bestimmte Teile der Eingabesequenz zu konzentrieren, | ||
* Transformer: | * Transformer: |