Talk:Transformer (機械學習模型)
最新留言:11 個月前由InternetArchiveBot喺主題對外連結有變 (2023年12月)度留言
本文包含嚟自 en.wikipedia 《Transformer (machine learning model)》 嘅一個翻譯版本(1564387起)。 |
對外連結有變 (2023年11月)
編輯各位編輯仝人:
我啱啱救返Transformer (機械學習模型)上面嘅 1 個對外連結。麻煩檢查下我改嘅嘢。有咩查詢,或者想隻機械人唔理啲外連,或者想隻機械人成版唔好掂,請睇呢版簡明嘅問答頁。我改咗呢啲外連:
- 加咗存檔 https://web.archive.org/web/20201021203352/https://indico.io/blog/sequence-modeling-neural-networks-part2-attention-models/ 落 https://indico.io/blog/sequence-modeling-neural-networks-part2-attention-models/
如果隻機械人有錯,請睇問答頁嘅指示。
唔該晒!—InternetArchiveBot (報告軟件缺陷) 2023年11月11號 (六) 02:12 (UTC)
對外連結有變 (2023年12月)
編輯各位編輯仝人:
我啱啱救返Transformer (機械學習模型)上面嘅 2 個對外連結。麻煩檢查下我改嘅嘢。有咩查詢,或者想隻機械人唔理啲外連,或者想隻機械人成版唔好掂,請睇呢版簡明嘅問答頁。我改咗呢啲外連:
- 由 https://indico.io/blog/sequence-modeling-neural-networks-part2-attention-models/ 攞走咗失效連結標籤
- 加咗存檔 https://web.archive.org/web/20201026130457/https://www.coursera.org/lecture/attention-models-in-nlp/tasks-with-long-sequences-suzNH 落 https://www.coursera.org/lecture/attention-models-in-nlp/tasks-with-long-sequences-suzNH
如果隻機械人有錯,請睇問答頁嘅指示。
唔該晒!—InternetArchiveBot (報告軟件缺陷) 2023年12月26號 (二) 02:37 (UTC)