Bộ nhớ dài-ngắn hạn

Một phần của loạt bài về
Học máy
khai phá dữ liệu
Các vấn đề
  • Học cây quyết định
  • Học tập thể
    • Bagging
    • Boosting
    • Rừng ngẫu nhiên
  • k-NN
  • Hồi quy tuyến tính
  • Bộ phân loại Bayes đơn giản
  • Mạng thần kinh nhân tạo
  • Hồi quy logistic
  • Perceptron
  • Máy vectơ tương quan (RVM)
  • Máy vectơ hỗ trợ (SVM)
  • BIRCH
  • CURE
  • Thứ bậc
  • k-means
  • Thuật toán cực đại hóa kỳ vọng (EM)

  • DBSCAN
  • OPTICS
  • Dịch chuyển trung bình
Phát hiện bất thường
  • Q-learning (học tăng cường)
  • SARSA
  • Chênh lệch thời gian (TD)
Lý thuyết
  • Cân bằng độ lệch-phương sai
  • Lý thuyết học tập tính toán
  • Giảm thiểu rủi ro bằng kinh nghiệm
  • Học Occam
  • Học PAC
  • Lý thuyết học thống kê
  • Lý thuyết VC
Diễn đàn/tạp chí
  • NeurIPS
  • ICML
  • ML
  • JMLR
  • ArXiv:cs.LG
Bài viết liên quan
  • x
  • t
  • s
Tế bào bộ nhớ dài-ngắn hạn (LSTM) có thể xử lý dữ liệu tuần tự và giữ trạng thái ẩn của nó theo thời gian.

Bộ nhớ dài-ngắn hạn[1] hay Bộ nhớ ngắn-dài hạn (tiếng Anh: Long short-term memory, viết tắt LSTM) là một mạng thần kinh hồi quy (RNN) nhân tạo[2] được sử dụng trong lĩnh vực học sâu. Không giống như các mạng thần kinh truyền thẳng (FNN) tiêu chuẩn, LSTM có chứa các kết nối phản hồi. Mạng không chỉ xử lý các điểm dữ liệu đơn lẻ (như các hình ảnh), mà còn xử lý toàn bộ chuỗi dữ liệu (chẳng hạn như lời nói hoặc video). Ví dụ, LSTM có thể áp dụng cho các tác vụ nhận dạng chữ viết tay[3], nhận dạng tiếng nói[4][5] và phát hiện bất thường có tính chất kết nối, không phân đoạn trong giao thông mạng hoặc các IDS (hệ thống phát hiện xâm nhập).

Một đơn vị LSTM thông thường bao gồm một tế bào (cell), một cổng vào (input gate), một cổng ra (output gate) và một cổng quên (forget gate). Tế bào ghi nhớ các giá trị trong các khoảng thời gian bất ý và ba cổng sẽ điều chỉnh luồng thông tin ra/vào tế bào.

Các ứng dụng

Các ứng dụng sử dụng LSTM bao gồm:

Xem thêm

Tham khảo

  1. ^ Mạng neural hồi quy cheatsheet, Standford University.
  2. ^ Sepp Hochreiter; Jürgen Schmidhuber (1997). “Long short-term memory”. Neural Computation. 9 (8): 1735–1780. doi:10.1162/neco.1997.9.8.1735.
  3. ^ Graves, A.; Liwicki, M.; Fernandez, S.; Bertolami, R.; Bunke, H.; Schmidhuber, J. (2009). “A Novel Connectionist System for Improved Unconstrained Handwriting Recognition” (PDF). IEEE Transactions on Pattern Analysis and Machine Intelligence. 31 (5): 855–868. CiteSeerX 10.1.1.139.4502. doi:10.1109/tpami.2008.137. PMID 19299860.
  4. ^ Sak, Hasim; Senior, Andrew; Beaufays, Francoise (2014). “Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling” (PDF). Bản gốc (PDF) lưu trữ ngày 24 tháng 4 năm 2018.
  5. ^ Li, Xiangang; Wu, Xihong (ngày 15 tháng 10 năm 2014). "Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition". arΧiv:[1] [cs.CL]. 
  6. ^ Mayer, H.; Gomez, F.; Wierstra, D.; Nagy, I.; Knoll, A.; Schmidhuber, J. (tháng 10 năm 2006). A System for Robotic Heart Surgery that Learns to Tie Knots Using Recurrent Neural Networks. 2006 IEEE/RSJ International Conference on Intelligent Robots and Systems. tr. 543–548. CiteSeerX 10.1.1.218.3399. doi:10.1109/IROS.2006.282190. ISBN 978-1-4244-0258-8.
  7. ^ Wierstra, Daan; Schmidhuber, J.; Gomez, F. J. (2005). “Evolino: Hybrid Neuroevolution/Optimal Linear Search for Sequence Learning”. Proceedings of the 19th International Joint Conference on Artificial Intelligence (IJCAI), Edinburgh: 853–858.
  8. ^ Graves, A.; Schmidhuber, J. (2005). “Framewise phoneme classification with bidirectional LSTM and other neural network architectures”. Neural Networks. 18 (5–6): 602–610. CiteSeerX 10.1.1.331.5800. doi:10.1016/j.neunet.2005.06.042. PMID 16112549.
  9. ^ Fernández, Santiago; Graves, Alex; Schmidhuber, Jürgen (2007). An Application of Recurrent Neural Networks to Discriminative Keyword Spotting. Proceedings of the 17th International Conference on Artificial Neural Networks. ICANN'07. Berlin, Heidelberg: Springer-Verlag. tr. 220–229. ISBN 978-3540746935.
  10. ^ Graves, Alex; Mohamed, Abdel-rahman; Hinton, Geoffrey (2013). “Speech Recognition with Deep Recurrent Neural Networks”. Acoustics, Speech and Signal Processing (ICASSP), 2013 IEEE International Conference on: 6645–6649. arXiv:1303.5778. doi:10.1109/ICASSP.2013.6638947. ISBN 978-1-4799-0356-6.
  11. ^ Gers, F.; Schraudolph, N.; Schmidhuber, J. (2002). “Learning precise timing with LSTM recurrent networks” (PDF). Journal of Machine Learning Research. 3: 115–143.
  12. ^ Eck, Douglas; Schmidhuber, Jürgen (ngày 28 tháng 8 năm 2002). Learning the Long-Term Structure of the Blues. Artificial Neural Networks — ICANN 2002. Lecture Notes in Computer Science. 2415. Springer, Berlin, Heidelberg. tr. 284–289. CiteSeerX 10.1.1.116.3620. doi:10.1007/3-540-46084-5_47. ISBN 978-3540460848.
  13. ^ Schmidhuber, J.; Gers, F.; Eck, D.; Schmidhuber, J.; Gers, F. (2002). “Learning nonregular languages: A comparison of simple recurrent networks and LSTM”. Neural Computation. 14 (9): 2039–2041. CiteSeerX 10.1.1.11.7369. doi:10.1162/089976602320263980. PMID 12184841.
  14. ^ Gers, F. A.; Schmidhuber, J. (2001). “LSTM Recurrent Networks Learn Simple Context Free and Context Sensitive Languages” (PDF). IEEE Transactions on Neural Networks. 12 (6): 1333–1340. doi:10.1109/72.963769. PMID 18249962. Bản gốc (PDF) lưu trữ ngày 10 tháng 7 năm 2020. Truy cập ngày 21 tháng 11 năm 2020.
  15. ^ Perez-Ortiz, J. A.; Gers, F. A.; Eck, D.; Schmidhuber, J. (2003). “Kalman filters improve LSTM network performance in problems unsolvable by traditional recurrent nets”. Neural Networks. 16 (2): 241–250. CiteSeerX 10.1.1.381.1992. doi:10.1016/s0893-6080(02)00219-8. PMID 12628609.
  16. ^ A. Graves, J. Schmidhuber. Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks. Advances in Neural Information Processing Systems 22, NIPS'22, pp 545–552, Vancouver, MIT Press, 2009.
  17. ^ Graves, Alex; Fernández, Santiago; Liwicki, Marcus; Bunke, Horst; Schmidhuber, Jürgen (2007). Unconstrained Online Handwriting Recognition with Recurrent Neural Networks. Proceedings of the 20th International Conference on Neural Information Processing Systems. NIPS'07. USA: Curran Associates Inc. tr. 577–584. ISBN 9781605603520.
  18. ^ M. Baccouche, F. Mamalet, C Wolf, C. Garcia, A. Baskurt. Sequential Deep Learning for Human Action Recognition. 2nd International Workshop on Human Behavior Understanding (HBU), A.A. Salah, B. Lepri ed. Amsterdam, Netherlands. pp. 29–39. Lecture Notes in Computer Science 7065. Springer. 2011
  19. ^ Huang, Jie; Zhou, Wengang; Zhang, Qilin; Li, Houqiang; Li, Weiping (ngày 30 tháng 1 năm 2018). "Video-based Sign Language Recognition without Temporal Segmentation". arΧiv:1801.10111 [cs.CV]. 
  20. ^ Hochreiter, S.; Heusel, M.; Obermayer, K. (2007). “Fast model-based protein homology detection without alignment”. Bioinformatics. 23 (14): 1728–1736. doi:10.1093/bioinformatics/btm247. PMID 17488755.
  21. ^ Thireou, T.; Reczko, M. (2007). “Bidirectional Long Short-Term Memory Networks for predicting the subcellular localization of eukaryotic proteins”. IEEE/ACM Transactions on Computational Biology and Bioinformatics. 4 (3): 441–446. doi:10.1109/tcbb.2007.1015. PMID 17666763.
  22. ^ Malhotra, Pankaj; Vig, Lovekesh; Shroff, Gautam; Agarwal, Puneet (tháng 4 năm 2015). “Long Short Term Memory Networks for Anomaly Detection in Time Series” (PDF). European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning — ESANN 2015. Bản gốc (PDF) lưu trữ ngày 30 tháng 10 năm 2020. Truy cập ngày 21 tháng 11 năm 2020.
  23. ^ Tax, N.; Verenich, I.; La Rosa, M.; Dumas, M. (2017). Predictive Business Process Monitoring with LSTM neural networks. Proceedings of the International Conference on Advanced Information Systems Engineering (CAiSE). Lecture Notes in Computer Science. 10253. tr. 477–492. arXiv:1612.02130. doi:10.1007/978-3-319-59536-8_30. ISBN 978-3-319-59535-1.
  24. ^ Choi, E.; Bahadori, M.T.; Schuetz, E.; Stewart, W.; Sun, J. (2016). “Doctor AI: Predicting Clinical Events via Recurrent Neural Networks”. Proceedings of the 1st Machine Learning for Healthcare Conference. 56: 301–318. arXiv:1511.05942. Bibcode:2015arXiv151105942C. PMC 5341604. PMID 28286600.
  25. ^ Jia, Robin; Liang, Percy (2016-06-11). Arxiv:1606.03622. arXiv:1606.03622 [cs].
  26. ^ Wang, Le; Duan, Xuhuan; Zhang, Qilin; Niu, Zhenxing; Hua, Gang; Zheng, Nanning (ngày 22 tháng 5 năm 2018). “Segment-Tube: Spatio-Temporal Action Localization in Untrimmed Videos with Per-Frame Segmentation” (PDF). Sensors. 18 (5): 1657. doi:10.3390/s18051657. ISSN 1424-8220. PMC 5982167. PMID 29789447.
  27. ^ Duan, Xuhuan; Wang, Le; Zhai, Changbo; Zheng, Nanning; Zhang, Qilin; Niu, Zhenxing; Hua, Gang (2018). Joint Spatio-Temporal Action Localization in Untrimmed Videos with Per-Frame Segmentation. 25th IEEE International Conference on Image Processing (ICIP). doi:10.1109/icip.2018.8451692. ISBN 978-1-4799-7061-2.
  28. ^ Orsini, F.; Gastaldi, M.; Mantecchini, L.; Rossi, R. (2019). Neural networks trained with WiFi traces to predict airport passenger behavior. 6th International Conference on Models and Technologies for Intelligent Transportation Systems. Krakow: IEEE. arXiv:1910.14026. doi:10.1109/MTITS.2019.8883365. 8883365.
  29. ^ Zhao, Z.; Chen, W.; Wu, X.; Chen, P.C.Y.; Liu, J. (2017). “LSTM network: A deep learning approach for Short-term traffic forecast”. IET Intelligent Transport Systems. 11 (2): 68–75. doi:10.1049/iet-its.2016.0208.
  30. ^ Gupta A, Müller AT, Huisman BJH, Fuchs JA, Schneider P, Schneider G (2018). “Generative Recurrent Networks for De Novo Drug Design”. Mol Inform. 37 (1–2). doi:10.1002/minf.201700111. PMC 5836943. PMID 29095571.Quản lý CS1: nhiều tên: danh sách tác giả (liên kết)

Liên kết ngoài

  • Recurrent Neural Networks with over 30 LSTM papers by Jürgen Schmidhuber's group at Dalle Molle Institute for Artificial Intelligence Research
  • Gers, Felix (2001). “Long Short-Term Memory in Recurrent Neural Networks” (PDF). PhD thesis.
  • Gers, Felix A.; Schraudolph, Nicol N.; Schmidhuber, Jürgen (tháng 8 năm 2002). “Learning precise timing with LSTM recurrent networks” (PDF). Journal of Machine Learning Research. 3: 115–143.
  • Abidogun, Olusola Adeniyi (2005). Data Mining, Fraud Detection and Mobile Telecommunications: Call Pattern Analysis with Unsupervised Neural Networks. Master's Thesis (Thesis). University of the Western Cape. hdl:11394/249. Lưu trữ (PDF) bản gốc ngày 22 tháng 5 năm 2012.
    • original with two chapters devoted to explaining recurrent neural networks, especially LSTM.
  • Monner, Derek D.; Reggia, James A. (2010). “A generalized LSTM-like training algorithm for second-order recurrent neural networks” (PDF). Neural Networks. 25 (1): 70–83. doi:10.1016/j.neunet.2011.07.003. PMC 3217173. PMID 21803542. High-performing extension of LSTM that has been simplified to a single node type and can train arbitrary architectures
  • Dolphin, R. “LSTM Networks - A Detailed Explanation”. Article.
  • Herta, Christian. “How to implement LSTM in Python with Theano”. Tutorial. Bản gốc lưu trữ ngày 3 tháng 1 năm 2015. Truy cập ngày 18 tháng 11 năm 2020.
  • Analyze the equation and build your own custom LSTM cell in Python. Tutorial
Bài viết này vẫn còn sơ khai. Bạn có thể giúp Wikipedia mở rộng nội dung để bài được hoàn chỉnh hơn.
  • x
  • t
  • s