Attention(2)
-
[Paper review] TabNet: Attentive Interpretable Tabular Learning 및 TabNet 실습
연구실 논문 세미나에서 들은 내용을 정리하고자 한다.논문 제목은 ' TabNet: Attentive Interpretable Tabular Learning'이다. Paper link:https://ojs.aaai.org/index.php/AAAI/article/view/16826 TabNet: Attentive Interpretable Tabular Learning | Proceedings of the AAAI Conference on Artificial Intelligence ojs.aaai.org 논문 간단 설명Tabular 데이터에서 주로 결정 트리(Decision Tree) 기반 모델들이 많이 사용된다. 하지만 트리 기반 모델은 표현력의 한계가 있으며, 딥러닝이 다양한 데이터 유형을 처리하는 ..
2024.09.13 -
[논문 리뷰] Attention Mechanism 기법, NLP
오늘 리뷰할 paper는 2014년에 발표된 논문 'NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE'이다. 이다. 기존의 Seq2Seq 방식에서 확장된 Attention 기법을 제안하여 많은 주목을 받았다. Attention 기법은 NLP 영역에서 필수로 알아야 하는 메커니즘이다. [Source url: https://arxiv.org/abs/1409.0473 , Cornell University] [Github url: https://github.com/bentrevett/pytorch-seq2seq/blob/master/3%20-%20Neural%20Machine%20Translation%20by%20Jointly%20Lea..
2022.04.03