STUDY/인공지능
Attention mechanism
채소보끔
2023. 3. 27. 14:47
728x90
* Multi-head Self-Attention
- attention filter가 이미지가 들어왔을 때 어디에 강조할 지를 결정하는 것
- filter weiggt에 따라 강조하고 싶은 부분을 각각 attention 가능
- inductive bias가 적음
* ross-attention
- correlation layer를 통해 이미지 간의 correlation 정보 학습 가능
- 적은 이미지를 가지고 학습을 할때 이를 통해 강조 가능
*Stand-alone Self-Attention
- 지역적인 부분을 계산
- local과 gloabal 정보 계산 가능
728x90