본문 바로가기

STUDY/인공지능

Attention mechanism

728x90

* Multi-head Self-Attention

- attention filter가 이미지가 들어왔을 때 어디에 강조할 지를 결정하는 것

- filter weiggt에 따라 강조하고 싶은 부분을 각각 attention 가능

- inductive bias가 적음

 

* ross-attention

- correlation layer를 통해 이미지 간의 correlation  정보 학습 가능

- 적은 이미지를 가지고 학습을 할때 이를 통해 강조 가능

 

*Stand-alone Self-Attention

- 지역적인 부분을 계산

- local과 gloabal 정보 계산 가능

728x90

'STUDY > 인공지능' 카테고리의 다른 글

yaml 파일 다루기, 읽기, key value 값 뽑기  (0) 2023.03.29
np.array, ToTensor, ToPILImage 공부  (0) 2023.03.28
albumentations library  (0) 2023.02.24
[ML 책] 머신러닝이란?  (0) 2022.11.05
[실습 ML] Gradient descent algorithm  (0) 2022.02.07