02. 트랜스포머 아키텍쳐
* 인코더(Encoder) : 언어를 이해하는 과정
* 디코더(Decoder) : 언어를 생성하는 과정
* 셀프어텐션(Self-attention) : 입력된 문장 내의 각 단어가 서로 어떤 관련이 있는지 계산해서 각 단어의 표현을 조정하는 역할
* 위치 인코딩(Positional Encoding)
* 층 정규화(Layer Normalization)
* 멀티 헤드 어텐션(Multi Head Attention)
* 피드 포워드(Feed Forward)
* 토큰화(tokenization) : 텍스트를 적절한 단위로 나누고 숫자 아이디를 부여하는 작업
→ 새로운 단어는 사전에 없기 때문에 처리하지 못하는 OOV(Out Of Vocabulary) 문제가 자주 발생
* 토큰 임베딩으로 변환하기 : Pytorch가 제공하는 nn.Embedding 클래스 사용
* Attention is All you need
* 어텐션 이해하기 :
- 핵심 개념 : 쿼리(Query), 키(Key), 값(Value)
- 쿼리(Query) > 검색어
- 키(Key) > 문서가 가진 특징 : 제목, 본문, 저자 이름 등
- 값(Value) > 쿼리와 관련깊은 키를 가진 문서를 찾아 관련도순으로 정렬해서 문서를 제공할 때 문서의 값