Transformer 요약 정리

image
  • 강점
  • Attention을 활용, 반복을 최소화하고, Positional Encoding을 활용해서 parallelization 지원
  • Attention을 활용하여 Input Sequence에서 다른 Sequence의 어떠한 부분이 중요한지 결정
image
  • 구조
  • $X$개의 Encoder와 $X$의 Decoder로 구성되어 있음
  • Encoder와 Decoder의 수는 동일하며, Encoder는 모두 동일한 구조, but Weight Matrix를 공유하지 않음
  • Encoder는 Self-Attention과 Feed-Forward로 구성되어 있음
  • Self Attention에서는 $K,Q,V$ Vector를 생성후 $Q$와 $K$의 내적으로 Attention Score를 계산후 $\sqrt{|K|}$로 나누어준 후 Softmax를 거쳐 $V$를 곱한 후 이걸 다 더 해서 Feed-Forward로 간다.
  • 이 때 Multi Head Attention이라는 것은 $N$개의 Encoder를 거쳐 $N$개의 공간에 투영한 $K,Q,V$ Vector가 생긴다는 의미로 성능을 향상시키는 요소가 될 수 있다. 다양한 공간에서 Vecotr를 표현하기 때문이다.
  • Feed-Forward는 Self Attention의 출력과 Positional Encoding이 결합되어 들어감.
  • 이후에 Residual Connection, Layer Normalization 등을 거친다.
  • $K, V$ Vector는 Encoder의 출력으로 가서 Decoder의 입력으로 간다.
  • Decoder는 크게 두개 정도가 Encoder와 다르다. Masked self-attention layer와 Encoder-Decoder Attention이다.
  • Masked Self Attention은 input과 달리 현재 입력 시퀀스 이전의 위치에 대해서만 Score를 계산한다. 문장을 왼쪽부터 오른쪽으로 변환한다고 할 때 사람의 관점에서 보면 이전의 위치만 아는게 맞기 때문이다. 오른에 대해서는 Softmax 변환전 $Inf$로 모두 처리하여 배제한다.
  • Encoder-Decoder Attention은 Encoder의 출력에서 가지고 와서, Encoder 정보 기준에서 Attention Scoring을 한다.
  • 이후에 FCN(Fully Connected Layer)로 연결하고, Softmax를 거쳐서 단어별 확률을 뽑아 가장 확률이 높은 단어로 조합을 하여 최종 출력으로 내보낸다.

Refernece

Read more

OLS 기반 인과추론 시 오차항 관련 체크 필요 가정

OLS 기반 인과추론 시 오차항 관련 체크 필요 가정

배경 * 아래 글을 DANBI에서 보다가 더 알아보게 되었습니다. OLS를 떠받치는 몇 개의 기둥이 있는데 그중 실용적으로 가장 중요한 것이 일치성(consistency)다. 쉽게 말해서 OLS를 통해 도출된 추정량이 있을 때 샘플사이즈가 커지면서 이 값이 참 값으로 접근한다는 것이다. 일치성이 충족되면 우리는 적당하게 큰 표본에 대해서 추정치가 좋은 속성을 지니고 있다고

인공지능이 문제가 아니라 결국 사람이 문제가 될 것입니다.

인공지능이 문제가 아니라 결국 사람이 문제가 될 것입니다.

사람들이 AI가 필요하다고 생각하는 시점 저 판사를 얼른 AI로 교체해야 한다. 유튜브에서 뉴스를 보다 보면 정말 많이 보이는 덧글입니다. 이러한 내용의 덧글이 달릴 때마다, 정말 많은 사람들이 공감을 표하곤 합니다. 왜 이렇게 사람들은 이러한 주장에 공감을 표하는 것일까? AI는 시킨대로 하기 때문에 공정하다는 인식 여러 이유가 있겠지만, 사람들은 아마 AI가

BG/NBD 모델은 고객 생애가치를 추정하는데 사용되는 확률 모델입니다.

BG/NBD 모델은 고객 생애가치를 추정하는데 사용되는 확률 모델입니다.

1. BG/NBD 모델이란? * BG/NBD(Beta-Geometric/Negative Binomial Distribution) 모델은 **고객의 생애 가치(Customer Lifetime Value, CLV)**를 추정하는 데 사용되는 확률적 모델입니다. * 특히 고객이 반복 구매를 할지, 아니면 더 이상 활동하지 않을지를 추정하는 데 유용합니다. 이 모델은 고객의 구매 행태를 두 가지 중요한 개념으로 나눕니다: * 고객은 활성(active)

다중공선성은 잘못된 인과추론 결과를 만들어낼 수 있습니다.

다중공선성은 잘못된 인과추론 결과를 만들어낼 수 있습니다.

다중공선성(Multi Collinearity) * **Multi-Collinearity(다중공선성)**는 독립 변수들 간의 강한 상관관계가 존재할 때 발생합니다. 즉, 한 독립 변수가 다른 독립 변수에 의해 설명될 수 있을 정도로 상관관계가 높은 상황을 의미합니다. * 이 문제는 주로 회귀 분석에서 나타나며, 변수들 간의 관계를 해석하는 데 있어 큰 장애물이 될 수 있습니다. * 일반적인 회귀식을 $Y=