Transformer에서 배울 점

data science
transformer
rnn
gpt
encoder
decoder
stateless
auto-regressive
normalization
residual
temperature
attention
Author

Yunho Kee

Published

May 25, 2025

Modified

May 27, 2025

A photo of a bird's eye view of a city.

Photo by Mohit Kumar on Unsplash

Transformer 논문에서1 배울 점은 무엇일까?

  1. 한글에 비할 바는 못 된다 (see 잇츠룸장 2024).

  2. RNN(Recurrent Neural Networks)과 Transformer의 비교

    RNN(Recurrent Neural Networks)은 입력뿐 아니라 입력의 앞부분에 대해 생성한 상태에 의존해 출력한다. 반면에 Transformer는 Encoder의 전처리 덕분에 RNN(Recurrent Neural Networks)과 달리 그리고 마치 HTTP처럼 Stateless하다. 그래서 학습을 마치고 추론할 때도 RNN(Recurrent Neural Networks)과 달리 입력의 앞부분에 대한 상태 생성을 건너뛸 수 있다. 또한 Encoder 덕분에 Decoder의 각 출력에 대해 RNN(Recurrent Neural Networks)처럼 직렬 학습하는 대신 병렬 학습이 가능하다.

  3. GPT(Generative Pre-Trained Transformer)와 Transformer의 비교

    GPT(Generative Pre-Trained Transformer)의 입력은 출력에 Auto-Regressive하다. 반면에 Transformer의 Decoder는 GPT(Generative Pre-Trained Transformer)와 달리 입력에 Encoder의 출력으로서 Auto-Regressive하지 않은 입력도 포함한다. 바꿔 말하면 Self-AttentionCross-Attention, 또는 Encoder-Decoder Attention2 차이이다.

  4. Transformer의 Encoder와 Decoder의 시간 복잡도 차이

    Transformer의 Encoder와 Decoder는 둘다 \(N = 6\)개의 Layer의 Stack으로 구성된다 (see Vaswani et al. 2017, sec. 3.1, p. 3). 그러나 Encoder는 입력 길이 전체에 대해 1번만 전처리하는 반면에 Decoder는 Auto-Regressive하므로 출력 길이만큼 수행해야 한다. 다만 Decoder의 학습은 학습을 마치고 추론할 때와 달리 병렬 처리가 가능하다.

  5. Layer Normalization의 의미

    Normalization이란 표준화를 의미한다 (see commit.im 2025, 0:48). Data의 Sample 또는 Instance는 Batch라는 더 큰 단위를 이루거나 또는 반대로 Channel 단위로 나뉠 수도 있다. Channel 단위로 나눈다면 Batch NormalizationInstance Normalization은 각각 Batch 단위와 Instance 단위로 계산하면서도 내부적으로는 Channel 단위로 표준화한다 (see Li et al. 2019). Layer NormalizationGroup Normalization, Positional Normalization은 모두 Instance 단위로 계산하면서도 각각 내부적으로는 Layer에서 Channel공간적인 Position을 구분하지 않고 표준화하고, 나머지 둘은 Channel을 구분하지 않으면서도 전자는 Channel의 Group 단위로, 후자는 공간적인 Position 단위로 표준화한다 (see Li et al. 2019).

    Transformer의 입력은 시간적인 Position과 그 하위 차원으로 나눌 수 있다. 그리고 Transformer의 Layer Normalization시간적인 Position 단위로 표준화하므로 반대로 구분하지 않아야 할 Channel이나 공간적인 Position시간적인 Position과 별개여야 한다. 이때 하위 차원Channel로 볼 수 있는 2가지 근거가 있다. 첫째는, Fully-Connected Feed-Forward Networks를 Kernel Size가 1인 2개의 Convolutions로 이해하려면 하위 차원이 Channel이어야 하기 때문이다. 그리고 ConvolutionSoftmax가 Channel 간 가중 평균 확률을 구할 때처럼 Transformer의 Softmax도 Query 행렬의 시간적인 Position마다 하위 차원인 Key 행렬의 시간적인 Position, 또는 Value 행렬의 시간적인 Position에 대해 계산하기 때문이다. 그러면 Transformer의 입력에서 공간적인 Position은 없거나 1개라고 생각할 수 있다.

    만일 Transformer의 Layer Normalization에서 구분하지 않는 하위 차원공간적인 Position이라고 생각해 보면 반대로 공간적인 Position을 구분하는 Positional Normalization이라고는 설명할 수 없다. 대신에 시간적인 Position공간적인 Position으로 간주하면 Positional Normalization이라고 생각할 수도 있고, 하위 차원Channel이라고 볼 수 있다. 그러면 반대로 공간적인 Position 단위로 표준화하지 않는 Layer Normalization이라고는 더 이상 설명하지 못하게 된다는 문제가 있다 (see commit.im 2025).

  6. Residual Connections의 기능

    Layer들의 집합\(N\)개일 때 Residual Connections를 통해 출력에 \(N\)개의 집합 1개 대신 그 집합의 모든 부분집합 \(2^N\)개가 기여할 수 있다 (see Lee 2021, chap. 3, Section 3-4, p. 107).

  7. Scale의 기능

    Softmax의 입력을 1보다 큰 Scale로 나누는 것은 Softmax Temperature로서 예측 불확실성을 높인다 (see Boonstra 2024). 그리고 Drop-Out처럼 학습 대상을 늘릴 수 있을 것 같다. Vaswani et al. (2017, sec. 3.2.1, p. 4)에서는 학습량이 너무 작아질까봐 늘려주기 위해서라고 한다.

    한편 Attention 내부가 아니라 모델 전체의 출력 직전에 수행하는 Softmax는 Scale하지 않는다. 다만 모델 출력 직전 Softmax의 입력과, 출력을 다시 Decoder에 입력할 때, 그리고 Encoder의 입력을 만들 때의 세 경우에는 모두 같은 가중치 행렬을 공유하며 선형 변환을 수행하면서도, 이번에는 Softmax 입력의 Scale을 줄이는 대신에 즉 줄이지 않고 반대로 후자의 두 경우에서 Scale을 늘린다 (see Vaswani et al. 2017, sec. 3.4, p. 5). 이때 Encoder의 입력과 Decoder의 입력이 같은 가중치 행렬을 공유한다는 말은 두 입력이 같은 어휘 집합을 공유한다는 말이다.

Back to top

References

Boonstra, Lee. 2024. “Prompt Engineering.” Google Cloud. https://www.kaggle.com/whitepaper-prompt-engineering.
commit.im. 2025. “이렇게 이해하면 안되는 이유.” April 12, 2025. https://www.youtube.com/watch?v=r7DRvHmHcNU.
Lee, Gichang. 2021. Do it! BERT와 GPT로 배우는 자연어 처리: 트랜스포머 핵심 원리와 허깅페이스 패키지 활용법. 이지스퍼블리싱 (주). https://books.google.co.kr/books?id=1W9UEAAAQBAJ.
Li, Boyi, Felix Wu, Kilian Q. Weinberger, and Serge Belongie. 2019. “Positional Normalization.” https://arxiv.org/abs/1907.04312.
Vaswani, Ashish, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. 2017. “Attention Is All You Need.” https://arxiv.org/abs/1706.03762.
잇츠룸장. 2024. “한글은 공학박사 김태민의 운명이자 사명! 한글은 문화와 논리, 과학의 결정체로 인공지능 시대에 더욱 빛나는 자연법칙이다.” May 5, 2024. https://blog.naver.com/hj5864/223436934579.

Footnotes

  1. Vaswani et al. (2017)↩︎

  2. see Vaswani et al. (2017), Section 3.2.3, p. 5↩︎

Citation

BibTeX citation:
@online{kee2025,
  author = {Kee, Yunho},
  title = {Transformer에서 배울 점},
  date = {2025-05-25},
  url = {https://yhkee0404.github.io/posts/data-science/transformer/},
  langid = {ko}
}
For attribution, please cite this work as:
Kee, Yunho. 2025. “Transformer에서 배울 점.” May 25, 2025. https://yhkee0404.github.io/posts/data-science/transformer/.