Trung BìnhAI Engineering iconAI Engineering

Self-attention và Query/Key/Value hoạt động như thế nào?

Self-attention cho phép mỗi token "hỏi" các token khác trong câu mức độ liên quan rồi lấy thông tin tương ứng — giải quyết được hạn chế của RNN (phụ thuộc xa).

Với input X, model tính 3 ma trận bằng 3 linear projection: Q = X·Wq (Query — câu hỏi token này đang hỏi), K = X·Wk (Key — key mà các token khác "quảng cáo"), V = X·Wv (Value — nội dung thực để lấy). Công thức: Attention(Q,K,V) = softmax(Q·Kᵀ / √dₖ) · V.

Giải thích: Q·Kᵀ đo độ tương đồng giữa Q của token hiện tại với K của mọi token → chia √dₖ để ổn định gradient (tránh softmax bão hoà khi dₖ lớn) → softmax biến thành phân phối xác suất → nhân với V để lấy weighted sum của value. Multi-Head chạy song song H attention với H bộ (Wq, Wk, Wv) rồi concat — mỗi head học một kiểu quan hệ khác (syntactic, semantic, positional...).

Xem toàn bộ AI Engineering cùng filter theo level & chủ đề con.

Mở danh sách AI Engineering