Zero-shot, one-shot, few-shot prompting khác nhau thế nào?

Zero-shot: chỉ mô tả task bằng ngôn ngữ tự nhiên, không cho ví dụ. Ví dụ: "Phân loại sentiment của câu sau: 'Sản phẩm rất tệ'". Dùng khi task phổ biến, model lớn đủ khả năng hiểu.

One-shot: cho 1 ví dụ input→output trước task thật. Giúp model hiểu format mong muốn.

Few-shot: cho 2-10 ví dụ đa dạng. Ví dụ:

Q: "Dở quá" → Negative
Q: "Tuyệt vời" → Positive
Q: "Tạm được" → Neutral
Q: "Sản phẩm rất tệ" → ?

Few-shot thường tốt hơn zero-shot với task cần format phức tạp, domain-specific, hoặc khi zero-shot không ổn định.

Lưu ý:
- Thứ tự ví dụ ảnh hưởng output (recency bias).
- Ví dụ phải đại diện tốt cho distribution.
- Tốn token → chi phí tăng.
- Với model mạnh (GPT-4, Claude 3.5+) zero-shot với instructions rõ ràng thường đã đủ.

Xem toàn bộ AI Engineering cùng filter theo level & chủ đề con.

Mở danh sách AI Engineering