Hướng dẫn kỹ thuật lời nhắc. Kỹ thuật viết lời nhắc. Lời nhắc không có ví dụ/minh họa (Zero-Shot Prompting)

Thứ năm - 30/10/2025 06:14
Hướng dẫn kỹ thuật lời nhắc. Kỹ thuật viết lời nhắc. Lời nhắc không có ví dụ/minh họa (Zero-Shot Prompting)

Zero-Shot Prompting

Theo: https://www.promptingguide.ai/techniques/zeroshot

Video: Zero-shot Prompting Explained

Các mô hình ngôn ngữ lớn (LLM) hiện nay, chẳng hạn như GPT-3.5 Turbo, GPT-4 và Claude 3, được tinh chỉnh để tuân theo hướng dẫn và được huấn luyện trên một lượng lớn dữ liệu. Huấn luyện quy mô lớn giúp các mô hình này có khả năng thực hiện một số tác vụ theo cách "zero-shot". Nhắc nhở zero-shot có nghĩa là lời nhắc được sử dụng để tương tác với mô hình sẽ không chứa ví dụ hoặc minh họa. Lời nhắc zero-shot trực tiếp hướng dẫn mô hình thực hiện một tác vụ mà không cần bất kỳ ví dụ bổ sung nào để điều khiển.

Chúng tôi đã thử một vài ví dụ zero-shot trong phần trước. Dưới đây là một trong những ví dụ (tức là phân loại văn bản) mà chúng tôi đã sử dụng:

Prompt:

Phân loại văn bản thành trung tính, tiêu cực hoặc tích cực.

Văn bản: Tôi nghĩ kỳ nghỉ này ổn.
Cảm xúc:

Output:

Trung tính

Lưu ý rằng trong lời nhắc ở trên, chúng tôi không cung cấp cho mô hình bất kỳ ví dụ văn bản nào bên cạnh các phân loại của chúng, LLM đã hiểu "cảm xúc" -- đó là khả năng của zero-shot đang hoạt động.

Việc tinh chỉnh chỉ dẫn đã được chứng minh là cải thiện việc học zero-shot (Wei và cộng sự, 2022). Việc tinh chỉnh chỉ dẫn về cơ bản là khái niệm tinh chỉnh các mô hình trên các tập dữ liệu được mô tả thông qua các chỉ dẫn. Hơn nữa, việc học tăng cường từ phản hồi của con người - RLHF (Reinforcement Learning from Human Feedback) đã được áp dụng để mở rộng quy mô tinh chỉnh chỉ dẫn, trong đó mô hình được căn chỉnh để phù hợp hơn với sở thích của con người. Sự phát triển gần đây này hỗ trợ các mô hình như ChatGPT. Chúng ta sẽ thảo luận về tất cả các phương pháp và cách tiếp cận này trong các phần tiếp theo.

Khi zero-shot không hoạt động, nên cung cấp các bản trình diễn hoặc ví dụ trong lời nhắc, dẫn đến việc nhắc với vài ví dụ/minh họa (Few-Shot Prompting). Trong phần tiếp theo, chúng tôi sẽ trình bày về việc nhắc với vài ví dụ/minh họa này.

Về ‘Kỹ thuật viết lời nhắc’ ………. Phần tiếp theo

Large language models (LLMs) today, such as GPT-3.5 Turbo, GPT-4, and Claude 3, are tuned to follow instructions and are trained on large amounts of data. Large-scale training makes these models capable of performing some tasks in a "zero-shot" manner. Zero-shot prompting means that the prompt used to interact with the model won't contain examples or demonstrations. The zero-shot prompt directly instructs the model to perform a task without any additional examples to steer it.

We tried a few zero-shot examples in the previous section. Here is one of the examples (ie., text classification) we used:

Prompt:

Classify the text into neutral, negative or positive. 

Text: I think the vacation is okay.
Sentiment:

Output:

Neutral

Note that in the prompt above we didn't provide the model with any examples of text alongside their classifications, the LLM already understands "sentiment" -- that's the zero-shot capabilities at work.

Instruction tuning has been shown to improve zero-shot learning Wei et al. (2022). Instruction tuning is essentially the concept of finetuning models on datasets described via instructions. Furthermore, RLHF (reinforcement learning from human feedback) has been adopted to scale instruction tuning wherein the model is aligned to better fit human preferences. This recent development powers models like ChatGPT. We will discuss all these approaches and methods in upcoming sections.

When zero-shot doesn't work, it's recommended to provide demonstrations or examples in the prompt which leads to few-shot prompting. In the next section, we demonstrate few-shot prompting.

Dịch: Lê Trung Nghĩa

letrungnghia.foss@gmail.com

 

Tác giả: Nghĩa Lê Trung

Tổng số điểm của bài viết là: 0 trong 0 đánh giá

Click để đánh giá bài viết

  Ý kiến bạn đọc

Về Blog này

Blog này được chuyển đổi từ http://blog.yahoo.com/letrungnghia trên Yahoo Blog sang sử dụng NukeViet sau khi Yahoo Blog đóng cửa tại Việt Nam ngày 17/01/2013.Kể từ ngày 07/02/2013, thông tin trên Blog được cập nhật tiếp tục trở lại với sự hỗ trợ kỹ thuật và đặt chỗ hosting của nhóm phát triển...

Bài đọc nhiều nhất trong năm
Thăm dò ý kiến

Bạn quan tâm gì nhất ở mã nguồn mở?

Thống kê truy cập
  • Đang truy cập114
  • Máy chủ tìm kiếm4
  • Khách viếng thăm110
  • Hôm nay17,316
  • Tháng hiện tại1,258,426
  • Tổng lượt truy cập46,506,499
Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây