Hướng dẫn kỹ thuật lời nhắc. Kỹ thuật viết lời nhắc. Kỹ thuật nhắc tự động (APE)

Thứ ba - 11/11/2025 06:15
Hướng dẫn kỹ thuật lời nhắc. Kỹ thuật viết lời nhắc. Kỹ thuật nhắc tự động (APE)

Automatic Prompt Engineer (APE)

Theo: https://www.promptingguide.ai/techniques/ape

Image Source: Zhou et al., (2022)

Zhou và cộng sự (2022) đề xuất cho các kỹ sư nhắc tự động - APE (Automatic Prompt Engineer) một khuôn khổ cho việc tạo sinh và lựa chọn lệnh tự động. Bài toán tạo sinh lệnh được định hình như tổng hợp ngôn ngữ tự nhiên, được giải quyết như một bài toán tối ưu hóa hộp đen sử dụng LLM để tạo sinh và tìm kiếm các giải pháp ứng viên.

Bước đầu tiên bao gồm một mô hình ngôn ngữ lớn (như một mô hình suy luận) được cung cấp các minh họa đầu ra để tạo sinh các ứng viên lệnh cho một tác vụ. Các giải pháp ứng viên này sẽ hướng dẫn quy trình tìm kiếm. Các lệnh được thực thi bằng cách sử dụng một mô hình mục tiêu, và sau đó lệnh phù hợp nhất được chọn dựa trên điểm đánh giá được tính toán.

APE phát hiện ra một lời nhắc theo chuỗi tư duy (CoT) không có ví dụ/minh họa (zero-shot) tốt hơn lời nhắc "Hãy suy nghĩ từng bước" do con người thiết kế (Kojima và cộng sự, 2022).

Lời nhắc "Hãy giải quyết vấn đề này theo cách từng bước để đảm bảo chúng ta có câu trả lời đúng." gợi ra suy luận chuỗi tư duy và cải thiện hiệu suất trên các điểm chuẩn MultiArith và GSM8K:

Image Source: Zhou et al., (2022)

Bài báo này đề cập đến một chủ đề quan trọng liên quan đến kỹ thuật nhắc, đó là ý tưởng tự động tối ưu hóa các lời nhắc. Mặc dù chúng tôi không đi sâu vào chủ đề này trong hướng dẫn này, nhưng sau đây là một vài bài báo chính nếu bạn quan tâm đến chủ đề này:

  • Prompt-OIRL - đề xuất sử dụng học tăng cường ngược ngoại tuyến để tạo ra các lời nhắc phụ thuộc vào truy vấn.

  • OPRO - giới thiệu ý tưởng sử dụng LLM để tối ưu hóa các lời nhắc: cho phép LLM "Hít một hơi thật sâu" để cải thiện hiệu suất xử lý các bài toán.

  • AutoPrompt - đề xuất một phương pháp tự động tạo các lời nhắc cho một tập hợp các tác vụ đa dạng dựa trên tìm kiếm theo hướng gradient.

  • Prefix Tuning - một giải pháp thay thế nhẹ cho việc tinh chỉnh, thêm một tiền tố liên tục có thể huấn luyện được cho các tác vụ NLG.

  • Prompt Tuning - đề xuất một cơ chế để học các lời nhắc mềm thông qua lan truyền ngược.

Về ‘Kỹ thuật viết lời nhắc’ ………. Phần trước ………. Phần tiếp theo

Zhou et al., (2022) propose automatic prompt engineer (APE) a framework for automatic instruction generation and selection. The instruction generation problem is framed as natural language synthesis addressed as a black-box optimization problem using LLMs to generate and search over candidate solutions.

The first step involves a large language model (as an inference model) that is given output demonstrations to generate instruction candidates for a task. These candidate solutions will guide the search procedure. The instructions are executed using a target model, and then the most appropriate instruction is selected based on computed evaluation scores.

APE discovers a better zero-shot CoT prompt than the human engineered "Let's think step by step" prompt (Kojima et al., 2022).

The prompt "Let's work this out in a step by step way to be sure we have the right answer." elicits chain-of-thought reasoning and improves performance on the MultiArith and GSM8K benchmarks:

This paper touches on an important topic related to prompt engineering which is the idea of automatically optimizing prompts. While we don't go deep into this topic in this guide, here are a few key papers if you are interested in the topic:

  • Prompt-OIRL - proposes to use offline inverse reinforcement learning to generate query-dependent prompts.

  • OPRO - introduces the idea of using LLMs to optimize prompts: let LLMs "Take a deep breath" improves the performance on math problems.

  • AutoPrompt - proposes an approach to automatically create prompts for a diverse set of tasks based on gradient-guided search.

  • Prefix Tuning - a lightweight alternative to fine-tuning that prepends a trainable continuous prefix for NLG tasks.

  • Prompt Tuning - proposes a mechanism for learning soft prompts through backpropagation.

Dịch: Lê Trung Nghĩa

letrungnghia.foss@gmail.com

 

Tác giả: Nghĩa Lê Trung

Tổng số điểm của bài viết là: 0 trong 0 đánh giá

Click để đánh giá bài viết

  Ý kiến bạn đọc

Về Blog này

Blog này được chuyển đổi từ http://blog.yahoo.com/letrungnghia trên Yahoo Blog sang sử dụng NukeViet sau khi Yahoo Blog đóng cửa tại Việt Nam ngày 17/01/2013.Kể từ ngày 07/02/2013, thông tin trên Blog được cập nhật tiếp tục trở lại với sự hỗ trợ kỹ thuật và đặt chỗ hosting của nhóm phát triển...

Bài đọc nhiều nhất trong năm
Thăm dò ý kiến

Bạn quan tâm gì nhất ở mã nguồn mở?

Thống kê truy cập
  • Đang truy cập62
  • Máy chủ tìm kiếm1
  • Khách viếng thăm61
  • Hôm nay9,782
  • Tháng hiện tại263,494
  • Tổng lượt truy cập46,867,816
Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây