Automatic Prompt Engineer (APE)
Theo: https://www.promptingguide.ai/techniques/ape

Image Source: Zhou et al., (2022)
Zhou và cộng sự (2022) đề xuất cho các kỹ sư nhắc tự động - APE (Automatic Prompt Engineer) một khuôn khổ cho việc tạo sinh và lựa chọn lệnh tự động. Bài toán tạo sinh lệnh được định hình như tổng hợp ngôn ngữ tự nhiên, được giải quyết như một bài toán tối ưu hóa hộp đen sử dụng LLM để tạo sinh và tìm kiếm các giải pháp ứng viên.
Bước đầu tiên bao gồm một mô hình ngôn ngữ lớn (như một mô hình suy luận) được cung cấp các minh họa đầu ra để tạo sinh các ứng viên lệnh cho một tác vụ. Các giải pháp ứng viên này sẽ hướng dẫn quy trình tìm kiếm. Các lệnh được thực thi bằng cách sử dụng một mô hình mục tiêu, và sau đó lệnh phù hợp nhất được chọn dựa trên điểm đánh giá được tính toán.
APE phát hiện ra một lời nhắc theo chuỗi tư duy (CoT) không có ví dụ/minh họa (zero-shot) tốt hơn lời nhắc "Hãy suy nghĩ từng bước" do con người thiết kế (Kojima và cộng sự, 2022).
Lời nhắc "Hãy giải quyết vấn đề này theo cách từng bước để đảm bảo chúng ta có câu trả lời đúng." gợi ra suy luận chuỗi tư duy và cải thiện hiệu suất trên các điểm chuẩn MultiArith và GSM8K:

Image Source: Zhou et al., (2022)
Bài báo này đề cập đến một chủ đề quan trọng liên quan đến kỹ thuật nhắc, đó là ý tưởng tự động tối ưu hóa các lời nhắc. Mặc dù chúng tôi không đi sâu vào chủ đề này trong hướng dẫn này, nhưng sau đây là một vài bài báo chính nếu bạn quan tâm đến chủ đề này:
Prompt-OIRL - đề xuất sử dụng học tăng cường ngược ngoại tuyến để tạo ra các lời nhắc phụ thuộc vào truy vấn.
OPRO - giới thiệu ý tưởng sử dụng LLM để tối ưu hóa các lời nhắc: cho phép LLM "Hít một hơi thật sâu" để cải thiện hiệu suất xử lý các bài toán.
AutoPrompt - đề xuất một phương pháp tự động tạo các lời nhắc cho một tập hợp các tác vụ đa dạng dựa trên tìm kiếm theo hướng gradient.
Prefix Tuning - một giải pháp thay thế nhẹ cho việc tinh chỉnh, thêm một tiền tố liên tục có thể huấn luyện được cho các tác vụ NLG.
Prompt Tuning - đề xuất một cơ chế để học các lời nhắc mềm thông qua lan truyền ngược.
Về ‘Kỹ thuật viết lời nhắc’ ………. Phần trước ………. Phần tiếp theo
Zhou et al., (2022) propose automatic prompt engineer (APE) a framework for automatic instruction generation and selection. The instruction generation problem is framed as natural language synthesis addressed as a black-box optimization problem using LLMs to generate and search over candidate solutions.
The first step involves a large language model (as an inference model) that is given output demonstrations to generate instruction candidates for a task. These candidate solutions will guide the search procedure. The instructions are executed using a target model, and then the most appropriate instruction is selected based on computed evaluation scores.
APE discovers a better zero-shot CoT prompt than the human engineered "Let's think step by step" prompt (Kojima et al., 2022).
The prompt "Let's work this out in a step by step way to be sure we have the right answer." elicits chain-of-thought reasoning and improves performance on the MultiArith and GSM8K benchmarks:
This paper touches on an important topic related to prompt engineering which is the idea of automatically optimizing prompts. While we don't go deep into this topic in this guide, here are a few key papers if you are interested in the topic:
Prompt-OIRL - proposes to use offline inverse reinforcement learning to generate query-dependent prompts.
OPRO - introduces the idea of using LLMs to optimize prompts: let LLMs "Take a deep breath" improves the performance on math problems.
AutoPrompt - proposes an approach to automatically create prompts for a diverse set of tasks based on gradient-guided search.
Prefix Tuning - a lightweight alternative to fine-tuning that prepends a trainable continuous prefix for NLG tasks.
Prompt Tuning - proposes a mechanism for learning soft prompts through backpropagation.
Dịch: Lê Trung Nghĩa
letrungnghia.foss@gmail.com
Tác giả: Nghĩa Lê Trung
Ý kiến bạn đọc
Những tin cũ hơn
Blog này được chuyển đổi từ http://blog.yahoo.com/letrungnghia trên Yahoo Blog sang sử dụng NukeViet sau khi Yahoo Blog đóng cửa tại Việt Nam ngày 17/01/2013.Kể từ ngày 07/02/2013, thông tin trên Blog được cập nhật tiếp tục trở lại với sự hỗ trợ kỹ thuật và đặt chỗ hosting của nhóm phát triển...
Các bài trình chiếu trong năm 2024
Tập huấn thực hành ‘Khai thác tài nguyên giáo dục mở’ cho giáo viên phổ thông, bao gồm cả giáo viên tiểu học và mầm non tới hết năm 2024
Các lớp tập huấn thực hành ‘Khai thác tài nguyên giáo dục mở’ tới hết năm 2024
Các tài liệu dịch sang tiếng Việt tới hết năm 2024
‘Digcomp 2.2: Khung năng lực số cho công dân - với các ví dụ mới về kiến thức, kỹ năng và thái độ’, EC xuất bản năm 2022
Tổng hợp các bài của Nhóm các Nhà cấp vốn Nghiên cứu Mở (ORFG) đã được dịch sang tiếng Việt
Tổng hợp các bài của Liên minh S (cOAlition S) đã được dịch sang tiếng Việt
Năm Khoa học Mở & Chuyển đổi sang Khoa học Mở - Tổng hợp các bài liên quan
Hội nghị Đối tác Dữ liệu Mở châu Á năm 2021 do Việt Nam lần đầu tiên chủ trì
Các khung năng lực trong hành động
Phong trào Bình dân học vụ số: Mục tiêu, đối tượng, nội dung, nguồn lực, phương thức tổ chức thực hiện
Lễ công bố công khai Trung tâm Năng lực Kim cương châu Âu và dự án ALMASI
Khung năng lực AI cho giáo viên
Ngày Phần mềm Tự do, Ngày Phần cứng tự do, Ngày Tài liệu Tự do
‘Khung năng lực AI cho giáo viên’ - bản dịch sang tiếng Việt
Bạn cần biết những gì về các khung năng lực AI mới của UNESCO cho học sinh và giáo viên
Bàn về 'Lợi thế của doanh nghiệp Việt là dữ liệu Việt, bài toán Việt' - bài phát biểu của Bộ trưởng Nguyễn Mạnh Hùng ngày 21/08/2025
Các tài liệu dịch sang tiếng Việt tới hết năm 2024
Các bài trình chiếu trong năm 2024
‘Tài liệu quan điểm của KR21 về Giữ lại Quyền Tác giả: Giữ lại các quyền trong kết quả đầu ra nghiên cứu để cho phép phổ biến mở kiến thức’ - bản dịch sang tiếng Việt
‘KHUYẾN NGHỊ VÀ HƯỚNG DẪN TRUY CẬP MỞ KIM CƯƠNG cho các cơ sở, nhà cấp vốn, nhà bảo trợ, nhà tài trợ, và nhà hoạch định chính sách’ - bản dịch sang tiếng Việt
DeepSeek đã gây ra sự hoảng loạn trên thị trường — nhưng một số người cho rằng việc bán tháo là quá mức
Ứng dụng và phát triển Tài nguyên Giáo dục Mở (OER) tại Việt Nam
“Chúng tôi không có hào nước”: Sự đổi mới đột phá của AI nguồn mở
Tập huấn thực hành ‘Khai thác tài nguyên giáo dục mở’ cho giáo viên phổ thông, bao gồm cả giáo viên tiểu học và mầm non tới hết năm 2024
Nhà khoa học AI hàng đầu của Meta cho biết thành công của DeepSeek cho thấy 'các mô hình nguồn mở đang vượt trội hơn các mô hình độc quyền'
Dữ liệu để phân loại AI
50 công cụ AI tốt nhất cho năm 2025 (Đã thử và kiểm nghiệm)
Mark Zuckerberg: DeepSeek cho thấy vì sao nước Mỹ phải là ‘tiêu chuẩn nguồn mở toàn cầu’ của AI; không có lý do gì để suy nghĩ lại về việc chi tiêu
Tài sản chung kỹ thuật số và Hàng hóa Công cộng Kỹ thuật số - Tìm thấy nền tảng chung cho các nhà hoạch định chính sách