Chuyển tới nội dung chính

39 bài viết được gắn thẻ "Prompt Engineering"

Kỹ thuật thiết kế và tối ưu hóa lời nhắc để cải thiện hiệu suất chatbot.

Xem tất cả thẻ

🧠 Guided Reasoning Process cho RLMs

· 6 phút để đọc
Nguồn: Bình dân học AI
ghi chú

Có thể áp dụng cho các models như DeepSeek-R1 / R1-1776 (có thể dùng trên Perplexity), Grok-3, O1 pro, O3 mini,...

Mô Hình Ngôn Ngữ Suy Luận (RLMs) là gì?

Định Nghĩa RLMs

Mô hình ngôn ngữ suy luận (Reasoning Language Models - RLMs) là các mô hình AI tiên tiến đã vượt xa khả năng của LLMs truyền thống. Chúng kết hợp các cấu trúc suy luận rõ ràng với các chiến lược tìm kiếm tiên tiến như Monte Carlo Tree Search (MCTS) và Beam Search để đạt được khả năng giải quyết vấn đề hiệu quả hơn.

🔄 Hướng Dẫn Tích Hợp Causal Chain Expansion khi search với Perplexity (R1-1776)

· 5 phút để đọc
Nguồn: Bình dân học AI

🌟 Giới thiệu

Về hướng dẫn này

Tài liệu này trình bày phương pháp kết hợp kỹ thuật Causal Chain Expansion (Mở rộng chuỗi nhân quả) với Perplexity x R1-1776 (phiên bản DeepSeek-R1 tại Mỹ) để tạo ra phân tích nhân quả đa tầng mạnh mẽ và chi tiết.

R1-1776 là 1 RLM với khả năng suy luận tự nhiên và Causal Chain Expansion với cấu trúc phân tích đa chiều tạo thành bộ đôi hoàn hảo cho việc phân tích hệ thống phức hợp. Hướng dẫn này sẽ giúp bạn tối ưu hóa việc sử dụng cả hai công nghệ này cùng nhau.

🧩 Hướng Dẫn Thiết Kế Câu Hỏi Hiệu Quả cho Reasoning Language Models | RLMs (UPDATE 2025)

· 8 phút để đọc
Nguồn: Bình dân học AI

Bài này mình update từ 1 bài trước đó vs các phương pháp tối ưu hơn cho RLMs

Tài liệu này cung cấp một hướng dẫn toàn diện về cách thiết kế câu hỏi tận dụng tối đa tiềm năng của RLMs, tập trung vào việc hướng dẫn quá trình suy luận phân cấp, xác thực các bước trung gian và tạo ra câu trả lời chất lượng cao.

🚀 Perplexity A - Z for beginners (UPDATE 2025)

· 5 phút để đọc
Nguồn: Bình dân học AI

🔍 Perplexity là gì?

Perplexity là AI search engine được thiết kế để cách mạng hóa cách bạn khám phá thông tin. Bạn chỉ cần đặt câu hỏi, và Perplexity sẽ search trên internet để cung cấp câu trả lời dễ tiếp cận, mang tính đối thoại và có thể xác minh được.

Ứng dụng The Pyramid Principle trong prompting 🔺

· 6 phút để đọc
Nguồn: Bình dân học AI

The Pyramid Principle - phương pháp tổ chức thông tin do Barbara Minto phát triển tại McKinsey - giúp biến đổi nội dung từ AI thiếu cấu trúc thành thông tin súc tích, có tổ chức và dễ tiếp thu. Bài viết này hướng dẫn cách áp dụng nguyên tắc này để tối ưu hóa kết quả từ large language models thông qua thiết kế prompt hiệu quả.

Hiểu mọi ngóc ngách của Perplexity để bắt đầu tốt hơn!

· 16 phút để đọc

Bài viết hướng dẫn chi tiết giúp bạn khai thác Perplexity AI một cách hiệu quả, tích hợp đầy đủ các nội dung mới nhất về công cụ, từ chức năng tìm kiếm cơ bản, Pro Search, đến “Deep Research,” kèm 10 mẫu prompt chuyên sâu và các mẹo “Search” để tối ưu hoá kết quả.

Prompt Engineering Claude A-Z: Hướng Dẫn Toàn Diện Từ Anthropic

· 9 phút để đọc
Nguồn: Bình dân học AI

Bài viết này cung cấp hướng dẫn toàn diện về kỹ thuật prompt cho mô hình Claude của Anthropic. Prompt engineering được nhấn mạnh là phương pháp hiệu quả 🚀, tiết kiệm chi phí 💰 và linh hoạt 🔄 hơn so với fine-tuning.

Nguyên Tắc Tạo Prompt 'Long Chain-of-Thought' (Long CoT) Hiệu Quả Cho LLMs

· 6 phút để đọc
Nguồn: Bình dân học AI

Chain-of-Thought (CoT) đã nổi lên như một phương pháp đột phá để tăng cường khả năng lý luận của Large Language Models (LLM), đặc biệt trong các tác vụ phức tạp đòi hỏi lý luận đa bước. Nghiên cứu khoa học "Demystifying Long Chain-of-Thought Reasoning in LLMs" đã làm sáng tỏ cách LLM phát triển khả năng lý luận mở rộng thông qua Supervised Fine-Tuning (SFT) và Reinforcement Learning (RL), nhấn mạnh tầm quan trọng của dữ liệu Long CoT. Bài viết này tổng hợp các nguyên tắc cốt lõi từ nghiên cứu này và các nguồn khác để cung cấp hướng dẫn toàn diện về cách tạo Long CoT hiệu quả.

Case Study: Quy Trình Prompt Engineering Cho Người Mới Bắt Đầu (Ví Dụ: Viết Blog Du Lịch)

· 7 phút để đọc
Nguồn: Bình dân học AI

Bạn là một blogger về du lịch muốn tạo ra các bài viết blog hấp dẫn về các điểm đến du lịch nổi tiếng ở Việt Nam. Bạn muốn sử dụng LLM để viết nhanh hơn và hiệu quả hơn, nhưng vẫn đảm bảo chất lượng nội dung. Sau đây là cách áp dụng quy trình Prompt Engineering (xem hình) để đạt được mục tiêu này.

DeepSeek-R1: GRPO - Kỷ Nguyên LLM Tự Chủ Reasoning, Thay Thế Prompt Engineering

· 8 phút để đọc
Nguồn: Bình dân học AI

DeepSeek-R1 không chỉ gây ấn tượng bởi khả năng reasoning vượt trội mà còn bởi cách tiếp cận huấn luyện hoàn toàn mới, tập trung vào cơ chế GRPO (Group Relative Policy Optimization). GRPO không chỉ tối ưu hóa mô hình thông qua RL mà còn tự động hóa hàng loạt các kỹ thuật prompt vốn được coi là thiết yếu. Bài viết này sẽ đi sâu vào cơ chế hoạt động của DeepSeek-R1, khám phá cách RL – thông qua GRPO – đang mở ra một paradigm mới cho LLM reasoning, nơi prompt engineering dần trở nên lỗi thời. ⏳