Skip to main content

42 posts tagged with "Prompt Engineering"

Kỹ thuật thiết kế và tối ưu hóa lời nhắc để cải thiện hiệu suất chatbot.

View all tags

🚀 Perplexity AI: Cứu tinh khi dùng nhiều nền tảng AI khác nhau

· 5 min read
Nguồn: Bình dân học AI

Perplexity AI đang trở thành công cụ "cứu cánh" cho những người làm việc với nhiều nền tảng AI khác nhau, đặc biệt khi cần tra cứu cách tối ưu sử dụng mỗi nền tảng hoặc bổ sung thông tin real-time.

🔁 Chain of Draft (CoD) - Kỹ Thuật Giúp AI Suy Nghĩ Nhanh Hơn Bằng Cách Viết Ít Hơn

· 7 min read
Nguồn: Bình dân học AI

Chain of Draft (CoD) là một kỹ thuật prompt mạnh mẽ giúp các Mô hình Ngôn ngữ Lớn (LLMs) suy luận hiệu quả bằng cách sử dụng bản nháp ngắn gọn thay vì giải thích dài dòng, mang lại độ chính xác tương đương hoặc tốt hơn trong khi sử dụng ít token hơn đáng kể so với phương pháp Chain-of-Thought truyền thống.

🧠 Guided Reasoning Process cho RLMs

· 6 min read
Nguồn: Bình dân học AI
note

Có thể áp dụng cho các models như DeepSeek-R1 / R1-1776 (có thể dùng trên Perplexity), Grok-3, O1 pro, O3 mini,...

Mô Hình Ngôn Ngữ Suy Luận (RLMs) là gì?

Định Nghĩa RLMs

Mô hình ngôn ngữ suy luận (Reasoning Language Models - RLMs) là các mô hình AI tiên tiến đã vượt xa khả năng của LLMs truyền thống. Chúng kết hợp các cấu trúc suy luận rõ ràng với các chiến lược tìm kiếm tiên tiến như Monte Carlo Tree Search (MCTS) và Beam Search để đạt được khả năng giải quyết vấn đề hiệu quả hơn.

🔄 Hướng Dẫn Tích Hợp Causal Chain Expansion khi search với Perplexity (R1-1776)

· 5 min read
Nguồn: Bình dân học AI

🌟 Giới thiệu

Về hướng dẫn này

Tài liệu này trình bày phương pháp kết hợp kỹ thuật Causal Chain Expansion (Mở rộng chuỗi nhân quả) với Perplexity x R1-1776 (phiên bản DeepSeek-R1 tại Mỹ) để tạo ra phân tích nhân quả đa tầng mạnh mẽ và chi tiết.

R1-1776 là 1 RLM với khả năng suy luận tự nhiên và Causal Chain Expansion với cấu trúc phân tích đa chiều tạo thành bộ đôi hoàn hảo cho việc phân tích hệ thống phức hợp. Hướng dẫn này sẽ giúp bạn tối ưu hóa việc sử dụng cả hai công nghệ này cùng nhau.

🧩 Hướng Dẫn Thiết Kế Câu Hỏi Hiệu Quả cho Reasoning Language Models | RLMs (UPDATE 2025)

· 8 min read
Nguồn: Bình dân học AI

Bài này mình update từ 1 bài trước đó vs các phương pháp tối ưu hơn cho RLMs

Tài liệu này cung cấp một hướng dẫn toàn diện về cách thiết kế câu hỏi tận dụng tối đa tiềm năng của RLMs, tập trung vào việc hướng dẫn quá trình suy luận phân cấp, xác thực các bước trung gian và tạo ra câu trả lời chất lượng cao.

🚀 Perplexity A - Z for beginners (UPDATE 2025)

· 5 min read
Nguồn: Bình dân học AI

🔍 Perplexity là gì?

Perplexity là AI search engine được thiết kế để cách mạng hóa cách bạn khám phá thông tin. Bạn chỉ cần đặt câu hỏi, và Perplexity sẽ search trên internet để cung cấp câu trả lời dễ tiếp cận, mang tính đối thoại và có thể xác minh được.

Ứng dụng The Pyramid Principle trong prompting 🔺

· 6 min read
Nguồn: Bình dân học AI

The Pyramid Principle - phương pháp tổ chức thông tin do Barbara Minto phát triển tại McKinsey - giúp biến đổi nội dung từ AI thiếu cấu trúc thành thông tin súc tích, có tổ chức và dễ tiếp thu. Bài viết này hướng dẫn cách áp dụng nguyên tắc này để tối ưu hóa kết quả từ large language models thông qua thiết kế prompt hiệu quả.

Hiểu mọi ngóc ngách của Perplexity để bắt đầu tốt hơn!

· 16 min read

Bài viết hướng dẫn chi tiết giúp bạn khai thác Perplexity AI một cách hiệu quả, tích hợp đầy đủ các nội dung mới nhất về công cụ, từ chức năng tìm kiếm cơ bản, Pro Search, đến “Deep Research,” kèm 10 mẫu prompt chuyên sâu và các mẹo “Search” để tối ưu hoá kết quả.

Prompt Engineering Claude A-Z: Hướng Dẫn Toàn Diện Từ Anthropic

· 9 min read
Nguồn: Bình dân học AI

Bài viết này cung cấp hướng dẫn toàn diện về kỹ thuật prompt cho mô hình Claude của Anthropic. Prompt engineering được nhấn mạnh là phương pháp hiệu quả 🚀, tiết kiệm chi phí 💰 và linh hoạt 🔄 hơn so với fine-tuning.

Nguyên Tắc Tạo Prompt 'Long Chain-of-Thought' (Long CoT) Hiệu Quả Cho LLMs

· 6 min read
Nguồn: Bình dân học AI

Chain-of-Thought (CoT) đã nổi lên như một phương pháp đột phá để tăng cường khả năng lý luận của Large Language Models (LLM), đặc biệt trong các tác vụ phức tạp đòi hỏi lý luận đa bước. Nghiên cứu khoa học "Demystifying Long Chain-of-Thought Reasoning in LLMs" đã làm sáng tỏ cách LLM phát triển khả năng lý luận mở rộng thông qua Supervised Fine-Tuning (SFT) và Reinforcement Learning (RL), nhấn mạnh tầm quan trọng của dữ liệu Long CoT. Bài viết này tổng hợp các nguyên tắc cốt lõi từ nghiên cứu này và các nguồn khác để cung cấp hướng dẫn toàn diện về cách tạo Long CoT hiệu quả.

Case Study: Quy Trình Prompt Engineering Cho Người Mới Bắt Đầu (Ví Dụ: Viết Blog Du Lịch)

· 7 min read
Nguồn: Bình dân học AI

Bạn là một blogger về du lịch muốn tạo ra các bài viết blog hấp dẫn về các điểm đến du lịch nổi tiếng ở Việt Nam. Bạn muốn sử dụng LLM để viết nhanh hơn và hiệu quả hơn, nhưng vẫn đảm bảo chất lượng nội dung. Sau đây là cách áp dụng quy trình Prompt Engineering (xem hình) để đạt được mục tiêu này.