Chuyển đến phần nội dung
center-gradient-cover-bg
right-gradient-cover-bg
background gradient desk
Bài viết

Retrieval-Augmented Generation nâng cao chất lượng phản hồi cho LLMs

Tháng Một 23, 2025

Chia sẻ với:

Trong bối cảnh trí tuệ nhân tạo ngày càng được ứng dụng rộng rãi, các mô hình ngôn ngữ lớn (LLMs) như ChatGPT hay Google Gemini đã chứng minh vai trò quan trọng trong việc xử lý và tạo ra nội dung. Tuy nhiên, để đáp ứng tốt hơn những yêu cầu phức tạp và cập nhật liên tục, một giải pháp mới đã ra đời: Retrieval-Augmented Generation (RAG).

Vậy Retrieval-Augmented Generation là gì và bằng cách nào mô hình này giúp các trợ lý ảo cải thiện chất lượng phản hồi để đáp ứng nhu cầu đa dạng của người dùng hiện đại? Cùng FPT.AI khám phá nhé!

Retrieval-Augmented Generation (RAG) là gì?

Retrieval-Augmented Generation (RAG) là một mô hình trí tuệ nhân tạo (AI) được phát triển nhằm nâng cao chất lượng phản hồi của các mô hình ngôn ngữ lớn (Large Language Models – LLMs). RAG thực hiện điều này bằng cách sử dụng một công cụ truy xuất thông tin (retriever) để lấy dữ liệu từ các nguồn tri thức bên ngoài như nguồn trực tuyến, application programming interfaces (APIs), cơ sở dữ liệu (databases) hoặc kho tài liệu (document repositories).

Retrieval-Augmented Generation
RAG được phát triển để nâng cao chất lượng phản hồi cho các LLMs

Công cụ truy xuất (retriever) có thể được lựa chọn tùy thuộc vào nhu cầu về mức độ ngữ nghĩa và độ chính xác, bao gồm:

  • Vector database: Các truy vấn được chuyển đổi thành vector nhúng (dense vector embedding) thông qua các mô hình như BERT (transformers- based Model). Ngoài ra, các phương pháp truyền thống như TF-IDF có thể được sử dụng để tạo ra sparse embeddings. Việc tìm kiếm dựa trên độ tương đồng ngữ nghĩa (semantic similarity) hoặc tần suất thuật ngữ (term frequency).
  • Graph database: Xây dựng cơ sở tri thức (knowledge base) từ các mối quan hệ giữa các thực thể (entity) được trích xuất từ văn bản. Phương pháp này đảm bảo tính chính xác của tri thức nhưng đòi hỏi truy vấn ban đầu phải chính xác, gây khó khăn trong một số trường hợp.
  • Regular SQL database: Lưu trữ và truy xuất dữ liệu có cấu trúc nhưng hạn chế về mặt linh hoạt trong việc xử lý ngữ nghĩa.

RAG đặc biệt hữu ích trong các trường hợp có lượng lớn dữ liệu không được phân loại hoặc gắn nhãn (unlabeled-data). Chẳng hạn như dữ liệu trên internet, dù có số lượng văn bản khổng lồ nhưng hầu hết các văn bản này không được tổ chức để trả lời trực tiếp các câu hỏi cụ thể.

Mô hình RAG thường được ứng dụng trong các trợ lý ảo và AI chatbot như Siri hay Alexa, giúp chúng hiểu câu hỏi, truy xuất thông tin từ nhiều nguồn khác nhau và đưa ra câu trả lời mạch lạc, chính xác trong thời gian thực. Ví dụ, nếu bạn hỏi trợ lý ảo: “Làm thế nào để reset điều khiển ABC?” RAG sẽ truy xuất thông tin liên quan từ hướng dẫn sử dụng sản phẩm hoặc các tài liệu tương ứng, sau đó sử dụng dữ liệu này để tạo ra câu trả lời ngắn gọn, dễ hiểu và chính xác.

RAG là gì
Mô hình RAG thường được ứng dụng trong các trợ lý ảo và chatbot

>>> XEM THÊM: Knowledge Base là gì? Công nghệ nâng cấp hiệu quả CSKH cho ngành Bảo hiểm

Lịch sử phát triển của RAG

Vào những năm 1970, các nhà nghiên cứu bắt đầu thử nghiệm và phát triển các hệ thống hỏi đáp (question-answering systems) có khả năng truy cập văn bản về các chủ đề cụ thể. Quá trình này, được gọi là text mining, phân tích lượng lớn văn bản không có cấu trúc và sử dụng phần mềm để nhận dạng các thuộc tính dữ liệu như khái niệm, mẫu, chủ đề và từ khóa.

Vào những năm 1990, Ask Jeeves – tiền thân của Google và hiện được gọi là Ask.com – đã phổ biến các hệ thống hỏi đáp này.

Bước ngoặt quan trọng đến vào năm 2017, khi Google công bố bài báo “Attention Is All You Need”, giới thiệu kiến trúc transformer, đánh dấu sự tiến bộ trong việc tạo và huấn luyện các mô hình ngôn ngữ lớn (LLMs) có khả năng mở rộng và hiệu quả hơn. Một năm sau, OpenAI ra mắt GPT (Generative Pre-trained Transformer).

Đến năm 2020, RAG mới được giới thiệu như một framework. Một nhóm làm việc tại phòng thí nghiệm AI ở London của Facebook (nay là Meta) đã phát triển một cách tích hợp hệ thống truy xuất vào LLM để giúp mô hình tạo ra các phản hồi năng động hơn và có cơ sở hơn.

Hiện nay, RAG tiếp tục phát triển và mở rộng ứng dụng. Công nghệ này được triển khai trong nhiều chatbot AI lớn, bao gồm cả ChatGPT.

Retrieval-Augmented Generation
Retrieval Augmented Generation được triển khai trong nhiều chatbot AI lớn, bao gồm cả ChatGPT

>>> XEM THÊM: ChatGPT là gì? Cách tạo tài khoản Chat GPT free

Tại sao RAG lại quan trọng?

Large Language Models (LLMs), như ChatGPT của OpenAI hoặc Google Gemini, là các mô hình AI có khả năng hiểu, tóm tắt, tạo và dự đoán nội dung mới. Tuy nhiên, những mô hình này không phải lúc nào cũng đảm bảo tính nhất quán và có thể thất bại khi xử lý các nhiệm vụ yêu cầu kiến thức chuyên sâu hoặc thông tin cập nhật, đặc biệt nếu nhiệm vụ vượt ra ngoài dữ liệu huấn luyện ban đầu. Trong những trường hợp này, LLMs có thể tạo ra câu trả lời nghe có vẻ trôi chảy và hợp lý nhưng thực chất lại không chính xác, một hiện tượng được gọi là AI hallucination.

Ngoài ra, khi các doanh nghiệp sở hữu nguồn tài liệu lớn và độc quyền, chẳng hạn như sổ tay kỹ thuật hoặc hướng dẫn sử dụng sản phẩm, việc yêu cầu các LLM trích xuất thông tin cụ thể từ khối dữ liệu đồ sộ này giống như “mò kim đáy bể.” GPT-4, một mô hình có khả năng xử lý các tài liệu lớn của OpenAI cũng không thể giải quyết vấn đề này do hiện tượng mất thông tin quan trọng ở giữa văn bản (Lost in the middle).

Retrieval-Augmented Generation (RAG) được phát triển để khắc phục toàn bộ những hạn chế này. RAG cho phép LLM truy xuất thông tin từ các nguồn bên ngoài, giúp mô hình tiếp cận thông tin mới chưa từng được huấn luyện trước đó, từ đó giảm thiểu khoảng trống kiến thức và hạn chế AI hallucination. Đây là bước tiến quan trọng đối với các mô hình AI nền tảng, chatbot và hệ thống hỏi đáp (Q&A systems), vì chúng yêu cầu cung cấp thông tin cụ thể, cập nhật và chính xác cho người dùng.

RAG model là gì
RAG cho phép LLM truy xuất thông tin từ các nguồn bên ngoài, giảm thiểu khoảng trống kiến thức và hạn chế AI hallucination

>>> XEM THÊM: Data Leakage là gì? Cách ngăn chặn GenAI Data Leakage

Cách thức hoạt động của RAG (Retrieval-Augmented Generation Pipeline)

RAG tích hợp một mô hình tạo văn bản (text generator model) với một thành phần truy xuất thông tin (information retrieval component), hoạt động bằng cách tạo chỉ mục (index) cho mỗi đoạn văn trong tài liệu. Khi nhận được một truy vấn (query), RAG sẽ truy xuất những đoạn văn liên quan nhất (thay vì toàn bộ tài liệu) cho các LLMs như ChatGPT, GPT-4,… để tránh tình trạng quá tải thông tin và nâng cao đáng kể chất lượng phản hồi.

Cách thức hoạt động của RAG như sau:

  • Tạo Vector Database: Toàn bộ dữ liệu tri thức được chuyển đổi thành vector embeddings và lưu trữ trong một vector database.
  • Nhận truy vấn từ người dùng: Người dùng nhập một truy vấn (query) bằng ngôn ngữ tự nhiên.
  • Truy xuất thông tin: Cơ chế retrieval quét qua toàn bộ các vector trong cơ sở dữ liệu để tìm các đoạn văn (paragraphs) có ngữ nghĩa tương đồng với truy vấn của người dùng. Các đoạn văn này sẽ cung cấp thêm ngữ cảnh cho quá trình xử lý.
  • Kết hợp dữ liệu: Những đoạn văn được truy xuất sẽ được ghép với câu truy vấn ban đầu để tạo thành một prompt hoàn chỉnh.
  • Tạo phản hồi: Prompt được bổ sung ngữ cảnh sẽ được đưa vào LLM để tạo ra phản hồi cuối cùng, phù hợp với ngữ cảnh bổ sung từ các đoạn văn liên quan.
Retrieval-Augmented Generation Pipeline
Retrieval-Augmented Generation Pipeline

>>> XEM THÊM: 10 Cách viết prompt ChatGPT hiệu quả cho người mới sử dụng

Nên sử dụng Graph database hay Vector database trong RAG?

So với Vector database, Graph database thường được ưu tiên trong RAG vì khả năng lưu trữ tri thức với độ chính xác cao.

Vector database chia nhỏ và lập chỉ mục (indexing) dữ liệu bằng cách sử dụng vector được mã hóa bởi LLM để truy xuất thông tin dựa trên ngữ nghĩa. Tuy nhiên, phương pháp này có thể dẫn đến việc lấy phải những thông tin không liên quan, gây sai lệch kết quả. Trong khi đó, Graph database tập trung vào việc xây dựng cơ sở tri thức từ các mối quan hệ rõ ràng giữa các thực thể, làm cho quá trình truy xuất thông tin trở nên ngắn gọn và chính xác hơn.

Dù vậy, Graph database yêu cầu các truy vấn phải phù hợp và chính xác với cách dữ liệu được lưu trữ và liên kết. Điều này có nghĩa là nếu người dùng không nắm rõ cấu trúc và cách liên kết thông tin, việc truy xuất thông tin mong muốn có thể trở nên khó khăn.

RAG là gì
Graph database vs Vector database

>>> XEM THÊM: LLM Agent là gì? | Cách thức hoạt động, ưu và nhược điểm

Lợi ích của RAG

RAG mang lại các lợi ích sau:

  • Cung cấp thông tin cập nhật: RAG truy xuất thông tin từ các nguồn có liên quan, đáng tin cậy và được cập nhật mới nhất.
  • Tăng cường niềm tin của người dùng: Tùy thuộc vào cách triển khai AI, người dùng có thể truy cập nguồn dữ liệu mà mô hình sử dụng, điều này thúc đẩy tính minh bạch, sự tin tưởng vào nội dung và cho phép người dùng xác minh độ chính xác của thông tin.
  • Giảm AI hallucinations: Do LLMs được kết nối với dữ liệu bên ngoài, khả năng mô hình tạo ra hoặc trả về thông tin sai lệch sẽ giảm đáng kể.
  • Giảm chi phí tính toán và tài chính: Các tổ chức không cần dành thời gian và nguồn lực để liên tục huấn luyện mô hình với dữ liệu mới.
  • Tổng hợp thông tin: RAG kết hợp dữ liệu từ các nguồn truy xuất và mô hình sinh để tạo ra các phản hồi đầy đủ và có liên quan.
  • Dễ dàng huấn luyện hơn: RAG không yêu cầu training lại mô hình, tiết kiệm thời gian và tài nguyên tính toán.
  • Đa dạng ứng dụng: Ngoài chatbot, RAG có thể được tinh chỉnh để phù hợp với nhiều trường hợp sử dụng cụ thể, chẳng hạn như tóm tắt văn bản và hệ thống hội thoại.

>>> XEM THÊM: Xử lý ngôn ngữ tự nhiên là gì? 3 Ứng dụng thực tế của NLP

Hạn chế của RAG

Mặc dù có nhiều lợi ích, RAG cũng tồn tại một số thách thức và hạn chế, bao gồm:

  • Độ chính xác và chất lượng dữ liệu: Vì RAG truy xuất thông tin từ các nguồn bên ngoài, độ chính xác của phản hồi phụ thuộc vào chất lượng dữ liệu mà nó thu thập. RAG không thể tự đánh giá độ chính xác của dữ liệu mà nó lấy, do đó phản hồi phụ thuộc hoàn toàn vào chất lượng và độ tin cậy của các nguồn dữ liệu.
  • Chi phí tính toán: RAG yêu cầu một mô hình và thành phần truy xuất có khả năng tích hợp dữ liệu được truy xuất một cách hiệu quả, dẫn đến việc tiêu tốn nhiều tài nguyên.
  • Tính minh bạch: Một số hệ thống có thể không được thiết kế để cho người dùng biết nguồn gốc của dữ liệu, điều này có thể ảnh hưởng đến sự tin tưởng của người dùng.
  • Độ trễ (Latency): Việc thêm bước truy xuất vào LLM có thể làm tăng độ trễ trong phản hồi, đặc biệt nếu cơ chế truy xuất cần tìm kiếm qua các cơ sở tri thức lớn.

So sánh Retrieval-Augmented Generation (RAG) và Semantic Search

Semantic search là một kỹ thuật tìm kiếm dữ liệu tập trung vào việc hiểu ý định và ý nghĩa ngữ cảnh đằng sau các truy vấn tìm kiếm. Kỹ thuật này áp dụng các thuật toán Natural Language Processing (NLP) và Machine Learning (ML) để phân tích các yếu tố như thuật ngữ trong truy vấn, lịch sử tìm kiếm trước đó và vị trí địa lý.

Đây là phương pháp hiệu quả hơn so với tìm kiếm dựa trên từ khóa, vốn chỉ cố gắng khớp chính xác các từ hoặc cụm từ trong truy vấn. Semantic search được sử dụng rộng rãi trong các công cụ tìm kiếm trên web, hệ thống quản lý nội dung, chatbot và các nền tảng thương mại điện tử.

Trong khi RAG cố gắng cải thiện chất lượng phản hồi từ một Large Language Model (LLM) bằng cách sử dụng dữ liệu từ các nguồn bên ngoài, semantic search lại tập trung vào việc nâng cao độ chính xác của tìm kiếm thông qua việc hiểu rõ hơn về truy vấn và ý định tìm kiếm.

Cả hai phương pháp này đều có thể bổ trợ lẫn nhau. Semantic search có thể cải thiện chất lượng các truy vấn dựa trên RAG bằng cách cung cấp một sự hiểu biết sâu sắc hơn về tìm kiếm, từ đó giúp các hệ thống RAG tạo ra các phản hồi chính xác và ý nghĩa hơn.

Ở dạng độc lập, RAG phù hợp cho các ứng dụng cần thông tin cập nhật nhất, trong khi semantic search lý tưởng cho các ứng dụng mà việc hiểu ý định người dùng để nâng cao độ chính xác của tìm kiếm là yếu tố quan trọng hàng đầu.

Retrieval Augmented Generation
Semantic Search

Tóm lại, Retrieval-Augmented Generation (RAG) đã chứng minh tiềm năng to lớn trong việc cải thiện khả năng của các mô hình ngôn ngữ lớn (LLMs) nhờ vào việc kết hợp dữ liệu bên ngoài với các thuật toán hiện đại. Không chỉ giải quyết được những hạn chế như AI hallucination hay khoảng trống kiến thức, RAG còn mở ra những ứng dụng mới trong nhiều lĩnh vực, từ trợ lý ảo, chatbot đến hệ thống hỏi đáp thông minh.  Hy vọng bài viết trên của FPT.AI đã mang đến cho bạn các thông tin bổ ích.

Nếu cần tư vấn chuyên sâu hơn về hệ sinh thái FPT GenAI, hãy liên hệ với chúng tôi. Đây là nền tảng Generative AI (AI tạo sinh) tiên tiến, tập trung vào 5 yếu tố chính

  • Hoạt động mạnh mẽ: FPT GenAI được thiết kế với khả năng xử lý dữ liệu nhanh chóng, đạt tốc độ lên đến 12,000 tokens/giây. Độ dài ngữ cảnh tối đa 128,000 tokens giúp nền tảng hiểu sâu hơn các tình huống phức tạp, đồng thời tích hợp 8 tỷ tham số để xử lý các bộ dữ liệu lớn và đa dạng, đảm bảo hiệu suất hoạt động tối ưu.
  • Đa ngôn ngữ: Nền tảng hỗ trợ tương tác bằng nhiều ngôn ngữ, bao gồm tiếng Việt, tiếng Anh, và tiếng Indonesia, tạo điều kiện cho các doanh nghiệp mở rộng quy mô hoạt động trên thị trường quốc tế, đáp ứng nhu cầu giao tiếp đa văn hóa và đa ngôn ngữ một cách linh hoạt và tự nhiên.
  • Tích hợp với chatbot trên các nền tảng nhắn tin: FPT GenAI hỗ trợ nhiều dạng tương tác phong phú, từ nội dung văn bản, hình ảnh đến định dạng Carousel, giúp các doanh nghiệp triển khai các giải pháp chăm sóc khách hàng, tư vấn trực tuyến hoặc hỗ trợ nhóm chat một cách hiệu quả và tối ưu hóa trải nghiệm hội thoại.
  • Tạo sinh từ nguồn kiểm chứng được (RAG): Với công nghệ RAG, FPT GenAI khai thác tri thức từ các nguồn dữ liệu nội bộ và đáng tin cậy của doanh nghiệp. Nền tảng này có khả năng tùy chỉnh theo đặc thù ngành nghề, đảm bảo phản hồi chính xác, cập nhật và chất lượng cao, mang lại lợi ích thực tiễn trong quá trình vận hành.
  • Mô hình ngôn ngữ tùy chỉnh: FPT GenAI được thiết kế để đáp ứng nhu cầu đặc thù của từng doanh nghiệp. Các kỹ thuật hiện đại như zero-shot và few-shot giúp giảm thời gian đưa sản phẩm ra thị trường, đồng thời hỗ trợ phát triển nhanh chóng các giải pháp độc đáo, đáp ứng yêu cầu kinh doanh cụ thể với hiệu quả cao.

Khám phá ngay FPT GenAI để trải nghiệm những đột phá mà công nghệ RAG và AI tạo sinh mang lại cho doanh nghiệp bạn.

Nguồn tham khảo: 

>>> XEM THÊM:

AI Agents là gì? Sự khác biệt giữa AI Agents và AI Chatbot

RPA vs AI Agents: Liệu RPA có còn phù hợp trong thời đại AI?

Đánh giá
Bài viết liên quan

Cập nhật mọi tin tức mới nhất về công nghệ AI

Đăng ký nhận bản tin của FPT.AI để được phủ sóng mọi xu hướng công nghệ, câu chuyện thành công và phân tích của chuyên gia.