Kiến trúc tổng quan và các thành phần chính cho giải pháp RAG dựa trên AI sinh ngữ

Bài viết “Kiến trúc tổng thể và các thành phần cho giải pháp RAG dựa trên AI tạo sinh” trên blog AWS Public Sector cung cấp hướng dẫn chi tiết về cách xây dựng một hệ thống Retrieval-Augmented Generation (RAG) trên nền tảng AWS. Giải pháp này giúp các tổ chức, đặc biệt trong khu vực công, tự động hóa quá trình phát triển đề xuất, tiết kiệm thời gian và nâng cao chất lượng phản hồi đối với các yêu cầu như RFI hoặc RFP.

Lấy cảm hứng từ hành trình AWS, bài đăng này giới thiệu cho các đối tác một phương pháp thực tế để triển khai các giải pháp Retrieval Augmented Generation (RAG) có thể chuyển đổi quy trình phát triển đề xuất của họ. Sức mạnh của công nghệ RAG trên AWS cho phép các đối tác giảm đáng kể thời gian dành cho nghiên cứu đề xuất và bản thảo ban đầu, cho phép các nhóm tập trung vào các hoạt động chiến lược thúc đẩy tỷ lệ thắng thầu. Cho dù bạn đang phản hồi Yêu cầu thông tin (RFI), RFP hay tạo các đề xuất không được yêu cầu, giải pháp RAG phù hợp có thể giúp bạn khai thác kiến ​​thức chung và những thành công trong quá khứ của tổ chức để tạo ra các phản hồi và đề xuất chất lượng cao trong vài giờ thay vì vài ngày.
Trong bài đăng này, chúng tôi sẽ hướng dẫn từng bước để xây dựng giải pháp RAG của riêng bạn trên AWS, hoàn chỉnh với các hướng dẫn nguồn mở và các biện pháp thực hành tốt nhất. Tìm hiểu cách khai thác cùng nền tảng công nghệ hỗ trợ tự động hóa đề xuất cấp doanh nghiệp trong khi vẫn duy trì bảo mật, tuân thủ và chất lượng nội dung.

Giải pháp RAG trên AWS

Bài viết giới thiệu một cách tiếp cận thực tế để triển khai các giải pháp RAG, giúp các đối tác của AWS giảm đáng kể thời gian nghiên cứu và soạn thảo ban đầu cho các đề xuất, cho phép các nhóm tập trung vào các hoạt động chiến lược nhằm tăng tỷ lệ thành công.​

Giải pháp RAG trên AWS

Kiến trúc tổng quan

Kiến trúc giải pháp RAG bao gồm bốn mô-đun chính:​

Kiến trúc giải pháp RAG:

  1. Giao diện người dùng: Tương tác với người dùng cuối thông qua Amazon API Gateway.

  2. Điều phối: Quản lý luồng dữ liệu và các quy trình xử lý bằng cách sử dụng AWS Lambda và Amazon Bedrock agent.

  3. Embeddings: Sử dụng các mô hình nền tảng để chuyển đổi văn bản thành vector embeddings.

  4. Kho vector: Lưu trữ và tìm kiếm các embeddings trong các cơ sở dữ liệu vector như Amazon Kendra, Amazon OpenSearch hoặc các tùy chọn mã nguồn mở khác.​Amazon Web Services, Inc.+1ragaboutit.com+1

Quy trình nạp dữ liệu vào kho vector

Lợi ích của kiến trúc mô-đun

Đối tác có thể bắt đầu như thế nào?

Hai tùy chọn sau được cung cấp để giúp Đối tác AWS triển khai nhanh chóng các giải pháp trong tài khoản đối tác hoặc khách hàng để giới thiệu nhiều trường hợp sử dụng kinh doanh phù hợp với từng đối tác hoặc khách hàng. Các giải pháp này có thể hoạt động trong vòng vài giờ mà không cần kiến ​​thức chuyên môn sâu để bắt đầu với các hệ thống AI tạo ra dựa trên RAG.
1. AWS GenAI Chatbot: Triển khai chatbot hỗ trợ nhiều mô hình và nhiều RAG trên AWS Giải pháp này cung cấp mã sẵn sàng sử dụng để bạn có thể bắt đầu thử nghiệm với nhiều mô hình ngôn ngữ lớn (LLM) và mô hình ngôn ngữ đa phương thức, cài đặt và lời nhắc trong tài khoản AWS của riêng bạn. Các nhà cung cấp mô hình được hỗ trợ bao gồm:
  • Amazon Bedrock: Hỗ trợ nhiều mô hình từ AWS, Anthropic, Cohere và Mistral, chẳng hạn như các mô hình mới nhất từ ​​Amazon Nova. Xem thông báo gần đây để biết thêm chi tiết. Amazon Nova Family of Models hiện cung cấp sự kết hợp tốt nhất về độ chính xác, tốc độ và chi phí cho nhiều tác vụ, chẳng hạn như tác vụ RFx.
  • Amazon SageMaker: Các mô hình tự lưu trữ từ Foundation, Jumpstart và HuggingFace.
  • Các nhà cung cấp bên thứ ba thông qua API như Anthropic, Cohere, AI21 Labs, OpenAI, v.v. Xem các tích hợp LangChain có sẵn để biết danh sách đầy đủ.
Hướng dẫn về cách triển khai giải pháp có thể được tìm thấy trong liên kết GitHub này. Tài liệu kiến ​​trúc chi tiết có thể được tìm thấy trong phần sau và mã nguồn có thể được tìm thấy trong liên kết GitHub này.
Architecture representing a RAG based solution that AWS partners can deploy to accelerate their go-to-market.
2. Amazon Bedrock trong SageMaker Unified Studio:
Ngoài ra, Đối tác có thể sử dụng Amazon Bedrock trong SageMaker Unified Studio, một môi trường cộng tác được quản lý tích hợp cho phép các nhà phát triển nhanh chóng xây dựng và tùy chỉnh các ứng dụng AI tạo sinh. Nó cung cấp một giao diện trực quan với quyền truy cập vào các FM hiệu suất cao của Amazon Bedrock và các khả năng tùy chỉnh nâng cao, chẳng hạn như Cơ sở kiến ​​thức, Guardrails, Agents và Flows. Amazon Bedrock trong SageMaker Unified Studio hợp lý hóa quá trình phát triển các ứng dụng AI tạo sinh bằng cách cung cấp trải nghiệm dễ dàng và dễ tiếp cận cho các nhà phát triển ở mọi cấp độ kỹ năng.

Kết luận

Với tốc độ phát triển nhanh chóng của AI sinh ngữ, việc xây dựng một kiến trúc RAG mô-đun trên AWS giúp các tổ chức tối ưu hóa giải pháp bằng cách sử dụng LLM và kho vector phù hợp nhất với trường hợp sử dụng kinh doanh của họ, đồng thời thúc đẩy việc tái sử dụng trên các giải pháp khác nhau trong tổ chức như chatbot, tìm kiếm, và hơn thế nữa.

Tìm hiểu thêm: https://osam.io/rag-tao-tang-cuong-truy-xuat-la-gi/

https://osam.io/agentic-ai-voi-deepseek-r1-crewai-va-amazon-sagemaker-ai-2/