Từ "Nỗi Cô Đơn" Của Mô Hình Ngôn Ngữ Đến Bản Giao Hưởng Agentic - Kỷ Nguyên Của Workflow Và Giao Thức MCP
Khái niệm AI Agent khởi nguồn từ những năm 1950-1960, chính thức được định nghĩa vào năm 1987 (Pattie Maes) và bùng nổ nhờ LLM vào giai đoạn 2023-2024. Để giải quyết sự phân mảnh dữ liệu cho các tác tử này, Anthropic ra mắt giao thức MCP vào tháng 11/2024. Chỉ sau đó vài tháng, đến tháng 3/2025, MCP đã trở thành tiêu chuẩn chung toàn ngành khi được cả OpenAI và Google tích hợp, chính thức xác lập kỷ nguyên AI Agent có khả năng cộng tác đa nền tảng.
1. Dẫn nhập: "Nỗi đau" của sự hỗn mang và xiềng xích dữ liệu
Trước khi thuật ngữ Agentic AI trở thành kim chỉ nam, giới kỹ sư chúng ta đã trải qua một thời kỳ "trung cổ" của Prompt Engineering. Khi đó, LLM giống như một vị tiên tri bị nhốt trong tháp ngà: cực kỳ thông minh nhưng bị mù, điếc và liệt. Nó biết mọi thứ trên đời nhưng không thể mở một file CSV trên máy bạn, không biết giá Bitcoin hiện tại, và tệ nhất là nó thường xuyên "mơ sảng" (hallucinate).
Để giải quyết, chúng ta từng cố gắng viết hàng ngàn dòng code tích hợp (integration) rời rạc. Mỗi lần muốn AI đọc một Database mới, ta lại phải hì hục viết một bộ Adapter riêng. Kết quả là gì? Một hệ thống AI mong manh, khó bảo trì, và một con Agent "đa năng" nhưng thực tế lại vụng về vì quá tải bối cảnh.
Đó là lúc chúng ta cần một cuộc cách mạng về Cấu trúc (Workflow) và Giao thức (MCP).
2. Cơ chế hoạt động: Khi Quy hoạch động gặp Giao tiếp chuẩn hóa
Để hiểu hệ thống này, chúng ta cần bóc tách ba lớp kiến trúc mà chúng ta đã thảo luận:
A. Agentic Workflow: Đưa tính Định mệnh vào sự Ngẫu nhiên
Thay vì để LLM tự bơi trong một vòng lặp vô định, chúng ta áp dụng lý thuyết Đồ thị (Graph Theory) để xây dựng Workflow. Một hệ thống Agentic thực thụ được định nghĩa bởi một bộ trạng thái và các bước chuyển :
Trong đó, thay vì một "God Agent" duy nhất, chúng ta chia nhỏ thành các Nodes. Mỗi Node chỉ nhận một tập con các công cụ (Tools) và một System Prompt cô đọng. Điều này làm giảm Entropy của hệ thống, giúp xác suất sinh ra kết quả sai lệch tiến dần về .
B. MCP (Model Context Protocol): Hệ thần kinh trung ương
Như chúng ta đã phân tích, MCP là cú hích "decoupling" vĩ đại. Nó tách rời Năng lực suy luận (Host) khỏi Khả năng thực thi (Server).
- MCP Server: Hoạt động như một vi dịch vụ (microservice) phơi bày các khả năng thông qua JSON-RPC.
- MCP Client: Một lớp trừu tượng (Abstraction Layer) bên trong Host, sử dụng các phương thức vận chuyển như
StdiohoặcSSEđể gọi hàm mà không cần biết logic bên trong của Server.
Khi Workflow (người điều khiển) cần dữ liệu, nó không gọi API trực tiếp. Nó ra lệnh cho Client "nhấc máy" gọi Server thông qua giao thức chuẩn. Điều này biến việc tích hợp từ xuống còn .
3. Tại sao nó lại quan trọng: Sự đột phá về Tư duy Hệ thống
Sự kết hợp này không chỉ là một thủ thuật lập trình; nó là một sự thay đổi về hệ tư tưởng (Paradigm Shift):
- Sự tin cậy (Reliability): Workflow biến AI từ một kẻ "đoán chữ" thành một quy trình công nghiệp có thể kiểm soát (deterministic-like).
- Tính bảo mật (Security): Nhờ MCP, dữ liệu nhạy cảm (như file CSV nội bộ) không bao giờ rời khỏi máy của bạn. Chỉ có "kết quả trích xuất" được gửi lên Cloud cho LLM thông qua MCP Server cục bộ.
- Hệ sinh thái (Ecosystem): MCP cho phép chúng ta "cắm và chạy" (Plug and Play). Bạn có thể dùng một Server SQL của cộng đồng viết, kết nối nó với một Workflow nghiên cứu của bạn trong 5 phút.
4. Lời khuyên từ "Phòng thí nghiệm" (The Senior's Notes)
Với tư cách là người đã "cháy" không ít tiền API cho các vòng lặp vô tận, tôi có vài lưu ý xương máu cho bạn khi triển khai:
- Đừng xây dựng "God Agent": Nếu bạn thấy System Prompt của mình dài hơn 2000 tokens và chứa mô tả của 10 công cụ, đó là lúc bạn nên tách nó thành một Agentic Workflow với ít nhất 3 Nodes chuyên biệt.
- Ưu tiên Stdio Transport cho Local: Nếu bạn làm các công cụ cho cá nhân hoặc nội bộ, hãy dùng
Stdiocho MCP Server. Nó nhanh, bảo mật và không yêu cầu quản lý Port phức tạp. - State Management là chìa khóa: Trong LangGraph hay bất kỳ framework workflow nào, hãy thiết kế Schema cho
Statethật cẩn thận. Đừng quăng mọi thứ vào đó; chỉ giữ lại những gì Node tiếp theo thực sự cần. - Small Models cho các Node phụ: Không nhất thiết Node nào cũng phải dùng Gemini 2.0 Pro. Những Node tóm tắt hoặc kiểm tra định dạng có thể dùng các model nhỏ hơn (Flash hoặc 8B models) để tiết kiệm chi phí và giảm độ trễ.
5. Kết luận: Tầm nhìn về "Internet của các Tác tử" (Internet of Agents)
Tương lai không phải là một siêu AI biết làm tất cả. Tương lai là hàng triệu MCP Servers chuyên dụng kết nối với hàng triệu Agentic Workflows linh hoạt.
Chúng ta đang xây dựng một mạng lưới mà ở đó, các Agent có thể mượn "tay chân" của nhau thông qua MCP và làm việc theo những "quy trình" chuẩn hóa. Công việc của một AI Engineer như bạn không còn là "dạy AI học" nữa, mà là "thiết kế cách AI phối hợp".
