Google 推出 Deep Research Max: Hỗ trợ MCP, có thể kết nối dữ liệu riêng tư của doanh nghiệp

Theo thông báo trên blog chính thức của Google DeepMind, Google đã ra mắt các tác nhân nghiên cứu tự chủ thế hệ mới Deep Research và Deep Research Max vào ngày 21 tháng 4 năm 2026, xây dựng trên Gemini 3.1 Pro, như một phiên bản chính thức sau bản xem trước được cung cấp vào tháng 12 năm 2025 thông qua Interactions API. Hiện cả hai tác nhân đang mở dưới hình thức public preview trong gói trả phí của Gemini API, và người dùng khởi nghiệp mới cũng như doanh nghiệp của Google Cloud sẽ lần lượt được tích hợp.

Hai biến thể được định vị khác nhau: tương tác (interactive) vs chuyên sâu theo bất đồng bộ (asynchronous)

Google phân loại hai tác nhân theo bối cảnh sử dụng: Deep Research nhấn mạnh tốc độ và độ trễ thấp, phù hợp cho giao diện người dùng tương tác; Deep Research Max thì đổi việc kéo dài giai đoạn tính toán trong thời gian kiểm thử (test-time compute) để lấy tính toàn diện, phù hợp cho các quy trình làm việc bất đồng bộ, trong đó tác nhân có thể tự chạy các tác vụ dài trong thời gian riêng.

Trên các benchmark về truy xuất và suy luận, Deep Research Max so với phiên bản tháng 12 năm 2025 có mức cải thiện “đáng kể”, tham chiếu thêm nhiều nguồn thông tin và có khả năng nhận diện các chi tiết trước đó đã bị bỏ sót.

Hỗ trợ MCP: Google lần đầu tiên tích hợp chuẩn mở của phe Claude

Cả hai tác nhân đều hỗ trợ Model Context Protocol (MCP), cho phép người dùng kết nối các nguồn dữ liệu riêng của mình thông qua MCP. MCP là chuẩn mở do Anthropic giới thiệu vào cuối năm 2024 và trong nửa đầu năm 2026 đã lan tỏa nhanh chóng; tính đến tháng 3 năm 2026, số lượt cài đặt đã vượt 97 triệu lần. Google chính thức áp dụng MCP trong Gemini agent, tượng trưng cho việc ngành công nghiệp tác nhân AI bắt đầu hội tụ về một thỏa thuận kết nối công cụ chung.

Danh sách tính năng mới: nghiên cứu đa phương thức, biểu đồ gốc, chế độ dữ liệu nội bộ

Các năng lực cốt lõi của dòng Deep Research bao gồm: nghiên cứu đa phương thức (hỗ trợ PDF, CSV, hình ảnh, âm thanh, video làm tài liệu nghiên cứu), tạo biểu đồ và infographic gốc (định dạng HTML và Nano Banana), và lập kế hoạch hợp tác với người dùng (cung cấp các điểm duyệt thủ công trước khi thực thi), suy luận trung gian trong luồng phát trực tiếp (real-time streaming), cũng như tù chọn tắt truy cập mạng để tác nhân chỉ dùng dữ liệu nội bộ doanh nghiệp nhằm thực hiện nghiên cứu.

Tùy chọn “tắt mạng” này có ý nghĩa rõ ràng đối với các bối cảnh an ninh và tuân thủ của doanh nghiệp: các ngành như pháp lý, y tế, tài chính có thể tránh việc tác nhân giao thoa truy xuất đồng thời dữ liệu nhạy cảm nội bộ với mạng công khai, qua đó giảm nguy cơ rò rỉ dữ liệu và rủi ro tuân thủ.

Cục diện cạnh tranh: ba gã dẫn đầu doanh nghiệp đối đầu trong cùng tuần

Deep Research Max của Google và bản cập nhật lớn của Codex bên OpenAI trong cùng tuần “for (almost) everything” (computer use, bộ nhớ, 90+ plugin), cùng với Live Artifacts do Anthropic ra mắt trong Cowork tạo nên thế đối đầu tích cực. Ba gã dẫn đầu cùng công bố các sản phẩm rõ ràng trong “nghiên cứu tự chủ cấp doanh nghiệp / tác nhân sản xuất” trong cùng tuần, phản ánh rằng AI agent đã chuyển từ định vị công nghệ thử nghiệm sang cuộc chiến thương mại hóa.

Giám đốc sản phẩm của Deep Research Max Lukas Haas và Program Manager Srinivas Tadepalli trong bài công bố chính thức cho biết: việc ra mắt hai tác nhân này đánh dấu bước ngoặt của tác nhân nghiên cứu tự chủ AI “từ chỉ tóm tắt qua mạng, sang tích hợp dữ liệu nội bộ doanh nghiệp, trực quan hóa nguyên bản và tinh chỉnh qua các vòng lặp”.

Bài viết Google đề xuất Deep Research Max: hỗ trợ MCP, có thể kết nối dữ liệu riêng tư của doanh nghiệp xuất hiện sớm nhất tại 鏈新聞 ABMedia.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Các nhà sáng tạo AI16Z và ELIZAOS đối mặt với vụ kiện tập thể liên quan đến quảng cáo sai lệch và làm giàu bất chính

Tin từ Gate News, ngày 21 tháng 4 — Burwick Law đã nộp đơn kiện tập thể lên Tòa án Liên bang tại Quận phía Nam của New York (U.S. District Court for the Southern District of New York) (SDNY) tại Hoa Kỳ, chống lại các nhà sáng tạo của AI16Z và ELIZAOS, bao gồm Walters, cáo buộc vi phạm các luật bảo vệ người tiêu dùng, quảng cáo sai lệch và làm giàu bất chính

GateNews5giờ trước

Cobo Ra Mắt Agentic Wallet Dựa Trên AI, Hỗ Trợ Hơn 80 Blockchain với Bảo Mật Multi-Party Computation

Tin tức từ Gate, ngày 21 tháng 4 — Công ty lưu ký tài sản kỹ thuật số Cobo có trụ sở tại Singapore đã ra mắt Cobo Agentic Wallet vào ngày 20 tháng 4, một sản phẩm mới được thiết kế nhằm cho phép các hệ thống trí tuệ nhân tạo tự mình thực hiện các giao dịch blockchain trong một khuôn khổ an toàn và được kiểm soát. Ví này cho phép

GateNews6giờ trước

OpenAI Chuẩn Bị Tính Năng Agents Cho ChatGPT, Được Mã Hóa Là Hermes

Tin tức từ Gate, ngày 21 tháng 4 — Theo Tibor Blaho, người theo dõi các cập nhật sản phẩm AI, OpenAI đang chuẩn bị một tính năng Agents mới cho ChatGPT, được mã hóa là "Hermes." Tính năng này bao gồm một công cụ xây dựng agent mới có tên "studio" cho phép người dùng tạo các agent từ mẫu, lên lịch chạy và

GateNews6giờ trước

Giao thức MCP Bị Tấn Công RCE Ở Mức Thiết Kế; Anthropic Từ Chối Thay Đổi Kiến Trúc

Tin tức Gate, ngày 21 tháng 4 — Công ty an ninh OX Security đã công bố một lỗ hổng (RCE) thực thi mã từ xa ở mức thiết kế trong MCP (Model Context Protocol), chuẩn mở để các tác nhân AI gọi các công cụ bên ngoài, do Anthropic dẫn dắt. Kẻ tấn công có thể thực thi các lệnh tùy ý trên bất kỳ

GateNews8giờ trước

Quỹ 0G hợp tác với Alibaba Cloud để đưa Qwen LLM lên On-Chain cho AI Agents

Tin tức cổng thông tin, ngày 21 tháng 4 — Quỹ 0G đã hợp tác với Alibaba Cloud để tích hợp chuỗi mô hình ngôn ngữ lớn Qwen lên chuỗi. Thông qua cơ chế token hóa, các nhà phát triển có thể nhúng quyền truy cập trực tiếp Qwen vào hạ tầng của họ, loại bỏ nhu cầu quản lý tài khoản truyền thống và thanh toán fiat, đồng thời cho phép truy cập theo chương trình, theo yêu cầu đối với tính toán AI. Trong kiến trúc này, suy luận chạy trên Qwen trong khi xác minh được xử lý bởi 0G, thiết lập nền tảng tính toán và niềm tin cho các hệ thống AI tự chủ. Các nhà phát triển giờ đây có thể tận dụng lớp dữ liệu có thể xác minh của 0G để xây dựng các quy trình tác nhân đa bước có thể kiểm toán 100%. Bản phát hành Qwen 3.6 mới nhất đã được tối ưu cho AI Agentic, cung cấp hỗ trợ suy luận vững chắc cho các tác nhân AI trong các hệ thống phi tập trung. Sự hợp tác này giúp các tác nhân AI tự chủ có thể truy cập các mô hình hàng đầu trực tiếp thông qua blockchain. Quan hệ đối tác này đánh dấu sự chuyển dịch của cơ sở hạ tầng AI từ các mô hình API truyền thống sang các hệ thống có thể lập trình, được token hóa. Khi các năng lực AI trên chuỗi mở rộng, các nhà phát triển có thêm công cụ để tạo ra các ứng dụng AI phi tập trung, có thể xác minh.

GateNews8giờ trước

Nvidia ra mắt OpenShell v0.0.33 với trình điều khiển MicroVM libkrun để sandbox tác nhân AI

Tin tức Cổng, ngày 21 tháng 4 — Theo quan sát của Beating, gần đây runtime sandbox tác nhân AI mã nguồn mở của Nvidia là OpenShell đã phát hành phiên bản v0.0.33. Bản cập nhật giới thiệu libkrun, một trình điều khiển microVM nhẹ dựa trên KVM, cùng với các tính năng bảo mật được nâng cường

GateNews8giờ trước
Bình luận
0/400
Không có bình luận