Bảo vệ AI chủ động bằng phân quyền dựa trên ý định

Bảo vệ AI chủ động bằng phân quyền dựa trên ý định

Bảo vệ AI chủ động bằng phân quyền dựa trên ý định

Thuở ban đầu, khi dây an toàn mới xuất hiện, xe hơi chạy còn chậm và một chiếc dây an toàn là đủ để giữ an toàn cho người lái trong hầu hết các vụ tai nạn. Nhưng khi xe cộ ngày càng mạnh mẽ hơn, các nhà sản xuất ô tô đã phải thêm túi khí, vùng hấp thụ xung lực và (cuối cùng) các hệ thống hỗ trợ lái xe thích ứng có thể dự đoán các mối nguy hiểm và tránh va chạm.

Quản lý danh tính và truy cập (IAM) hiện đang ở một bước ngoặt tương tự. Trong nhiều thập kỷ, quyền dựa trên hành động đã đóng vai trò là dây an toàn của an ninh doanh nghiệp, các biện pháp bảo vệ thiết yếu xác định người dùng hoặc hệ thống có thể làm gì. Nhưng với sự trỗi dậy của AI chủ động và các tác nhân phần mềm tự động hoạt động độc lập và đưa ra quyết định ở quy mô lớn, IAM hiện cần các quyền dựa trên ý định, không chỉ hiểu AI đang làm _gì_, mà còn là _tại sao_.

Dây an toàn danh tính và hỗ trợ lái xe thích ứng cho AI

Quyền dựa trên hành động vẫn là nền tảng của hầu hết các hệ thống IAM. Chúng hoạt động bằng cách chỉ định các thao tác được phép, đọc, ghi, cập nhật, xóa hoặc bằng cách cấp quyền truy cập API theo phạm vi.

Đối với con người hoặc bot tất định, mô hình này hoạt động tốt: nó thực thi đặc quyền tối thiểu, tạo ra dấu vết kiểm toán và giúp việc tuân thủ dễ dàng hơn. Nhưng trong bối cảnh AI, những biện pháp kiểm soát này là không đủ.

Các quản trị viên thường cấp quyền truy cập quá rộng để tránh làm gián đoạn quy trình làm việc, điều này làm phát sinh những rủi ro mới. Trong khi đó, các biện pháp bảo vệ quá nghiêm ngặt có thể chặn các hành vi hữu ích và gây khó chịu cho người dùng doanh nghiệp. Quan trọng nhất, quyền dựa trên hành động chỉ nắm bắt được “cái gì” của một hoạt động, chứ không phải “tại sao”.

Nếu một AI cố gắng xóa dữ liệu, thì đó là thực hiện dọn dẹp định kỳ hay đang cố gắng thực hiện một hành động trái phép? Hệ thống quyền không thể biết. Các biện pháp kiểm soát dựa trên hành động có thể giữ AI trong các làn đường được xác định trước, nhưng chúng không thể diễn giải điểm đến hoặc mục đích của hành trình. Giống như dây an toàn, chúng bảo vệ sau khi va chạm, chứ không phải phòng ngừa.

Quyền dựa trên ý định đưa IAM tiến thêm một bước bằng cách xem xét mục đích đằng sau hành động. Bối cảnh như loại tác vụ, độ nhạy dữ liệu, ủy quyền người dùng và tín hiệu rủi ro theo thời gian thực được đưa vào các quyết định truy cập.

Điều này tương đương với hỗ trợ lái xe thích ứng trong một chiếc xe, giúp xe tránh xa các mối nguy hiểm để ngăn chặn sự cố ngay từ đầu: quyền dựa trên ý định cho phép các hệ thống AI hoạt động tự chủ, đồng thời ngăn chặn một cách linh hoạt các hành động không phù hợp với mục đích kinh doanh.

Ví dụ: một AI có thể được phép truy cập PII của khách hàng nếu mục đích là giải quyết vé hỗ trợ, nhưng bị chặn truy cập tương tự nếu tác vụ là đào tạo mô hình. Cách tiếp cận này đưa nhận thức ngữ nghĩa vào IAM, ánh xạ không chỉ tới hành động mà còn tới mục tiêu.

Tại sao ý định lại quan trọng đối với AI chủ động

Con người mang bối cảnh đến các hành động của họ. Khi một quản trị viên bảng lương truy cập dữ liệu lương, thì thường được hiểu là một phần công việc của họ. Thật không may, AI không có bối cảnh ngầm định đó. Chúng có thể xâu chuỗi các hoạt động theo những cách mới lạ, tạo ra các hành vi mà quản trị viên không bao giờ lường trước được và các quyền hiện có có thể không hạn chế đầy đủ.

Bằng cách liên tục đánh giá mục đích, các biện pháp kiểm soát dựa trên ý định cho phép các doanh nghiệp cấp quyền truy cập một cách thích ứng chỉ khi các hành động phù hợp với các mục tiêu kinh doanh đã được phê duyệt. Điều này làm giảm các điểm mù, ngăn chặn việc cấp quyền quá mức và thiếu quyền, đồng thời hỗ trợ năng suất mà không ảnh hưởng đến bảo mật.

Về nhiều mặt, IAM dựa trên ý định mở rộng các nguyên tắc không tin cậy và đặc quyền tối thiểu sang kỷ nguyên AI. Nó không chỉ hỏi “hành động này có được phép không?” mà còn “hành động này có phù hợp với mục đích, bối cảnh và rủi ro hiện tại không?”

Điều đó không có nghĩa là quyền dựa trên hành động hiện đã lỗi thời. Bảo mật phụ thuộc vào các biện pháp kiểm soát theo lớp. Cùng với nhau, các biện pháp bảo vệ dựa trên hành động và quản trị dựa trên ý định tạo ra một hệ thống vừa bảo vệ vừa thích ứng.

Chuyển sang mô hình IAM kết hợp

Việc chuyển sang quyền dựa trên ý định sẽ phải diễn ra theo từng giai đoạn. Dưới đây là lộ trình ba bước để đạt được điều đó:

  • Ngắn hạn: Kiểm tra AI và thực thi các phạm vi dựa trên hành động chặt chẽ hơn. Đảm bảo mọi quyền đều có lý do và có thể kiểm tra được.
  • Trung hạn: Tích hợp các công cụ chính sách nhận biết bối cảnh có thể diễn giải tác vụ của AI, đánh giá độ nhạy dữ liệu và tính đến các tín hiệu rủi ro. Áp dụng kiểm tra ý định trước tiên cho các quy trình làm việc có giá trị cao hoặc rủi ro cao.
  • Dài hạn: Tiến tới các khung danh tính thống nhất, nơi hành động, ý định và rủi ro hội tụ thành một lớp quản trị duy nhất cho con người và các danh tính phi con người (NHI) như bot và AI.

Giải thích thuật ngữ:

  • IAM (Identity and Access Management): Quản lý danh tính và truy cập, là hệ thống quản lý người dùng nào được phép truy cập vào tài nguyên nào.
  • AI chủ động (Agentic AI): Loại AI có thể tự chủ đưa ra quyết định và hành động để đạt được mục tiêu cụ thể.
  • Đặc quyền tối thiểu (Least privilege): Nguyên tắc chỉ cấp cho người dùng hoặc hệ thống quyền truy cập tối thiểu cần thiết để thực hiện công việc của họ.
  • Zero Trust: Mô hình bảo mật không tin tưởng bất kỳ ai hoặc thiết bị nào theo mặc định, mà yêu cầu xác minh liên tục.
  • NHI (Non-Human Identities): Các định danh không phải con người, chẳng hạn như bot và AI.

Chia sẻ với

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest

Bài viết liên quan

CISA cảnh báo về các chiến dịch phần mềm gián điệp đang hoạt động nhắm vào người dùng Signal và …

Nhóm tin tặc khét tiếng Molerats, hay còn gọi là GazaHackerTeam, vừa tái xuất giang hồ sau hai tháng im …

Một loại mã độc Android mới nổi lên, được gọi là SuperCard X, đang tạo ra mối đe dọa lớn …

Ba lỗ hổng React mới xuất hiện sau React2Shell CVE-2025-55183, CVE-2025-55184 và CVE-2025-67779 cần được chú ý ngay lập tức Nhóm Nghiên …