OpenAI Cảnh Báo Rủi Ro An Ninh Mạng Cao Từ Các Mô Hình AI Tương Lai

OpenAI Cảnh Báo Rủi Ro An Ninh Mạng Cao Từ Các Mô Hình AI Tương Lai

OpenAI vừa qua đã gióng lên hồi chuông cảnh báo về việc các mô hình AI tiên tiến của họ có thể làm gia tăng rủi ro an ninh mạng. Điều này có lẽ không gây ngạc nhiên cho bất kỳ ai.

Công ty cho biết các mô hình này có khả năng tạo ra các khai thác từ xa zero-day, có thể vượt qua cả những hệ thống phòng thủ tốt nhất. Chúng cũng có thể tạo điều kiện cho những kẻ xấu thực hiện các cuộc xâm nhập phức tạp vào các mạng lưới doanh nghiệp và công nghiệp, dẫn đến những hậu quả khôn lường.

Tất cả những điều này xảy ra do khả năng của các mô hình AI đang tăng lên với tốc độ chóng mặt.

OpenAI đã chia sẻ trên blog của mình rằng, giống như các lĩnh vực lưỡng dụng khác, các quy trình làm việc phòng thủ và tấn công mạng thường dựa trên cùng một kiến thức và kỹ thuật cơ bản. Michael Bell, người sáng lập kiêm Giám đốc điều hành của Suzu Labs, cũng đồng tình rằng kịch bản này hoàn toàn khả thi và các kiểu tấn công này sẽ sớm được vũ khí hóa trên quy mô lớn.

Vì an ninh mạng liên quan đến hầu hết mọi lĩnh vực, OpenAI cho biết họ và các nhà cung cấp khác không thể chỉ dựa vào một loại biện pháp bảo vệ duy nhất, như hạn chế kiến thức hoặc chỉ sử dụng quyền truy cập đã được kiểm duyệt, mà thay vào đó cần một phương pháp phòng thủ chuyên sâu, cân bằng giữa rủi ro và trao quyền cho người dùng.

Điều này có nghĩa là định hình cách các khả năng được truy cập, hướng dẫn và áp dụng để các mô hình tiên tiến tăng cường an ninh thay vì hạ thấp các rào cản đối với việc lạm dụng. OpenAI cho biết họ đã thực hiện các bước để bảo vệ chống lại những rủi ro an ninh mạng mà các mô hình của họ có thể gây ra.

Công ty cho biết họ đang:

  • Huấn luyện mô hình để từ chối hoặc phản hồi một cách an toàn đối với các yêu cầu gây hại, đồng thời vẫn hữu ích cho các trường hợp sử dụng giáo dục và phòng thủ. Các mô hình Frontier đang được dạy để từ chối hoặc phản hồi một cách an toàn đối với các yêu cầu có thể cho phép lạm dụng mạng rõ ràng, đồng thời vẫn hữu ích tối đa cho các trường hợp sử dụng phòng thủ và giáo dục hợp pháp.
  • Hệ thống phát hiện. Bằng cách tinh chỉnh và duy trì hệ thống giám sát trên toàn hệ thống trên các sản phẩm sử dụng mô hình frontier, các hoạt động mạng độc hại tiềm ẩn sẽ được phát hiện. OpenAI cho biết khi hoạt động có vẻ không an toàn, họ có thể chặn đầu ra, chuyển hướng lời nhắc đến các mô hình an toàn hơn hoặc ít khả năng hơn hoặc leo thang để thực thi. Việc thực thi kết hợp đánh giá tự động và thủ công, dựa trên các yếu tố như yêu cầu pháp lý, mức độ nghiêm trọng và hành vi lặp lại. OpenAI cũng đang làm việc với các nhà phát triển và khách hàng doanh nghiệp để thống nhất về các tiêu chuẩn an toàn và cho phép sử dụng có trách nhiệm với các đường dẫn leo thang rõ ràng.
  • Red teaming toàn diện. Các tổ chức red teaming chuyên gia giúp OpenAI đánh giá và cải thiện các biện pháp giảm thiểu an toàn. Các nhóm đó cố gắng bỏ qua tất cả các biện pháp phòng thủ của mô hình bằng cách làm việc toàn diện, giống như một đối thủ quyết tâm và có nguồn lực tốt có thể làm, để công ty có thể xác định các lỗ hổng sớm và tăng cường toàn bộ hệ thống.

Các nỗ lực bảo mật của OpenAI cũng mở rộng sang hệ sinh thái. Công ty có kế hoạch giới thiệu chương trình truy cập đáng tin cậy để phòng thủ mạng, mở rộng năng lực phòng thủ với Aardvark, thành lập nhóm cố vấn Hội đồng rủi ro Frontier bao gồm các chuyên gia phòng thủ mạng và các chuyên gia bảo mật giàu kinh nghiệm, đồng thời phát triển sự hiểu biết chung về các mô hình mối đe dọa với ngành.

John Carberry, CMO tại Xcape, Inc., cho biết cách tiếp cận của OpenAI để ngăn chặn lạm dụng, rất may, không dựa vào các bộ lọc kỳ diệu. Kế hoạch của họ giống như một chiến lược phòng thủ theo chiều sâu tiêu chuẩn: họ sẽ đào tạo các mô hình để từ chối lạm dụng rõ ràng, thực hiện kiểm soát truy cập và giám sát, sau đó để các nhóm đỏ kiểm tra toàn bộ hệ thống.

Nhưng họ vẫn đang nhắm vào một mục tiêu di động. Ông nói, các tổ chức cần khả năng phát hiện các cuộc tấn công do AI cung cấp ngay hôm nay, bất kể các khuôn khổ phòng thủ này phát triển như thế nào, lưu ý rằng các phòng thí nghiệm đang cố gắng xây dựng các biện pháp bảo vệ trong khi chiếc xe đã di chuyển.

Bell nói rằng các tổ chức cần khả năng phát hiện các cuộc tấn công do AI cung cấp ngay hôm nay, bất kể các khuôn khổ phòng thủ này phát triển như thế nào, lưu ý rằng các phòng thí nghiệm đang cố gắng xây dựng các biện pháp bảo vệ trong khi chiếc xe đã di chuyển.

Diana Kelley, CISO tại Noma Security, cho biết các chuyên gia bảo mật có nghĩa vụ hướng dẫn sự phát triển đó bằng khả năng phục hồi và quản trị, đặc biệt khi các hệ thống AI chủ động trở thành tiêu chuẩn và quyền tự chủ do AI điều khiển ngày càng tăng. Về mặt thực hành, bà nói, điều này có nghĩa là an toàn theo thiết kế, đánh giá mô hình và red teaming nghiêm ngặt, giám sát liên tục hành vi của tác nhân và ranh giới quyết định, kiểm soát danh tính và truy cập mạnh mẽ xung quanh các hành động do AI khởi xướng và danh sách cho phép và từ chối rõ ràng chi phối quyền của hệ thống. Các nhà bảo vệ cũng phải củng cố các biện pháp phòng thủ hiện có của họ để sẵn sàng cho AI và nhận biết rủi ro về AI.

Bảo mật theo thiết kế cũng như trong quá trình triển khai sẽ cho phép các công ty hưởng lợi từ các mô hình AI tiên tiến mà không gặp phải những rủi ro không được quản lý, bà giải thích.

OpenAI hứa hẹn sẽ có nhiều biện pháp bảo vệ hơn. Cùng với những nỗ lực đó, chúng tôi dự định khám phá các sáng kiến và tài trợ an ninh mạng khác để giúp đưa ra các ý tưởng đột phá có thể không xuất hiện từ các kênh truyền thống và huy động các biện pháp bảo vệ táo bạo, sáng tạo từ giới học thuật, ngành công nghiệp và cộng đồng nguồn mở, OpenAI cho biết. Cùng với nhau, đây là công việc đang diễn ra và chúng tôi hy vọng sẽ tiếp tục phát triển các chương trình này khi chúng tôi tìm hiểu điều gì thúc đẩy hiệu quả nhất bảo mật trong thế giới thực.

Giải thích thuật ngữ:

  • Zero-day exploit: Lỗi bảo mật chưa được biết đến hoặc chưa có bản vá, tin tặc có thể khai thác để tấn công hệ thống.
  • Defense in depth: Phương pháp bảo mật nhiều lớp, nếu một lớp bị xâm phạm, các lớp khác vẫn bảo vệ hệ thống.
  • Red Teaming: Một nhóm chuyên gia bảo mật đóng vai trò tin tặc để tìm và khai thác các lỗ hổng trong hệ thống của tổ chức.

Chia sẻ với

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest

Bài viết liên quan

CISA cảnh báo về các chiến dịch phần mềm gián điệp đang hoạt động nhắm vào người dùng Signal và …

Nhóm tin tặc khét tiếng Molerats, hay còn gọi là GazaHackerTeam, vừa tái xuất giang hồ sau hai tháng im …

Một loại mã độc Android mới nổi lên, được gọi là SuperCard X, đang tạo ra mối đe dọa lớn …

Ba lỗ hổng React mới xuất hiện sau React2Shell CVE-2025-55183, CVE-2025-55184 và CVE-2025-67779 cần được chú ý ngay lập tức Nhóm Nghiên …