Trong thế giới an ninh mạng đầy biến động, các chuyên gia đang đối mặt với một thực tế khắc nghiệt: những giải pháp và chiến lược an ninh truyền thống, vốn là trụ cột trong nhiều thập kỷ, giờ đây không đủ sức ngăn chặn các cuộc tấn công mạng tinh vi ngày nay. Kẻ xấu ngày càng tận dụng sức mạnh của trí tuệ nhân tạo (AI) để tạo ra các chiến dịch lừa đảo (phishing) và tấn công mạng với độ hiệu quả cao, nhắm đến việc xâm nhập và đánh cắp dữ liệu nhạy cảm của các tổ chức trên môi trường đám mây.
Trước tình hình đó, ngày càng có nhiều tổ chức tìm đến các giải pháp an ninh được hỗ trợ bởi AI như một “lá chắn” vững chắc, giúp phát hiện mối đe dọa trong thời gian thực, tăng cường khả năng mở rộng và chủ động phòng thủ. Tuy nhiên, việc khai thác tiềm năng của AI cũng đặt ra những bài toán hóc búa về đạo đức và quyền riêng tư, đặc biệt khi các mô hình AI được “nuôi dưỡng” bằng vô số thông tin nhạy cảm.
Chủ động đón đầu, thay vì bị động đối phó
Trong bối cảnh mạng lưới và thiết bị đầu cuối ngày càng mở rộng, việc chỉ dựa vào đội ngũ an ninh mạng con người là không đủ để phát hiện mọi mối đe dọa tiềm ẩn. Các phương pháp bảo mật truyền thống thường chỉ dựa vào phản ứng chậm trễ và khả năng phát hiện hạn chế, khiến các tổ chức luôn ở thế bị động. Tuy nhiên, AI có thể thay đổi cục diện này.
Bằng cách liên tục theo dõi các hoạt động bất thường và những dấu hiệu đáng ngờ, AI trao quyền cho các tổ chức để phát hiện truy cập trái phép và hành vi người dùng khác lạ, trước khi chúng leo thang thành những sự cố nghiêm trọng. Hơn thế nữa, AI tác nhân (agentic AI) – một dạng AI có khả năng hành động độc lập để đạt được mục tiêu mà không cần sự giám sát liên tục của con người – còn tiến thêm một bước nữa. Nó không chỉ xác định các hành vi khác thường mà còn nhận ra các mẫu độc hại đã được thiết lập mà các tổ chức đã từng gặp phải và phát triển các chiến lược giảm thiểu. Khả năng này cho phép các đội ngũ an ninh chủ động xác định và vô hiệu hóa các mối đe dọa trước khi chúng trở nên nghiêm trọng. Sự chuyển đổi từ phản ứng bị động sang can thiệp chủ động đánh dấu một sự thay đổi cơ bản trong cách tiếp cận an ninh mạng của các tổ chức.
Khi các mô hình AI xác định các hoạt động độc hại trong thời gian thực, chúng học hỏi từ mọi sự cố, tinh chỉnh khả năng phát hiện và trở nên hiệu quả hơn theo thời gian. Bằng cách thu hẹp khoảng cách kỹ năng quan trọng và giảm tải các tác vụ thủ công, tốn thời gian, học máy (ML) và học sâu (deep learning) cho phép các đội ngũ an ninh tập trung vào các sáng kiến chiến lược thay vì giám sát thường xuyên.
Đạo đức, quyền riêng tư và tính toàn vẹn của dữ liệu: Những vấn đề sống còn
Mặc dù AI mang đến nhiều tiềm năng, nhưng sự phụ thuộc của công nghệ này vào lượng lớn dữ liệu cá nhân cũng làm dấy lên những lo ngại nghiêm trọng về đạo đức và quyền riêng tư. Luôn có nguy cơ “vượt quá giới hạn”.
Sự thiên vị ăn sâu trong dữ liệu do con người tạo ra có thể dẫn đến những kết quả phân biệt đối xử. Đồng thời, ảo giác AI có thể đưa ra những kết luận sai lệch, nghe có vẻ xác thực nhưng lại không đúng sự thật – có khả năng gây ra những nỗ lực khắc phục sai lầm hoặc bỏ qua các mối đe dọa. Ví dụ: một hệ thống do AI điều khiển có thể gắn cờ hoạt động mạng vô hại là độc hại, gây ra những nỗ lực khắc phục không cần thiết hoặc ngược lại, bỏ qua một mối đe dọa thực sự vì nó đưa ra một kết luận правдоподобный но false. Nói cách khác, AI đôi khi có thể sai ngay cả khi nó truyền đạt sự tin tưởng vào thông tin mà nó cung cấp, dẫn các đội an ninh đi sai đường.
Kẻ xấu cũng có thể tham gia vào hành vi đầu độc dữ liệu, tức là can thiệp vào các tập dữ liệu huấn luyện để làm hỏng kết quả. Trong khi đó, rò rỉ dữ liệu vẫn là một mối lo ngại dai dẳng, vì các mô hình AI hoặc kết quả đầu ra của chúng có thể vô tình tiết lộ thông tin nhạy cảm hoặc bí mật.
Để giảm thiểu những vấn đề này, cần có cam kết vượt quá tất cả các tiêu chuẩn và quy định. Nó cũng có thể yêu cầu một số tổ chức phải xem xét lại các phương pháp bảo vệ và bảo mật dữ liệu hiện tại của họ. Tất nhiên, điều đó có nghĩa là giữ con người trong vòng lặp để tiếp tục chịu trách nhiệm và ra quyết định.
Sự hợp tác giữa con người và AI: Chìa khóa cho thành công
Ngay cả khi AI ngày càng trở nên không thể thiếu đối với an ninh mạng, sự can thiệp của con người vẫn rất quan trọng đối với các hệ thống an ninh hiện đại. Các công cụ tiên tiến có thể xác định các mối đe dọa, nhưng chuyên môn và giám sát của con người đảm bảo rằng trách nhiệm giải trình, ra quyết định sáng suốt và các cân nhắc về đạo đức vẫn là trung tâm. Các chuyên gia lành nghề có thể diễn giải thông tin chi tiết từ các mô hình AI, áp dụng phán đoán của con người vào các tình huống mơ hồ và tinh chỉnh các chiến lược giải quyết các mối đe dọa mới và đang nổi lên.
Ngoài ra, AI có thể giúp giảm thiểu tác động của tình trạng thiếu hụt kỹ năng kéo dài hàng năm. Báo cáo vi phạm dữ liệu năm 2024 của IBM tiết lộ rằng hơn một nửa số tổ chức bị vi phạm đã trải qua tình trạng thiếu nhân viên an ninh nghiêm trọng, tăng 26,2% so với năm trước. Sự thiếu hụt này làm tăng thời gian và chi phí liên quan đến việc ngăn chặn và khắc phục các vi phạm. Chi phí trung bình toàn cầu của một vụ vi phạm dữ liệu vào năm 2024 là 4,88 triệu đô la — tăng 10% so với năm trước và là tổng cao nhất từ trước đến nay.
AI có thể đóng một vai trò quan trọng trong việc thu hẹp khoảng cách kỹ năng bằng cách đảm nhận các nhiệm vụ chuyên sâu thủ công. Điều này giải phóng các thành viên trong nhóm bảo mật, cho phép họ tập trung vào lập kế hoạch chiến lược và ra quyết định quan trọng. Với việc AI xử lý các chức năng lặp đi lặp lại, các chuyên gia bảo mật có thể tập trung tài năng và sự sáng tạo của họ vào các thách thức cấp cao hơn. Cuối cùng, kết quả tốt nhất sẽ xuất hiện khi con người và AI hợp nhất, kết hợp hiệu quả do máy móc điều khiển với chiều sâu về chuyên môn và trực giác của con người.
Không có thời gian để chờ đợi
Những kẻ tấn công không hề đứng yên. Chúng đang sử dụng AI để dàn dựng các chiến dịch lừa đảo và tấn công mạng có hiệu quả cao. Điều này làm cho việc phát hiện và ứng phó với mối đe dọa do AI cung cấp trở thành một nhu cầu thiết yếu hơn là một lựa chọn. Tuy nhiên, các tổ chức cũng phải thực hiện các biện pháp đã được chứng minh và đúng đắn: Đào tạo và nâng cao nhận thức cho nhân viên, vá và cập nhật kịp thời, kiểm soát truy cập mạnh mẽ và mã hóa.
Sự hợp tác và chia sẻ thông tin về mối đe dọa là chìa khóa. Những người bảo vệ phải luôn cập nhật khi đối thủ phát triển, chia sẻ thông tin về các phương pháp tấn công mới và áp dụng các chiến lược hướng tới tương lai.
Tương lai của AI trong an ninh mạng
Việc áp dụng các mô hình không tin cậy và tích hợp các cân nhắc về AI tổng quát vào các chính sách bảo mật đang trở thành tiêu chuẩn mới. Các tổ chức không thích ứng được sẽ tụt lại phía sau các đối thủ cạnh tranh áp dụng các công cụ do AI điều khiển để luôn dẫn đầu các mối đe dọa mới nổi. Tuy nhiên, tương lai của an ninh mạng không chỉ là các khuôn khổ và chính sách cấp cao; nó cũng phụ thuộc vào việc nhúng các biện pháp bảo mật trong suốt vòng đời phát triển.
Bằng cách khai thác AI sớm hơn trong quy trình phát triển, các nhóm có thể ‘chuyển bảo mật sang trái’, nhúng các biện pháp bảo vệ mạnh mẽ vào mã khi nó được viết. Cách tiếp cận này giúp đảm bảo rằng các nhà phát triển trở thành nhà vô địch về bảo mật, được trao quyền để xác định và giải quyết các lỗ hổng trước khi các ứng dụng đi vào sản xuất. Khi các công cụ được AI hướng dẫn quét các lỗi mã hóa đã biết và các điểm bất thường tinh tế mà con người có thể bỏ lỡ, các nhà phát triển và chuyên gia bảo mật có thể làm việc cùng nhau để tăng cường tư thế bảo mật của tổ chức họ.
Ngành bảo mật cần phải có tầm nhìn xa. Các mối đe dọa sẽ chỉ tăng về số lượng và trở nên tinh vi hơn, vì vậy điều quan trọng là phải cộng tác và chia sẻ thông tin về mối đe dọa — và trên hết — luôn cập nhật: Các tổ chức phải thông báo cho nhân viên của họ về các công nghệ AI mới nổi và các mối đe dọa mà chúng gây ra.
Giải thích thuật ngữ:
- AI tác nhân (Agentic AI): Một loại AI có khả năng tự hành động để đạt được mục tiêu cụ thể mà không cần sự can thiệp liên tục của con người.
- Ảo giác AI (AI Hallucinations): Hiện tượng AI tạo ra thông tin sai lệch hoặc không tồn tại, nhưng lại trình bày nó một cách tự tin như thể đó là sự thật.
- Đầu độc dữ liệu (Data Poisoning): Hành động cố ý làm sai lệch hoặc thêm dữ liệu độc hại vào tập dữ liệu huấn luyện của AI, làm ảnh hưởng đến hiệu suất và độ chính xác của mô hình.