ESS

Cảnh báo tin tặc sử dụng công nghệ trí tuệ nhân tạo sẽ còn tiếp diễn

Các chuyên gia dự đoán việc tin tặc sử dụng công nghệ AI (trí tuệ nhân tạo) để tăng hiệu quả cho các cuộc tấn công mạng sẽ còn tiếp diễn lâu dài.

Xu hướng các cuộc tấn công mạng áp dụng AI

AI (trí tuệ nhân tạo) ngày càng trở nên phổ biến rộng rãi, tạo cơ hội cho tội phạm mạng thực hiện các cuộc tấn công ở quy mô lớn hơn nhiều so với khả năng hiện tại.

Europol dự đoán tin tặc có thể sử dụng AI để phân tích thêm thông tin nhằm xác định mục tiêu và lỗ hổng bảo mật, đồng thời tấn công nhiều nạn nhân hơn cùng một lúc.

Chúng cũng có thể tạo ra nhiều nội dung hơn để đánh lừa người dùng. Các mô hình ngôn ngữ như OpenAI’s GPT-3 có thể bị dùng để tạo văn bản thực tế, bắt chước phong cách viết của một cá nhân hoặc tạo ra các chatbot mà nạn nhân nhầm lẫn với người thật.

Việc các doanh nghiệp phát triển ứng dụng dựa trên AI cũng có thể bị tin tặc lợi dụng. Europol cảnh báo, khi AI được ứng dụng vào phần mềm độc hại thì chính phần mềm đó cũng trở nên thông minh hơn. Phần mềm độc hại trong tương lai có thể tự tìm kiếm thông tin trên máy tính như dữ liệu nhân viên hoặc tài sản trí tuệ được bảo mật.

Giới chuyên gia cũng dự đoán các cuộc tấn công ransomware (mã độc tống tiền) sẽ gia tăng nhờ sự trợ giúp của AI. Trí tuệ nhân tạo giúp các nhóm ransomware tìm ra các lỗ hổng bảo mật và các nạn nhân mới.

AI thậm chí còn giúp tin tặc tránh bị phát hiện nhờ việc dò ra các biện pháp mà công ty sử dụng để phát hiện hành vi xâm nhập vào hệ thống IT của họ.

Khi AI phát triển khả năng bắt chước hành vi của con người thì nó sẽ có thể phá vỡ một số hệ thống bảo mật sinh trắc học. Nó cũng có thể giả mạo hành vi thực tế của người dùng, chẳng hạn như hoạt động trong những mốc thời gian cụ thể, để các tài khoản bị đánh cặp không bị hệ thống bảo mật hành vi phát hiện.

Chuyên gia bảo mật Todd Wade dự đoán AI còn có thể cho phép tội phạm mạng lợi dụng các thiết bị IoT đã bị xâm phạm. (Internet vạn vật – một mạng lưới các thiết bị thông minh, máy móc cơ khí và kỹ thuật số có liên quan với nhau và có khả năng truyền dữ liệu qua mạng mà không yêu cầu sự tương tác giữa con người với máy tính).

Tội phạm mạng có thể sử dụng hệ thống này để cung cấp năng lượng cho các rô bốt phần mềm hoặc các con bot hoạt động một cách tự chủ. Các thiết bị này sẽ trở nên rất nguy hiểm nếu được điều phối bởi AI.

 

Cách chuẩn bị đối phó với tội phạm mạng AI

Với khả năng ở hiện tại, việc tội phạm mạng áp dụng AI theo những cách thức trên vẫn chưa thể xảy ra do độ phức tạp về mặt kỹ thuật. Tuy nhiên, khi công nghệ phát triển mạnh mẽ hơn thì điều đó sẽ trở thành mối đe doạ lớn. Vì vậy, cần phải chuẩn bị đối phó với tội phạm mạng AI ngay từ bây giờ.

Bảo vệ hệ thống IT và người dùng cũng như chống lại tội phạm mạng do AI hỗ trợ sẽ đòi hỏi sự vào cuộc của các cá nhân, tổ chức và toàn xã hội.

Chuyên gia Todd Wade cho rằng các nhân viên của công ty cần được đào tạo để xác định các mối đe doạ mới, chẳng hạn như Deepfake. Mọi người đã quen với những cuộc tấn công mạng kiểu cũ, họ chưa quen với những cách thức mới như Deepfake hay Deepvoice.

Ngoài củng cố các phương pháp an ninh mạng, các tổ chức sẽ cần áp dụng các công cụ AI phù hợp với quy mô và mức độ tinh vi của các mối đe doạ trong tương lai.

“Bạn sẽ cần công nghệ AI để theo kịp các cuộc tấn công. Nếu không sẽ chẳng có cách nào để ứng phó kịp thời”, ông Wade cho biết.

Bên cạnh đó, cần phải quản lý cách thức AI được phát triển và thương mại hoá trong tương lai để nó không thể bị tội phạm mạng lợi dụng.

Trong một bản báo cáo, Europol kêu gọi các chính phủ đảm bảo rằng các hệ thống AI phải tuân thủ các nguyên tắc “bảo mật theo thiết kế” và phát triển các khuôn khổ bảo vệ dữ liệu cụ thể cho AI.

Share with us:

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest