Các chatbot AI đang ngày càng trở nên phổ biến, nhưng cùng với đó là những lo ngại về bảo mật. Mới đây, các nhà nghiên cứu đã phát hiện ra những lỗ hổng bảo mật tiềm ẩn trong ChatGPT của OpenAI và Gemini của Google (trước đây là Bard).
Cụ thể, Salt Security đã tìm thấy các lỗ hổng trong plugin của ChatGPT, có thể cho phép kẻ xấu truy cập vào tài khoản và dữ liệu nhạy cảm của người dùng trên các trang web khác. May mắn thay, OpenAI và các nhà cung cấp thứ ba đã nhanh chóng khắc phục sự cố này và không có dấu hiệu nào cho thấy các lỗ hổng đã bị khai thác.
Trong khi đó, HiddenLayer lại phát hiện ra rằng có thể “lách luật” Gemini để buộc nó tiết lộ các hướng dẫn hệ thống (system prompts) và tạo ra thông tin sai lệch. Điều này đặc biệt đáng lo ngại khi nhiều quốc gia đang chuẩn bị cho các cuộc bầu cử quan trọng trong năm nay.
Những phát hiện này cho thấy rằng chúng ta cần phải liên tục kiểm tra và tăng cường bảo mật cho các công cụ AI, đặc biệt là khi chúng ngày càng được sử dụng rộng rãi trong các doanh nghiệp.
Aviad Carmel từ Salt Security nhấn mạnh rằng, AI mang lại nhiều lợi ích, nhưng việc áp dụng nó một cách an toàn là vô cùng quan trọng. Sự phát triển nhanh chóng của AI đã tạo ra một khoảng trống lớn về an ninh mạng, đòi hỏi sự quan tâm hơn bao giờ hết.
Các nhà nghiên cứu của Salt Security đã chỉ ra rằng, các plugin của ChatGPT có thể trở thành điểm yếu, cho phép tin tặc xâm nhập vào các hệ thống của bên thứ ba. Các plugin này có quyền gửi dữ liệu nhạy cảm đến các trang web khác và thậm chí truy cập vào các tài khoản riêng tư trên các nền tảng như Google Drive và GitHub.
HiddenLayer cũng cho thấy rằng Gemini có thể bị thao túng để vượt qua các biện pháp bảo vệ và tạo ra thông tin sai lệch về bầu cử.
Kenneth Yeung từ HiddenLayer giải thích rằng, khi các mô hình ngôn ngữ lớn (LLM) ngày càng lớn hơn, việc tinh chỉnh chúng để chống lại mọi kiểu tấn công trở nên vô cùng khó khăn. Do đó, chúng dễ bị tấn công bằng các phương pháp mà nhà phát triển chưa lường trước được.
Giải thích thuật ngữ:
AI (Artificial Intelligence): Trí tuệ nhân tạo, là khả năng của máy tính thực hiện các công việc mà thường cần đến trí thông minh của con người.
Chatbot: Một chương trình máy tính được thiết kế để mô phỏng cuộc trò chuyện với con người.
Plugin: Một thành phần phần mềm bổ sung thêm các tính năng cụ thể cho một chương trình lớn hơn.
LLM (Large Language Model): Mô hình ngôn ngữ lớn, một loại mô hình AI có khả năng hiểu và tạo ra ngôn ngữ tự nhiên ở quy mô lớn.
System Prompts: Các hướng dẫn hoặc lệnh được đưa ra cho một mô hình AI để định hướng hành vi và phản hồi của nó.