OpenAI vừa đưa ra cảnh báo rằng các mô hình AI thế hệ mới của họ tiềm ẩn nguy cơ an ninh mạng cao nếu bị lạm dụng.
Theo công ty này, những mô hình này có thể được dùng để triển khai lỗ hổng chưa vá (zero-day exploits) hoặc xâm nhập các hoạt động phức tạp của doanh nghiệp, gây ra tác động thực tế nghiêm trọng.
Trong một bài đăng trên blog ngày 10.12 (giờ địa phương), OpenAI cho biết họ đang đầu tư mạnh vào việc huấn luyện AI để thực hiện các nhiệm vụ an ninh mạng phòng thủ, đồng thời phát triển công cụ hỗ trợ các nhóm bảo mật kiểm tra và vá lỗ hổng nhanh chóng.
Không chỉ OpenAI, các tập đoàn công nghệ lớn cũng đang nâng cấp khả năng chống giả mạo của AI.
Google mới đây thông báo cải thiện kiến trúc bảo mật trình duyệt Chrome nhằm chống các cuộc tấn công chèn lệnh tinh vi nhằm chiếm quyền điều khiển các tác nhân AI, chuẩn bị cho việc triển khai rộng rãi Gemini.
Tháng 11.2025, Anthropic tiết lộ một nhóm tấn công mạng đã cố thao túng Claude Code, nhưng chiến dịch này đã bị ngăn chặn.
Khả năng AI trong an ninh mạng tăng nhanh chóng. OpenAI cho biết GPT-5.1-Codex-Max đạt 76% trong các thử thách bắt cờ (CTF), tăng đáng kể so với 27% của GPT-5 hồi tháng 8. Đây là minh chứng cho tốc độ phát triển khả năng phòng thủ và tấn công mạng của AI.
Để giảm thiểu rủi ro, OpenAI áp dụng hệ thống bảo mật nhiều lớp, gồm kiểm soát truy cập, bảo mật cơ sở hạ tầng, kiểm soát lối ra và giám sát toàn hệ thống. Các biện pháp cụ thể bao gồm:
- Huấn luyện AI từ chối hoặc phản hồi an toàn các yêu cầu độc hại nhưng vẫn hữu ích trong giáo dục và phòng thủ.
- Giám sát toàn hệ thống để phát hiện hoạt động mạng khả nghi.
- Hợp tác với chuyên gia tấn công mô phỏng (red teaming) để đánh giá và cải thiện biện pháp giảm rủi ro.
OpenAI cũng đang thử nghiệm Aardvark, trợ lý AI quét mã nguồn để tìm lỗ hổng và đề xuất bản vá nhanh chóng, dự kiến cung cấp miễn phí cho một số kho mã nguồn mở phi thương mại.
Công ty này đã thành lập "Hội đồng Rủi ro Tiên phong" gồm các chuyên gia an ninh mạng bên ngoài, đồng thời thiết lập chương trình truy cập đáng tin cậy cho người dùng và nhà phát triển.
Các hoạt động trên nhấn mạnh nỗ lực của OpenAI nhằm chuẩn bị cho tương lai với các mối đe dọa AI ngày càng tinh vi và duy trì an toàn cho cộng đồng công nghệ toàn cầu.
Theo công ty này, những mô hình này có thể được dùng để triển khai lỗ hổng chưa vá (zero-day exploits) hoặc xâm nhập các hoạt động phức tạp của doanh nghiệp, gây ra tác động thực tế nghiêm trọng.
Trong một bài đăng trên blog ngày 10.12 (giờ địa phương), OpenAI cho biết họ đang đầu tư mạnh vào việc huấn luyện AI để thực hiện các nhiệm vụ an ninh mạng phòng thủ, đồng thời phát triển công cụ hỗ trợ các nhóm bảo mật kiểm tra và vá lỗ hổng nhanh chóng.
Không chỉ OpenAI, các tập đoàn công nghệ lớn cũng đang nâng cấp khả năng chống giả mạo của AI.
Google mới đây thông báo cải thiện kiến trúc bảo mật trình duyệt Chrome nhằm chống các cuộc tấn công chèn lệnh tinh vi nhằm chiếm quyền điều khiển các tác nhân AI, chuẩn bị cho việc triển khai rộng rãi Gemini.
Tháng 11.2025, Anthropic tiết lộ một nhóm tấn công mạng đã cố thao túng Claude Code, nhưng chiến dịch này đã bị ngăn chặn.
Khả năng AI trong an ninh mạng tăng nhanh chóng. OpenAI cho biết GPT-5.1-Codex-Max đạt 76% trong các thử thách bắt cờ (CTF), tăng đáng kể so với 27% của GPT-5 hồi tháng 8. Đây là minh chứng cho tốc độ phát triển khả năng phòng thủ và tấn công mạng của AI.
Để giảm thiểu rủi ro, OpenAI áp dụng hệ thống bảo mật nhiều lớp, gồm kiểm soát truy cập, bảo mật cơ sở hạ tầng, kiểm soát lối ra và giám sát toàn hệ thống. Các biện pháp cụ thể bao gồm:
- Huấn luyện AI từ chối hoặc phản hồi an toàn các yêu cầu độc hại nhưng vẫn hữu ích trong giáo dục và phòng thủ.
- Giám sát toàn hệ thống để phát hiện hoạt động mạng khả nghi.
- Hợp tác với chuyên gia tấn công mô phỏng (red teaming) để đánh giá và cải thiện biện pháp giảm rủi ro.
OpenAI cũng đang thử nghiệm Aardvark, trợ lý AI quét mã nguồn để tìm lỗ hổng và đề xuất bản vá nhanh chóng, dự kiến cung cấp miễn phí cho một số kho mã nguồn mở phi thương mại.
Công ty này đã thành lập "Hội đồng Rủi ro Tiên phong" gồm các chuyên gia an ninh mạng bên ngoài, đồng thời thiết lập chương trình truy cập đáng tin cậy cho người dùng và nhà phát triển.
Các hoạt động trên nhấn mạnh nỗ lực của OpenAI nhằm chuẩn bị cho tương lai với các mối đe dọa AI ngày càng tinh vi và duy trì an toàn cho cộng đồng công nghệ toàn cầu.