Google News

Rủi ro bảo mật của tác nhân AI

SVO - Phân tích cho thấy các mối đe dọa an ninh đang phát triển lên một tầm cao hoàn toàn khác cùng với sự bùng nổ của các 'AI tác nhân', thực hiện các nhiệm vụ thực tế vượt ra ngoài việc hỏi đáp đơn giản và đang tạo ra một cấu trúc mà trong đó các lỗi có thể ngay lập tức dẫn đến rò rỉ thông tin hoặc sự cố hệ thống.

Giáo sư Choi Byung Ho, thuộc Viện Nghiên cứu AI Đại học Hàn Quốc nhận định: "Khi AI đạt đến mức độ có thể tự phát hiện ra các lỗ hổng mà con người không tìm thấy, các vấn đề an ninh hiện có có thể mất đi ý nghĩa của chúng. Tức là trong tương lai, cấu trúc sẽ chuyển sang một cấu trúc mà AI, chứ không phải con người, tìm ra các lỗ hổng và tiến hành các cuộc tấn công. Trong trường hợp này, các hệ thống an ninh hiện có có thể bị vô hiệu hóa".

Đặc biệt, xu hướng này dự kiến ​​sẽ còn tăng tốc hơn nữa khi cơ sở hạ tầng AI và sự phát triển của các mô hình song hành cùng nhau. Điều này là do khi các trung tâm dữ liệu và tài nguyên tính toán mở rộng nhanh chóng và hiệu năng mô hình trở nên tinh vi hơn, khả năng phát hiện lỗ hổng và tấn công của AI cũng phát triển đồng thời. Do đó, phân tích cho thấy cấu trúc ngày càng có khả năng được tổ chức lại thành một động lực "AI chống lại AI", trong đó tác nhân chính gây ra các mối đe dọa an ninh chuyển từ con người sang AI, và phản ứng cũng được xử lý bởi AI.

"AI chống lại AI" là cuộc chiến công nghệ cao, nơi các hệ thống trí tuệ nhân tạo được sử dụng để phát hiện, ngăn chặn hoặc vô hiệu hóa các nội dung, cuộc tấn công do một AI khác tạo ra. Đây là xu hướng tất yếu trong an ninh mạng và xác thực nội dung, sử dụng AI để kiểm tra văn bản, hình ảnh, hoặc phát hiện các mối đe dọa Deepfake.

1363804-1150211-25.jpg

Chúng ta đang hướng tới một giai đoạn mà không có lựa chọn nào khác ngoài việc "AI tự vệ chống lại AI". Điều này ngụ ý rằng một sự thay đổi cấu trúc đã bắt đầu, tổ chức lại cả tác nhân gây ra các mối đe dọa an ninh và các phương pháp phản ứng xoay quanh AI. Điều quan trọng nhất hiện nay là phải thiết kế lại các quy trình làm việc theo cách cho phép con người và AI cộng tác.

Các chuyên gia cho rằng phản ứng tập trung vào "cấm đoán" là đặc biệt không thực tế. Điều này là bởi vì, do việc sử dụng AI liên quan trực tiếp đến năng suất, nên rất khó để ngăn chặn xu hướng này chỉ bằng những hạn chế sử dụng đơn giản. Thay vào đó, họ giải thích rằng cần có các chiến lược quản lý dựa trên tiền đề sử dụng trong một môi trường được kiểm soát.

Ví dụ, các đề xuất bao gồm việc giới thiệu các công cụ chính thức như AI nội bộ, thiết lập các hướng dẫn rõ ràng và tăng cường đào tạo cho nhân viên. Lập luận là thay vì chặn vô điều kiện việc sử dụng AI bên ngoài, việc sử dụng nó nên được khuyến khích trong khuôn khổ kiểm soát nội bộ, và các tiêu chuẩn quản lý nên được thiết lập cho toàn bộ quy trình, từ nhập dữ liệu đến sử dụng kết quả.