Israel dùng AI xác định mục tiêu

TP - Quân đội Israel đã sử dụng cơ sở dữ liệu trí tuệ nhân tạo (AI) chưa được tiết lộ trước đây để oanh tạc Dải Gaza. Hệ thống này được gọi là Lavender, đã xác định được 37.000 mục tiêu.

Việc Israel sử dụng hệ thống AI tiên tiến, đã khiến cuộc chiến với Hamas bước vào một giai đoạn chiến tranh công nghệ cao. Điều này không chỉ dẫn đến hàng loạt vấn đề về pháp lý và đạo đức mà còn làm thay đổi mối quan hệ giữa quân nhân và máy móc. Một quan chức tình báo sử dụng hệ thống Lavender cho biết: “Theo những gì tôi biết, đây là điều chưa từng có… Chiếc máy đã lạnh lùng hoàn thành nhiệm vụ của nó khiến việc giải quyết mọi tình huống trở nên đơn giản hơn”.

Một người khác tỏ ra hoài nghi về vai trò của con người trong quá trình lựa chọn mục tiêu. “Trong quá trình này, thời gian chúng tôi xem xét mỗi mục tiêu là 20 giây và cần phải xử lý hàng chục mục tiêu mỗi ngày. Vai trò của tôi chỉ giới hạn ở việc xác nhận cuối cùng, ngoài ra không làm gì khác. Điều này giúp tiết kiệm nhiều thời gian”.

Sáu sĩ quan tình báo, tất cả đều từng sử dụng hệ thống AI để xác định mục tiêu trong cuộc chiến của Israel với Hamas và Tổ chức Thánh chiến Hồi giáo Palestine (PIJ), đã đưa ra lời kể với nhà báo Yuval Abraham để ông viết trong một bài báo cho tạp chí “+972” và tờ “Local Call” bằng tiềng Hebrew.

Trước khi bài báo xuất bản, The Guardian độc quyền có được lời kể của họ. Cả 6 người đều cho biết, hệ thống Lavender đóng vai trò cốt lõi trong cuộc chiến, xử lý lượng lớn dữ liệu để nhanh chóng xác định các mục tiêu Hamas “bậc thấp”. 4 người trong số họ đề cập rằng vào giai đoạn đầu của cuộc chiến, Lavender đã xác định được có tới 37.000 người đàn ông Palestine có liên hệ với Hamas hoặc tổ chức PJI của người Palestine.

Hệ thống Lavender được Đơn vị 8.200 tình báo tinh nhuệ của Lực lượng Phòng vệ Israel (IDF) phát triển. Một số nguồn tin cũng tiết lộ cách IDF xác định trước số lượng dân thường có thể bị tấn công đối với một số mục tiêu nhất định trước khi cho phép tấn công.

Cơ quan y tế tại các khu vực do Hamas kiểm soát cho biết 33.000 người Palestine đã thiệt mạng trong cuộc xung đột trong 6 tháng qua. Số liệu của Liên Hợp Quốc cho thấy, trong tháng đầu tiên của cuộc chiến, nhiều người trong 1.340 gia đình đã thiệt mạng, trong đó 312 gia đình mất tới hơn 10 thành viên.

IDF đã đưa ra tuyên bố đáp lại lời kể do “+972” và “Local Call” công bố, cho biết hành động của họ tuân thủ nguyên tắc tỉ lệ theo luật pháp quốc tế. Tuyên bố đề cập rằng bom không điều khiển là “vũ khí tiêu chuẩn” được các phi công IDF sử dụng và được coi là “có độ chính xác cao”.

Tuyên bố cũng mô tả hệ thống Lavender, xác định nó là cơ sở dữ liệu được sử dụng để “kiểm tra chéo các nguồn thông tin tình báo nhằm tạo ra lớp thông tin cập nhật về nhân sự hoạt động trong các hành động của tổ chức khủng bố. Đây không phải là danh sách quân nhân được xác định là đủ điều kiện mục tiêu… Hệ thống này chỉ là công cụ của nhà phân tích trong quá trình xác định mục tiêu”.

Trong những năm đầu hoạt động quân sự của IDF, việc xác định các mục tiêu con người thường là một quá trình tốn nhiều thời gian và công sức; việc quyết định chọn một cá nhân hoặc xác định đó là mục tiêu hợp pháp đều phải qua thảo luận và được các cố vấn pháp lý thông qua. Tuy nhiên, sau ngày 7/10/2023, kiểu trừng phạt nhắm mục tiêu vào con người này đã tăng tốc đáng kể. Khi các cuộc bắn phá của IDF vào Gaza ngày càng gia tăng, các chỉ huy liên tục yêu cầu xác định mục tiêu.

Để đáp ứng yêu cầu này, IDF bắt đầu dựa chủ yếu vào hệ thống Lavender để tạo ra cơ sở dữ liệu về các cá nhân được đánh giá là có đặc điểm của các chiến binh Thánh chiến Hồi giáo hoặc Hamas.

Thông tin chi tiết về các loại dữ liệu cụ thể được sử dụng để huấn luyện thuật toán Lavender hoặc cách chương trình đưa ra kết luận, không được đưa vào bài báo. Tuy nhiên, các nguồn tin cho rằng trong những tuần đầu tiên của cuộc chiến, Biệt đội 8200 đã cải tiến thuật toán của hệ thống “Lavender” và điều chỉnh các tham số tìm kiếm.

Nguồn tin cho biết, sau khi lấy mẫu ngẫu nhiên và kiểm tra chéo các dự đoán của mình, đơn vị này kết luận “hệ thống Lavender chính xác đến 90%”, khiến IDF phê duyệt sử dụng nó làm công cụ đề xuất mục tiêu. Họ nói thêm rằng hệ thống Lavender đã tạo ra một cơ sở dữ liệu gồm hàng chục nghìn người được coi là thành viên cấp thấp trong cánh quân sự của Hamas. Cơ sở dữ liệu được sử dụng cùng với một hệ thống AI hỗ trợ khác có tên là Gospel khuyến nghị nhắm mục tiêu vào các tòa nhà thay vì cá nhân.

Một trong những nguồn tin cho biết: “Vào lúc cao điểm, hệ thống Lavender đã coi 37.000 người là mục tiêu tiềm năng. Nhưng các con số liên tục thay đổi, tùy thuộc vào việc định nghĩa các chiến binh Hamas”.

Những người bảo vệ việc sử dụng hệ thống Lavender để giúp xác định các mục tiêu cấp thấp, cho rằng: “Khi nói đến các chiến binh cấp thấp, không cần đầu tư nhân lực và thời gian”. Họ nói IDF sẵn sàng chấp nhận rủi ro khi sử dụng AI, gây ra thiệt hại tài sản và thương vong cho dân thường, mạo hiểm tấn công sai và chấp nhận lỗi đó.

Những điều được tiết lộ trong bài báo trên “+972” và “Local Call” có thể là lời giải thích tại sao các lực lượng quân sự kiểu phương Tây của IDF với khả năng tấn công có độ chính xác cao đã phát động các cuộc tấn công dẫn đến thương vong lớn cho dân thường.