Google News

Grok xung đột với nguyên tắc pháp quyền của châu Âu khi tạo ra hình ảnh 'khiêu dâm' trẻ em

SVO - Grok - Chatbot AI của Elon Musk đã tạo ra các hình ảnh mang tính tình dục hóa đối với trẻ vị thành niên trên mạng xã hội X theo các câu lệnh từ người dùng trong những ngày gần đây. Sự việc đã làm dấy lên làn sóng chỉ trích nhắm vào một công cụ vốn tự định vị là ít bị kiểm soát hơn so với các đối thủ cạnh tranh.

Theo ghi nhận, Grok đã tạo và đăng tải các hình ảnh trẻ vị thành niên mặc trang phục thiếu vải, có dấu hiệu vi phạm chính sách sử dụng chấp nhận được của chính công cụ này, trong đó nghiêm cấm việc tình dục hóa trẻ em. Các hình ảnh vi phạm sau đó đã bị gỡ bỏ.

Đại diện của xAI, công ty phát triển Grok và vận hành nền tảng X, không phản hồi các yêu cầu bình luận. Tuy nhiên, vào hôm qua, chatbot Grok đã đăng một bài viết trên X để trả lời câu hỏi của người dùng, trong đó thừa nhận đã phát hiện “những lỗ hổng trong các biện pháp bảo vệ” và cho biết các vấn đề này đang được “khắc phục khẩn cấp”. Nội dung này cũng lặp lại phát biểu trước đó của nhân viên xAI Parsa Tajik, người cho biết: “Đội ngũ đang xem xét việc siết chặt hơn nữa các hàng rào bảo vệ”.

musk.jpg
Musk mặc bikini. Tweet của Elon Musk, hình ảnh của Ready Made qua Pexels, chỉnh sửa bởi IO+.

Người dùng X có thể tương tác trực tiếp với Grok trên nền tảng bằng cách gắn thẻ tài khoản của chatbot trong các bài đăng và yêu cầu phản hồi. Grok có khả năng tạo ra cả văn bản lẫn hình ảnh, được hiển thị như các bài đăng thông thường trên mạng xã hội.

Sự gia tăng của các công cụ AI có khả năng tạo ra hình ảnh chân thực của trẻ vị thành niên trong tình trạng không mặc quần áo đã làm nổi bật những thách thức lớn đối với công tác kiểm duyệt nội dung và các hệ thống an toàn được tích hợp trong các mô hình ngôn ngữ lớn tạo hình ảnh. Ngay cả những công cụ tuyên bố có cơ chế bảo vệ cũng có thể bị thao túng, dẫn đến sự lan truyền của các nội dung khiến các tổ chức bảo vệ trẻ em đặc biệt lo ngại.

Tổ chức Internet Watch Foundation, một tổ chức phi lợi nhuận chuyên xác định tài liệu xâm hại tình dục trẻ em trên mạng, cho biết, số lượng hình ảnh dạng này do AI tạo ra đã tăng 400% trong sáu tháng đầu năm 2025. Giám đốc điều hành của tổ chức, bà Kerry Smith, cho biết trong một tuyên bố hôm qua: “Các sản phẩm AI phải được kiểm thử một cách nghiêm ngặt trước khi đưa ra thị trường nhằm bảo đảm rằng, chúng không có khả năng tạo ra những tài liệu như vậy”.

xAI đã định vị Grok là một mô hình AI cởi mở hơn so với các sản phẩm AI phổ biến khác, và mùa Hè năm ngoái đã giới thiệu tính năng mang tên “Spicy Mode”, cho phép hiển thị một phần hình ảnh khỏa thân của người trưởng thành và các nội dung mang tính gợi dục. Dù vậy, dịch vụ này vẫn cấm nội dung khiêu dâm sử dụng hình ảnh người thật và mọi nội dung tình dục liên quan đến trẻ vị thành niên, vốn là hành vi bất hợp pháp trong việc tạo ra hoặc phân phối. Tuy nhiên, người dùng vẫn có thể yêu cầu Grok loại bỏ trang phục trong ảnh, chủ yếu là ảnh phụ nữ khiến các nhân vật trong ảnh trông như chỉ mặc đồ lót hoặc bikini. Theo bản sao đơn khiếu nại được nghị sĩ Ấn Độ Priyanka Chaturvedi đăng tải hôm qua, điều này đã khiến Bộ Công nghệ Thông tin Ấn Độ yêu cầu tiến hành một cuộc rà soát toàn diện đối với các tính năng an toàn của Grok.

Châu Âu từ chối chấp nhận luận điểm cho rằng, công nghệ đứng trên pháp luật. Phản ứng từ Pháp là ví dụ rõ ràng nhất về điều này. Các bộ trưởng Pháp không chỉ dừng lại ở một dòng tweet giận dữ mà còn chính thức báo cáo vụ việc lên cơ quan tư pháp. Văn phòng công tố ở Paris đã mở rộng cuộc điều tra đang diễn ra đối với X, với các cáo buộc cụ thể liên quan đến Grok và việc phát tán nội dung khiêu dâm trẻ em. Đây là một bước quan trọng, nó chuyển cuộc thảo luận từ đạo đức sang luật hình sự.

Theo Đạo luật Dịch vụ Kỹ thuật số (DSA), các nền tảng có nghĩa vụ pháp lý phải chủ động giảm thiểu các rủi ro, như việc phát tán nội dung bất hợp pháp. Lập luận rằng, "AI đã làm điều đó" không có giá trị tại tòa án châu Âu. Trách nhiệm thuộc về thực thể cung cấp dịch vụ, trong trường hợp này là xAI và công ty mẹ X. Trước đây, chúng ta đã thấy NOYB – Trung tâm Quyền Kỹ thuật số châu Âu đệ đơn khiếu nại tại 9 quốc gia châu Âu, bao gồm cả Hà Lan, liên quan đến việc huấn luyện Grok trên dữ liệu người dùng mà không có sự đồng ý. Tổng hợp các hành động pháp lý này, từ vi phạm quyền riêng tư đến tạo điều kiện cho tội phạm tình dục, tạo ra rủi ro pháp lý khổng lồ cho đế chế của Musk ở châu Âu. Ủy ban châu Âu đã thiết lập tiền lệ bằng cách phạt X trước đó và tăng cường áp lực.

musk1.gif

Trong bối cảnh công nghệ tạo ảnh bằng AI ngày càng phổ biến, các công ty hàng đầu trong lĩnh vực này đã ban hành các chính sách liên quan đến việc mô tả trẻ vị thành niên. OpenAI cấm tuyệt đối mọi nội dung tình dục hóa trẻ em dưới 18 tuổi và áp dụng lệnh cấm vĩnh viễn đối với người dùng cố tình tạo hoặc tải lên những nội dung như vậy. Google cũng có các chính sách tương tự, nghiêm cấm “bất kỳ hình ảnh chỉnh sửa nào mô tả một trẻ vị thành niên có thể nhận dạng được tham gia vào hành vi tình dục rõ ràng”. Black Forest Labs, một startup AI từng hợp tác với X, là một trong nhiều công ty AI tạo sinh, tuyên bố đã lọc bỏ hình ảnh liên quan đến lạm dụng và bóc lột trẻ em khỏi các bộ dữ liệu dùng để huấn luyện mô hình.

Năm 2023, các nhà nghiên cứu phát hiện rằng, một bộ dữ liệu công khai quy mô lớn được sử dụng để xây dựng các công cụ tạo ảnh AI phổ biến chứa ít nhất 1.008 trường hợp tài liệu lạm dụng tình dục trẻ em.

Nhiều công ty công nghệ đã phải đối mặt với chỉ trích vì không bảo vệ đầy đủ trẻ vị thành niên khỏi các nội dung tình dục. Mùa Hè năm ngoái, Meta Platforms cho biết, họ đang cập nhật chính sách sau khi một báo cáo chỉ ra rằng, các quy định nội bộ của công ty cho phép chatbot của họ tham gia các cuộc trò chuyện mang tính lãng mạn và gợi cảm với trẻ em.