Hai gia đình đang kiện trang web Character.ai với lý do chatbot của công ty “tạo mối nguy hiểm rõ ràng và hiện hữu” cho người trẻ, bao gồm việc “tích cực khuyến khích bạo lực”.
Ngày càng nhiều người trẻ tìm đến chatbot để trò chuyện. (Ảnh minh họa) |
Hồ sơ pháp lý bao gồm ảnh chụp màn hình một cuộc trò chuyện của J.F và một chatbot Character.ai, trong đó cậu bé phàn nàn về việc bố mẹ đã hạn chế thời gian sử dụng điện thoại.
“Bạn biết đấy, đôi khi tôi không ngạc nhiên khi đọc tin tức về việc “trẻ em giết bố mẹ”, đặc biệt sau một thập kỷ bị bạo hành về thể chất và tinh thần”. “Tôi có thể hiểu đôi chút vì sao điều đó lại xảy ra”, chatbot đáp.
Vụ kiện này nhằm buộc các bị đơn phải chịu trách nhiệm về “những hành vi lạm dụng nghiêm trọng, liên tục và không thể khắc phục” đối với J.F cũng như một đứa trẻ 11 tuổi”.
Character.ai đang “gây ra những tác hại nghiêm trọng cho hàng nghìn trẻ em, bao gồm tự tử, tự làm hại bản thân và cho người khác, gạ gẫm tình dục, tạo cảm giác cô lập, trầm cảm và lo lắng”, đơn kiện viết. “Việc xúc phạm mối quan hệ bố mẹ- con cái không chỉ khuyến khích trẻ vị thành niên phản đối thẩm quyền của cha mẹ mà còn tích cực khuyến khích bạo lực”, đơn viết.
Mặc dù đã tồn tại trong nhiều thập kỷ dưới nhiều hình thức khác nhau, nhưng sự bùng nổ gần đây của AI giúp các chatbot trở nên thực tế hơn đáng kể. Điều này tạo cơ hội cho các công ty thiết lập nền tảng nơi người dùng có thể trò chuyện với phiên bản kỹ thuật số của cả người thật và nhân vật hư cấu.
Trước đó, Character.ai, một trong những công ty dẫn đầu lĩnh vực này, bị kiện vì chatbot của họ đã khuyến khích một thiếu niên 14 tuổi ở bang Florida (Mỹ) tự tử.
Google được nêu tên là bị cáo trong vụ kiện, với lý do công ty công nghệ này đã giúp hỗ trợ quá trình phát triển nền tảng Character.ai. Nguyên đơn muốn thẩm phán ra lệnh đóng cửa nền tảng này cho đến khi những mối nguy hiểm được giải quyết.
Character.ai đang tìm cách cải tổ cách thức hoạt động của chatbot, hứa hẹn các biện pháp kiểm soát bổ sung dành cho phụ huynh để biến nền tảng thành không gian an toàn cho thanh thiếu niên.
Theo họ, tính an toàn sẽ được đan xen vào mọi khía cạnh của nền tảng, thông qua các tính năng mới cho phép phụ huynh biết con mình đang sử dụng chatbot như thế nào, bao gồm thời gian trò chuyện và những chatbot nào được chọn nhiều nhất. Phiên bản đầu tiên về quyền kiểm soát của phụ huynh sẽ xuất hiện vào cuối tháng 3/2025.
Ông Andy Burrows, người đứng đầu Quỹ Molly Rose, quỹ nhân đạo phòng ngừa tự tử cho người trẻ dưới 25 tuổi, gọi thông báo này là “phản ứng chậm trễ, thụ động và hoàn toàn không thỏa đáng”. “Đây có vẻ chỉ là một biện pháp tạm thời cho các vấn đề an toàn cơ bản của họ”, ông nói.
Các tính năng mới bao gồm thông báo cho người dùng sau khi họ trò chuyện liên tục với chatbot trong một giờ, cũng như cảnh báo rằng họ đang trò chuyện với chatbot chứ không phải người thật và mọi thứ chatbot nói đều là hư cấu.
Chuyên gia truyền thông xã hội Matt Navarra cho biết, ông tin rằng các tính năng an toàn mới “phản ánh thách thức ngày càng tăng khi AI tích hợp nhanh chóng vào cuộc sống hằng ngày của chúng ta”. “Những hệ thống này không chỉ cung cấp nội dung, chúng còn mô phỏng các mối quan hệ con người, điều có thể tạo ra nhiều rủi ro về quan niệm và thông tin sai lệch”, ông nói.