TPO - Kylie Jenner, Taylor Swift, Sydney Sweeney góp mặt trong Top 10 những nghệ sĩ bị lợi dụng tầm ảnh hưởng cho các chiêu trò lừa đảo trên nền tảng trực tuyến.
TPO - Biểu tình diễn ra ở Hàn Quốc trong mấy ngày qua, sau khi nước này thông qua luật hình sự hoá hành vi sở hữu, xem hình ảnh và video khiêu dâm sử dụng công nghệ deepfake.
TPO - Hơn 200 nữ thần tượng được tìm thấy trong phim khiêu dâm deepfake, cư dân mạng phẫn nộ khi biết nhiều nạn nhân và thủ phạm đang trong độ tuổi vị thành niên.
TP - Thời gian qua, một số công ty chứng khoán, doanh nghiệp lớn thông báo bị giả mạo thương hiệu, tên lãnh đạo để lừa đảo nhà đầu tư. Chiêu thức liên tục thay đổi, đối tượng lừa đảo còn ứng dụng công nghệ cao, AI (trí tuệ nhân tạo), deepfake (giả mạo khuôn mặt)... để lừa.
TPO - TIN NÓNG: Ông Trần Quí Thanh bị đề nghị mức án 9-10 năm tù; Người phụ nữ Hàn Quốc bị lừa 51.000 USD vì AI mạo danh Elon Musk; Điều kiện để U23 Việt Nam lấy vé dự Olympic Paris 2024.
TPO - Trong một số video giả mạo đang lan truyền trên mạng xã hội, 2 diễn viên hạng A của Bollywood chỉ trích Thủ tướng Narendra Modi và kêu gọi người dân bỏ phiếu cho đảng Quốc đại trong cuộc tổng tuyển cử đang diễn ra.
TPO - Công nghệ sử dụng AI giả mạo khuôn mặt - deepfake đang vượt quá tầm kiểm soát. Và các cô gái chính là những nạn nhân chịu ảnh hưởng nặng nề từ công nghệ này.
TPO - Việc Taylor Swift bị phát tán ảnh khiêu dâm khiến chính quyền Mỹ và các nhà phát triển nền tảng mạng xã hội ý thức sâu sắc hơn về mặt trái của công nghệ deepfake. Người hâm mộ hy vọng những hành động pháp lý chống lại vấn nạn giả mạo khuôn mặt trong tương lai của “Công chúa nhạc đồng quê” giúp các ngôi sao Kpop không phải đối mặt với vấn đề tương tự.
TPO - Vụ mở nắp quan tài khám nghiệm tử thi: Nghi phạm là con trai nạn nhân; CEO Microsoft nói gì trước vụ ảnh Deepfake khiêu dâm của Taylor Swift, Đội hình tệ nhất vòng bảng Asian Cup 2023... là những tin chính có trong Tin nhanh ngày 29/1/2024.
TPO - Merriam-Webster, công ty từ điển nổi tiếng của Mỹ đã công bố từ khóa của năm 2023. Đây là từ đã được các ca sĩ như Sam Smith, Taylor Swift, hay tỷ phú Elon Musk sử dụng phổ biến trong năm qua.
TPO - Những tấm ảnh ghép mặt bằng AI đang trở thành hiện tượng trên khắp các nền tảng mạng xã hội. Mới đây, Zalo AI Avatar là tính năng mới được Zalo giới thiệu, giúp người dùng tạo ra những bức chân dung đẹp đến siêu thực với nhiều phiên bản và phong cách khác nhau.
TPO - Khi ứng dụng Zalo ra mắt tính năng mới - tạo ảnh đại diện bằng Zalo AI Avatar, giới trẻ đã nhanh chóng "hô biến" ảnh đại diện chân dung thêm độc đáo. Nhiều bạn trẻ thích thú vì ảnh chân dung AI đẹp ngỡ ngàng hơn ngoài đời thật.
TPO - Deepfake - thủ đoạn giả mạo giọng nói và hình ảnh tinh vi - trở thành mối lo ngại của người dùng Internet trên toàn thế giới. Chuyên gia an ninh mạng Ngô Minh Hiếu (Hiếu PC) cho biết, trong năm vừa qua, deepfake đã giúp các hacker thu về số tiền hàng trăm tỉ đồng.
TPO - Thời gian gần đây, việc sử dụng công nghệ "Deepfake" để thực hiện cuộc gọi video với hình ảnh và khuôn mặt giả mạo đã trở thành một vấn đề đáng lo ngại. Cùng với việc cảnh báo, Bộ Công an cũng chỉ cách giúp người dân nhận diện và phòng ngừa loại hình lừa đảo này.
TPO - Đại diện Bộ Thông tin và Truyền thông (TT&TT) cho biết, có nhiều dấu hiệu nhận diện cuộc gọi lừa đảo deepfake như khuôn mặt người gọi thiếu cảm xúc, hướng đầu và cơ thể không nhất quán, màu da bất thường, đặc biệt kẻ gian sẽ ngắt giữa chừng rồi thông báo mất sóng, sóng yếu.
TPO - Thứ trưởng Bộ Khoa học và Công nghệ Bùi Thế Duy cho biết, sự phát triển mạnh mẽ của trí tuệ nhân tạo (AI), trong đó có ChatGPT, Deepfake đặt ra các vấn đề đạo đức và pháp lý liên quan đến ứng dụng AI một cách có trách nhiệm ở Việt Nam. Thời gian tới sẽ đẩy mạnh các kỹ năng ứng phó với trí tuệ nhân tạo.
TP - Các chuyên gia cho biết, các cuộc gọi Deepfake (giả tạo gương mặt, giọng nói của người thân để lừa đảo) có đặc điểm chung là ngắn, nhòe, chất lượng âm thanh, hình ảnh không tốt và kèm theo đề nghị chuyển tiền. Người nghe cần hết sức thận trọng khi nhận cuộc gọi như vậy.
TPO - Mấy ngày nay mạng xã hội đang lan truyền thủ đoạn gọi video giả và giả giọng người thân để lừa đảo. Thủ đoạn này được gọi là Deepfake. Vậy, Deepfake là gì? Tại sao có thể giả giọng, mặt người thân để lừa đảo?
TPO - Nhiều cư dân mạng đang xôn xao với một ứng dụng mới được tạo ra, dựa trên công nghệ "deepfake" đang phổ biến, nhằm khiến cho những người đã qua đời có thể “sống lại” - tất nhiên là ảo. Mục đích của ứng dụng này là tốt, tuy nhiên, cũng có nhiều ý kiến trái chiều được đưa ra.
TPO - Bên cạnh việc bạn có thể "biến hình" thành người nổi tiếng hoặc có phong cách độc đáo, thân hình người mẫu chỉ trong ít phút thì những ứng dụng ghép khuôn mặt cũng tiềm ẩn nhiều rủi ro cho người dùng như rò rỉ thông tin cá nhân, mất tiền oan uổng...
TPO - Chưa từng có trong lịch sử K-pop, một nhóm nhạc nữ sắp được cho ra mắt nhưng điều đặc biệt ở đây là không có một thành viên nào trong nhóm là… người thật. Họ đều là sản phẩm của trí tuệ nhân tạo, được tạo ra bằng Deep Real AI - một công nghệ hình ảnh ảo dựa trên deepfake.