Phiên bản alpha dành cho một nhóm nhỏ người dùng ChatGPT Plus (đóng phí), và OpenAI cho biết tính năng này sẽ dần dần triển khai cho tất cả người dùng Plus vào mùa thu năm 2024.
Khi OpenAI lần đầu tiên giới thiệu giọng nói của GPT-4o vào tháng Năm, tính năng này đã gây sốc cho khán giả với các phản hồi nhanh chóng và sự giống nhau đáng kinh ngạc với giọng nói của con người thực – một giọng đặc biệt. Giọng nói này, Sky, giống với giọng của minh tinh Scarlett Johansson.
Ngay sau khi OpenAI trình diễn, Johansson cho biết cô đã từ chối nhiều lời mời từ CEO Sam Altman cho phép hãng sử dụng giọng của mình, và sau khi xem bản demo của GPT-4o, đã thuê luật sư để bảo vệ hình ảnh của mình.
OpenAI phủ nhận việc sử dụng giọng của Johansson, nhưng sau đó đã loại bỏ giọng nói được trình diễn trong demo của mình. Vào tháng Sáu, OpenAI cho biết sẽ trì hoãn việc phát hành chế độ giọng nói nâng cao để tăng biện pháp an toàn.
Một tháng sau, OpenAI cho biết các khả năng video và chia sẻ màn hình được giới thiệu trong bản cập nhật Mùa xuân mà không có trong phiên bản alpha sẽ sớm ra mắt.
Hiện tại, bản demo GPT-4o vẫn chỉ là một bản demo, nhưng một số người dùng cao cấp có quyền truy cập vào tính năng giọng nói của ChatGPT.
ChatGPT giờ đây có thể nói và nghe
Người dùng có thể thử chế độ giọng nói hiện có trong ChatGPT, nhưng OpenAI cho biết chế độ giọng nói nâng cao sẽ rất khác biệt.
Giải pháp cũ của ChatGPT cho âm thanh sử dụng ba mô hình riêng biệt: Một để chuyển giọng nói của người dùng thành văn bản, GPT-4 để xử lý yêu cầu của người dùng, và sau đó một mô hình thứ ba để chuyển văn bản của ChatGPT thành giọng nói.
Nhưng GPT-4o là mô hình đa phương tiện, có khả năng xử lý các nhiệm vụ này mà không cần sự hỗ trợ của các mô hình phụ trợ, tạo ra các cuộc trò chuyện có độ trễ thấp hơn đáng kể.
OpenAI cũng tuyên bố GPT-4o có thể cảm nhận được cảm xúc trong giọng nói của người dùng, bao gồm sự buồn bã, phấn khích hoặc hát.
Người dùng ChatGPT Plus được trải nghiệm trực tiếp tính thực sự giống giọng người thật của chế độ giọng nói nâng cao.
OpenAI cho biết đang phát hành giọng nói mới của ChatGPT một cách dần dần để giám sát chặt chẽ việc sử dụng tính năng này. Những người trong nhóm alpha sẽ nhận được thông báo trong ứng dụng ChatGPT, sau đó là email hướng dẫn cách sử dụng.
Trong những tháng kể từ khi OpenAI trình diễn, công ty cho biết đã thử nghiệm khả năng giọng nói của GPT-4o với hơn 100 nhóm đánh giá độc lập bên ngoài, nói 45 ngôn ngữ khác nhau. Một báo cáo về kết quả thử nghiệm sẽ được phát hành vào đầu tháng Tám.
Công ty cho biết chế độ giọng nói nâng cao sẽ bị giới hạn ở bốn giọng nói mặc định của ChatGPT – Juniper, Breeze, Cove và Ember – được tạo ra với sự hợp tác của các diễn viên lồng tiếng trả phí.
Giọng nói Sky được giới thiệu trong bản demo tháng Năm của OpenAI không còn có sẵn trong ChatGPT. Người phát ngôn của OpenAI, Lindsay McCallum, nói: “ChatGPT không thể giả mạo giọng nói của người khác, cả cá nhân và nhân vật công chúng, và sẽ chặn các đầu ra khác với một trong những giọng nói mặc định này”.
OpenAI đang cố gắng tránh các tranh cãi về deepfake. Vào tháng Giêng, công nghệ sao chép giọng nói của startup AI ElevenLabs đã được sử dụng để giả mạo giọng Tổng thống Mỹ Biden, lừa dối cử tri ở bang New Hampshire.
OpenAI tuyên bố đã giới thiệu các bộ lọc mới để chặn các yêu cầu tạo nhạc hoặc âm thanh có bản quyền.
Trong năm qua, các hãng AI đã gặp rắc rối pháp lý vì vi phạm bản quyền, và các mô hình âm thanh như GPT-4o sẽ mở ra một giai đoạn mới mà các công ty hoàn toàn có thể nộp đơn khiếu nại, đặc biệt là các hãng thu âm – họ đã kiện các đơn vị tạo bài hát AI như Suno, Udio…