OpenAI 推出高级语音模式,推动新一代人工智能语音助手发展
·新的音频功能允许用户与对话并立即接收实时响应,也可以在说话时打断。视频和屏幕共享等更高级功能将在晚些时候推出。
7月31日,宣布向部分 Plus用户推出高级语音模式,并计划于秋季向所有 Plus用户开放。
正在推动新一代人工智能语音助手的发展。新的音频功能将允许用户与对话并立即接收实时响应,也可以在说话时打断它。语音模式可分辨不同的语音语调所传达的信息。它的声音听起来更自然,并利用声音传达各种不同情绪。
新的语音模式由的GPT-4o模型提供支持,该模型结合了语音、文本和视觉功能。为了收集反馈,最初向 Plus的“一小部分用户”推出语音高级功能,但表示,将在今年秋天向所有 Plus用户开放。
将语音通话体验的推出时间从6月下旬推迟到7月,称需要时间达到发布标准。表示已与100多个外部红队测试了GPT-4o的语音功能,涉及45种语言。该公司表示已经建立了几项安全机制,例如为了保护隐私,防止该模型被用来制作深度造假语音,它与配音演员合作创建了四种预设声音,GPT-4o不会模仿或生成其他人的声音。
此前,首次推出GPT-4o时,因使用名为“Sky”的声音而遭到强烈反对,这听起来很像女演员斯嘉丽·约翰逊( )的声音。斯嘉丽·约翰逊曾发表声明,称曾联系过她,希望允许模型使用她的声音,但她拒绝了。否认这是约翰逊的声音,但已暂停使用Sky。
也表示,已采用过滤器识别和阻止生成音乐或其他受版权保护的音频的请求,并将文本模型中使用的相同安全机制应用于GPT-4o,防止其违反法律,产生有害内容。“我们设置了护栏来阻止对暴力或受版权保护内容的请求。”此外,视频和屏幕共享等更高级功能将在晚些时候推出。