天凱文字

可假冒人聲的AI系統廣泛測試中 OpenAI要了解它有多危險

Igor Miriam

可假冒人聲的AI系統廣泛測試中 OpenAI要了解它有多危險

小小八 小说

OpenAI正在測試能假冒人聲的新AI系統,任何人只要上傳15秒鐘自己朗讀一段文字的語音檔,它就能用合成聲音替對方讀出任何一段文字,而且不限原來的語言,包括可轉化爲中文。(美聯社)

人工智慧(AI)開發公司OpenAI說,它正在廣泛測試能夠假冒人聲的新AI系統,以便了解這種被稱爲「聲音引擎」(Voice Engine)的系統之危險性,因爲任何人只要上傳15秒鐘自己朗讀一段文字的語音檔,它就能用合成聲音替對方讀出任何一段文字,而且不限原來的語言,甚至可以轉化爲中文。

巴黎奧運郵票 面值1.96歐元 法發行80萬枚

也就是說,你用英語對「聲音引擎」念一段文字,它可以用西班牙語、法語、華語或任何語言,以你的聲音「發言」。

這是OpenAI繼生成圖像、生成影片功能人工智慧系統後,又一「新猷」。該公司29日表示,有數家公司正在測試「聲音引擎」的功能。前兩者是透過AI替使用者繪製想要的圖像或製造一段影片,而且立刻就能交件,如今,AI還可替使用者以任何語言發聲。

讽观光署长「访台旅客拟下修」打脸交长 李彦秀:王国材曾下军令状

万界最强包租公 暴怒的小家伙

數月前,民主黨總統準候選人拜登的聲音即遭人以AI冒用,撥打AI生成的自動語音電話,呼籲選民不要在今年1月的新罕布夏州初選投票。

三星创意竞赛 海岸清洁队夺首奖

造假資訊研究員擔心AI驅動的應用程式在關鍵選舉年遭大量濫用,因爲語音複製工具愈來愈多,且費用低廉、使用簡單又很難追蹤。

陸外交部領事司長吳璽轉任國台辦副主任 將分管新聞局

認知到這些問題的OpenAI表示,「基於合成語音濫用的可能性」,將對更廣泛的發佈採取謹慎態度且隨時掌握狀況。

蔷蔷健检「脑血管凸出0.1」 医警告少生气:爆掉会跟纳豆一样

如同圖像或影片生成器,聲音生成器也極可能被用在社交媒體上散播假訊息,不法分子可用來仿冒他人聲音,在網路上、電話中遂行詐騙或其他犯罪目的。

獸破蒼穹 小說

OpenAI最擔心的是,這套技術可以突破聲音認證的應用軟體,駭入他人的銀行帳戶等受聲控程式保護的網路及數位資產。該公司產品開發經理哈里斯(Jeff Harris)說,「這是很敏感的事,不能出錯,這點很重要。」

這家聲名大噪的新創公司正在研究以「數位浮水印」等方法,防範不法分子以「聲音引擎」爲工具,僞造政治人物或名人的聲音做壞事。

OpenAI上月發佈影像生成器「索拉」(Sora)時,也提出防範被濫用的措施,不過只展示,沒有公開發行。

下藥

谷歌、11實驗室(ElevenLabs)等科技廠商也發展出類似「聲音引擎」的生成技術,業者可藉此製作有聲書、網路聊天機器人,甚至創造廣播電臺節目主持人。

日媒:台積電將與九州大學簽署備忘錄培育人才

哈里斯說,暫不公開發行「聲音引擎」,因爲它很危險,尤其在選舉年。公司也不想馬上靠這套AI技術賺錢;不過他說,這套系統對於因爲生病或意外事故而喪失聲音的人「特別有用」。

Smochire

哈里斯指出,OpenAI幫助一名因腦癌損壞聲帶,不能說話的女性患者,利用她高中時留下的一小段錄音,重建說話功能。


Copyright © 2024 天凱文字