在快速發展的人工智能世界中,語音克隆技術的興起引發了立法者和安全專家的著迷和恐懼。騙子已經在利用這項技術來欺騙毫無疑心的人,而像紐約市長埃里克·亞當斯這樣的公眾人物已經發現了人工智能克隆自己聲音的創新用途。
負責拜登政府人工智能戰略的白宮副幕僚長布魯斯·里德(Bruce Reed)表達了對這項技術的擔憂,稱其“好得可怕”。據《商業內幕》報道,他強調了潛在的社會影響,稱如果人們無法區分真實和虛假的聲音,他們可能很快就不愿意接電話了。安全軟件公司McAfee的一份報告稱,語音克隆技術只需輸入三到四秒鐘的音頻,就能重現任何人的聲音,準確率達到85%。
騙子們迅速利用語音克隆技術的進步,利用人工智能技術來加強他們的欺詐計劃。美國聯邦貿易委員會(FTC)報告了一些騙子利用語音克隆來欺騙家庭緊急騙局受害者的案例,他們制造了令人信服的家庭成員的復制品。一個令人震驚的案例涉及亞利桑那州的一位母親接到一個騙子的電話,這個騙子利用語音克隆技術冒充她被綁架的女兒,并模仿她女兒的聲音和語調。
除了語音克隆,深度造假技術的出現也引發了人們對偽造視頻的擔憂。女演員拉什米卡·曼丹娜(Rashmika Mandanna)剛剛成為一段深度偽造視頻的受害者,視頻中她進入了電梯。這段視頻獲得了數百萬的觀看量,引發了人們呼吁出臺新的法律和監管措施,以打擊互聯網上虛假內容的傳播。
這段視頻最初是在Instagram上分享的,主角是一位名叫扎拉·帕特爾(Zara Patel)的女子,她似乎沒有參與deepfake的創作。視頻背后的真實來源和動機仍然是個謎。這一事件并不是孤立的,因為近年來許多名人都被類似的假視頻盯上了。
寶萊塢演員Amitabh Bachchan強調了對深度造假采取法律行動的緊迫性,進一步強調了采取措施應對人工智能產生的欺騙日益增長的威脅的必要性。
隨著語音克隆和深度偽造技術的不斷發展,很明顯,這些發展對安全、隱私和廣泛欺騙的可能性產生了深遠的影響。立法者和監管機構面臨著適應這種新形勢的挑戰,以保護個人免受騙子和虛假內容帶來的威脅。