當前,全球各大企業(yè)均在以前所未有的熱情擁抱AI,但與AI伴生的安全問題,正引發(fā)更多擔憂。
近日,鄔江興告訴新浪財經(jīng)《WeTalk》欄目,“不是90%的大模型不可信,而是100%的大模型都不安全、不可信”。他建議人們不要只相信單一大模型,而是“要相同的問題,多問幾個模型”。 他指出,每一個模型都是相對可信,但都存在缺陷,“你要想它沒缺陷,這個是不科學的”。 以下為《WeTalk》與鄔江興對話部分內(nèi)容: “100%大模型不可信,不要信任何一個大模型” 新浪財經(jīng):你們之前測試表明,90%的大模型都不可信任,現(xiàn)在這個結(jié)果有沒有一些改進了?可信度提升了嗎? 鄔江興:不是90%不可信,是100%都是不安全的,它沒有絕對的安全,100%都是不可信的。 它要通過必要多樣性去表達,通過相對可信,而不是去追求絕對可信,絕對可信是沒有的。所以每一個模型都是相對可信,都是存在缺陷,你要想它沒缺陷,這個是不科學的。但是我可以用這些帶有缺陷的模型,按照內(nèi)生安全構(gòu)造構(gòu)成一個相對可信的環(huán)境,他得到的結(jié)論,就要比大多數(shù)模型可信得多。 所以說以后人工智能應用的時候,你們千萬不要說我只用一個文心一言,用一個豆包等。把問題多問幾個模型,然后你自己來處理。當然,如果是內(nèi)生安全的系統(tǒng),我們自動可以來給你處理。 一個人,兼聽則明,偏信則暗。道理是一樣,不要去信某一個模型,可以有多幾個模型,同一個問題向幾個模型一起問,然后他們里面共同的一部分是可信的,不同的部分你要判斷。 “用AI解決AI安全問題,這是個偽命題” 新浪財經(jīng):您之前提過AI存在“三不可”問題,那該如何讓AI更可用呢?
鄔江興:AI運行不能去靠某一個大模型,不能是必要的關(guān)系,應該有多個大模型,然后讓他們按照內(nèi)生安全的構(gòu)造連接起來,有相對正確的工藝,有所謂的共識機制,讓我們可以來判斷。也就是當一個數(shù)據(jù)輸入時,多個模型因為存在共識機制,所以肯定不會辦指鹿為馬的事,如果有個模型真的出來指鹿為馬了,其他模型也可以判斷出它是指鹿為馬,不會讓我們以為這就是馬。 “閉源的單一模型,一定是不安全的” 新浪財經(jīng):這是否也意味著,一些商業(yè)機構(gòu)說自己的模型是閉源的,所以更先進,這其實是個偽命題呢? 鄔江興:這一定是有問題的,單一性一定是有問題的,閉源帶來不了安全性,因為他如果遭到破壞,單一的破壞就可能造成全部破壞,而當我們說必要多樣性時,你能破壞A的時候,你不可能同時破壞B、C、D。 物理世界的統(tǒng)一性和物質(zhì)世界的多樣性是怎么表達的?他要求的是生物多樣性,也就是說某種生物可能會在某種災難后消失掉,但由于生物的必要多樣性,能保證整個地球生物的生態(tài)不會因為某個物種的消失而完蛋,但如果是一個同質(zhì)化的物種,很可能在未來的演化和進化過程中,遭遇不測的時候就滅絕了。 新浪財經(jīng):類似于群策群力、人多力量大? 鄔江興:開源不光是群策群力,他還有多種多樣性。我們現(xiàn)在搞AI的人,總是想辦法把一個AI搞得安全,在理論上這是不成立的,沒有絕對安全的東西,只有相對安全。 新浪財經(jīng):您之前提出了一個多樣動態(tài)異構(gòu)冗余架構(gòu),這是您理念的具體載體嗎? 鄔江興:這是一個設(shè)計結(jié)構(gòu),就像我們的可靠性系統(tǒng)中,它要求你設(shè)計成主備或者是動態(tài)備份和靜態(tài)備份,這個動態(tài)異構(gòu)冗余是指你的一個信息系統(tǒng)或者一個大模型系統(tǒng),你要把它設(shè)計成這樣的一個架構(gòu),來按照這個架構(gòu)就能得到安全性,它現(xiàn)在是一個框架的形式。
注:文章及圖片轉(zhuǎn)載自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系刪除
|