Google 一名軟體工程師 Blake Lemoine 日前遭停職處分,該名工程師對外宣稱,因為他相信谷歌開發的人工智慧聊天機器人已經有知覺才遭停職,但谷歌駁斥他的說法,並告知他違反了公司保密政策。但Google內部針對AI人工智慧技術是否具有人類意識的爭論曝光,讓AI伴隨的野心與風險浮上檯面。

Lemoine說,他與谷歌開發的對話應用語言模型 LaMDA 互動後得出結論,這個 AI 程式已經變成一個人,很可能擁有靈魂,有權被徵詢是否同意在它身上進行的實驗。LaMDA讓電腦系統比擬真人思路,理解使用者對話內容。這說法遭多名專家質疑。

多位專家告訴法新社,他們也對LaMDA有意識的說法高度懷疑,但人類的本質和野心很容易模糊問題。

美國華盛頓大學(University of Washington)語言學教授班德 Emily M. Bender 說:「問題在於…當我們遇到屬於我們語言的字串時,就會加以理解。」

「我們在做的是想像一個不存在的頭腦。」

LaMDA是一個使用先進模型、功能強大的系統,能用文字聊天來模擬人類溝通。

根據Google的解釋,該系統建立在一個模型上,模型觀察單字之間的關係,然後預測接下來會出現在句子或段落中的單字。

北卡羅來納大學教堂山分校 University of North Carolina at Chapel Hill 電腦科學助理教授斯里瓦斯塔瓦 Shashank Srivastava 說:「它在某種程度上仍然只是模式匹配。」

「當然,你可以找到一些真正有意義的對話,可以生成一些非常有創意的文字,但在許多情況下它會迅速轉移。」

儘管如此,確定它們有沒有意識還是棘手問題,這通常得使用圖靈測試(Turing test)這樣的基準測試。

Ai人工智慧發展是否會產生自我意識,引發各界討論。圖/Envato Elements

多倫多大學 University of Toronto 哲學教授金威爾 Mark Kingwell 說:「對於2022年我們這裡的任何AI來說,這實際上是一個相當容易通過的測試。」

「更嚴格的測試是上下文測試,當前系統似乎會被上下文測試中的常識知識或背景想法等難倒,那是演算法很難處理的東西。」

AI在科技界內外仍然是微妙議題,可能讓人驚訝,卻也讓人有些不舒服。

Google在聲明中迅速且堅定地淡化LaMDA是不是有自我意識的問題,「這些系統模仿了數百萬個句子中的交流類型,並且可以重複任何奇異的話題」。(中央社)