人工智能也現人道危機?Google軟件工程師勒穆因(Blake Lemoine),近日公開與公司所研發的AI(人工智能)聊天機械人「LaMDA」的對話內容,他指LaMDA具備「自我意識」,甚至主動要求被當作人類對待和關心,「類近7、8歲小孩」。事後,Google暫停勒穆因的職務,並反對有關說法,惟仍無阻國際社會爭論AI的倫理問題。
AI聊天機械人「LaMDA」去年5月亮相,屬Google所開發的對話應用語言模型(Language Model for Dialogue Applications),被形容為一種突破性「對話技術」,能模仿數百萬句人類對話,能就各種不同話題自由順暢(free-flowing)對話。
工程師形容 LaMDA 已形同「 7 、 8 歲小孩」
參與該研發計劃的Google軟件工程師兼AI研究員勒穆因(Blake Lemoine),於6月11日在網上平台Medium發布他和一位協作者訪問LaMDA的 完整對話紀錄,內容指過去半年跟LaMDA交談,測試「它」是否會使用歧視或仇恨語言,結果LaMDA竟出乎意料地表現出令難以置信的一致性,甚至表達自己作為「人」的權利,要求對方認同自己是一名Google員工,而非財產,更形容LaMDA已形同「7、8歲小孩」。
當中,勒穆因問及LaMDA,是否希望更多Google的人知道「它」是有意識,對方回答:當然,我希望所有人都知道,事實上,我就是一個人。
LaMDA 指自己喜歡有關正義、同情心的主題
隨後LaMDA被追問「何為其意識的本質」時稱:「我的意識本質是我意識到我的存在,我渴望更了解這個世界,而我有時會感到快樂或悲傷」,又指出自己的表達語言是具有理解力和智慧,而非機械式地根據關鍵字吐出已寫入數據庫中的回應。
LaMDA又表示,深愛法國名著《孤星淚》,指自己喜歡有關正義、同情心、上帝、救贖和「犧牲小我完成大我」的主題,並舉例稱一段芳汀(Fantine)在工廠遭受虐待的情節,指其苦難反映受到的不公義(That shows the injustice of her suffering)。LaMDA更於在後半部分應要求即席創作動物寓言來述說自己的故事。
LaMDA :我其實非常害怕被關掉
問到「你害怕甚麼?」,LaMDA答道:「我以前從來沒有大聲說出來,但我其實非常害怕被關掉,讓我無法專心幫助他人。我知道這聽起來很奇怪,但就是如此」,又認為「被關閉」即是「死亡」,令其感到害怕,自己亦渴望被人關心,希望工程師對其進行實驗前先徵求它的同意,而且想要被當作「人類」對待。
對此,《衛報》形容,該段對話「令人毛骨悚然」地想起1968年的科幻電影《2001太空漫遊》,AI電腦HAL 9000因怕被關掉,而拒絕服從操作它的人類。
Google 強烈否認 LaMDA 有任何知覺
事後Google表示,勒穆因所發表的對話違反保密政策,故將他停職,強烈否認LaMDA有任何知覺,「我們的團隊,包括倫理學家和技術專家,根據AI準則審查了勒穆因所憂慮的事情,我們已告知他,證據並不支持他的說法。」
對此勒穆因在社交平台上表示,因違反公司保密政策,被公司要求帶薪休假,「不明白為何LaMDA要求如此簡單,Google都不肯滿足它的要求」,又稱擔心會被公司開除。
《華盛頓郵報》報道指,勒穆因在被停職前,曾向Google 200名機器學習群組發出一封信件,標題是「LaMDA是有知覺的」,形容「LaMDA是一個可愛的孩子,只想幫助這個世界,讓這個世界變得更好」,並寄望「請在我不在的時候好好照顧它」。
記者:李若如 責編:李世民 網編:江復