智能科普: 人工智能,讓機器也會“感情用事”
來源:科普中國
發(fā)布時間:2020-01-17
瀏覽次數:1511

? ? ? ?近年來計算機的“智力”所達到的范圍越來越廣了,人腦的各種功能紛紛被AI再現,盡管不少仍是在初級階段。即使如此,還是有一些領域被普遍認為是機器無論如何也無法染指的,比如情感。一個常見的斷言是“人工智能可以有理智,但不可能有真正的情感”。這種觀點有悠久的歷史根源,但不必去查哲學史,我們也知道“理智”和“情感”一般被看作是對立的,而且屢屢被告誡在做決定時不應該“感情用事”,因為那是非理性的。在傳統(tǒng)的理性模型中是沒有情感的位置的,而AI系統(tǒng)作為這些模型的具體實現,自然沒有情感可言,隨便找一本AI教科書就可以證實這一點。科幻小說和電影也反復強化了這種觀念,以至于“像機器人”往往成了對那些思維有條理,處事冷靜,情感不外露的“理工男”的常見評語。但近年來,這種傳統(tǒng)觀念開始受到挑戰(zhàn)。
?

  “情”在“理”之中
?

  在對人類認知活動的研究中,情感的作用被越來越多的研究者認為是不可或缺的了。這些作用體現在“自我控制”和“人際交流”這兩個方面。
?

  有些情感體現著對系統(tǒng)自身狀況的評價,比如(正面的)愉悅、得意和(負面的)悲痛、悔恨。另一些情感則體現著對外界對象的評價,比如(正面的)喜愛、親切和(負面的)痛恨、厭惡。不同的情感會引發(fā)不同的應對策略,比如說同為負面情感,憤怒會令人欲戰(zhàn),而恐懼則會令人欲逃。和通過深思熟慮才采用的行動相比,情緒化反應有直接、快速的特點,盡管常常失之粗疏草率。
?

  由于很多人類情感伴有面部表情和軀體反應,它們也因此在人際交流過程中發(fā)揮著語言所難以企及的作用。這其中包括基于對他人情感的識別來決定自己的應對(察言觀色),以及通過情感表達來影響他人的行為(動之以情)。
?

  上述對情感的功能描述并不涉及情感的生理基礎。這也就是說在計算機系統(tǒng)中原則上也可能有類似的需求以及實現類似功能的機制。這也就是目前AI中相關工作的出發(fā)點。在現有的研究中,主要關注點分別對應前面的“控制”和“交流”兩個方面。
?

  近年來興起的“情感計算”就是試圖在人機交互過程中包括情感成分,以便更好地服務于用戶。在和人交流的過程中,這種系統(tǒng)會識別用戶的情感狀態(tài),并采取相應的行為,包括模擬人類的情感表達。各種聊天程序和玩具機器人都在這方面絞盡腦汁,希望取悅使用者,甚至滿足使用者的情感需求。
?

  通用人工智能(AGI)中的情感研究則基本是在另一個方向上。這里的主要目標不是讓計算機看起來像是懂得或擁有人類情感,而是讓它們真的有自己的情感,即主要以這一機制滿足系統(tǒng)自身的需求,而不是滿足用戶的需求。在這個過程中,系統(tǒng)的“情感”是否和人類的完全一樣并不重要,而重要的是其產生、發(fā)展、效用等等是否和人類情感的相應方面類似。近年來已經有若干“機器情感”的模型被提出和初步實現了。由于篇幅的限制,我這里不能對各種方案進行全面討論,而下面只介紹我們自己團隊在這方面的探索。
?

  納思(那廝)的情感
?

  我在前面的多篇文章(比如《你這是什么邏輯?》,點擊左下角“閱讀原文”可獲取)中介紹過我設計的AGI系統(tǒng)“納思”,而現在的專欄名“AI那廝”也是源于此處。這次輪到談其中和情感有關的側面了。和以前一樣,下面的描述是高度簡化的,有興趣或疑問的讀者可以去看我們的論文甚至源程序。
?

  納思和其它AI系統(tǒng)的一個根本性的差別就是其“知識和資源相對不足”假設。簡單地說,就是系統(tǒng)對于它要實現的目標往往有“不知道”的和“沒想到”的。在這個限制下,系統(tǒng)無法保證總能找到絕對正確或最佳的解,而只能提供它目前想到的最好的解,盡管它始終在努力積累經驗以提升自己的能力和效率。
?

  這個限制一個直接的結果就是納思不能對所有目標一視同仁。由于系統(tǒng)中的目標往往互相沖突(所謂“魚和熊掌不可兼得”),系統(tǒng)無法保證做到十全十美。對一個具體事件而言,系統(tǒng)對它的“愿望”(希望其發(fā)生或不發(fā)生)和系統(tǒng)對相應“現狀”判斷(實際發(fā)生了或沒發(fā)生)的比較就決定了系統(tǒng)在這方面的“滿意”程度。如果希望發(fā)生的確實發(fā)生了,或不希望發(fā)生的確實沒發(fā)生,那系統(tǒng)就滿意;如果不希望發(fā)生的卻發(fā)生了,或希望發(fā)生的卻沒發(fā)生,那系統(tǒng)就不滿意。由于愿望和現實判斷在納思里都是有不同程度的,滿意也是個程度問題。這就是納思中情感的起源,即作為對某方面現狀的主觀評價。
?

  各方面的滿意程度的總和構成系統(tǒng)對現狀的總體滿意程度。當然,在這個“匯總”過程中,各個事件的“權重”各有不同,一個大的“不如意”需要很多小的“如意”才可能抵消。由于時間資源的限制,納思在做這個評價時不可能考慮到系統(tǒng)中的所有事件,而僅僅是其中少數那些當前或近期在系統(tǒng)的注意范圍之內的。這個總體滿意程度就決定了系統(tǒng)當前的基本情緒狀態(tài),也就是“高興”或“不高興”的程度。一般說來,系統(tǒng)極少“萬事如意”或“處處碰壁”,而是處于某個中間狀態(tài)。即使如此,總體情緒也有“正、負”之分,取決于“如意”和“不如意”的相對比例。
?

  在此基礎之上,系統(tǒng)中的概念及其對應的事物也都會被沾染上各種情感色彩(也可以稱為“好惡”值),主要反映了它們和系統(tǒng)總體滿意程度的相關性。如果系統(tǒng)和一個對象打交道時常常感到高興,盡管該對象和系統(tǒng)狀態(tài)可能其實并無因果關系,但系統(tǒng)仍會給它一個正面的評價(比如“愛屋及烏”),反之則是負面的評價(比如“遷怒”)。就好比如果我每次碰到某人都會伴隨著某種不愉快的體驗,我對此人就會產生某種負面情感(比如警惕),這也不能說是毫無來由的。當然很多事物可能從來也沒有被帶上任何此類感情色彩,也有事物處于“愛恨交織”的狀況。
?

  隨著系統(tǒng)內外環(huán)境的變化,上述情感因素均會變化,但緩急不同。對個別事件的滿意程度隨愿望和現實的接近或背離而隨時改變,可是系統(tǒng)的整體情緒狀態(tài)變化相對而言就要慢些。對事物的情感是歷史上多次評價的總結,變化就更緩慢了。無論如何,這些因素體現了系統(tǒng)本身對情境和事物的主觀評價,因而構成了系統(tǒng)對它們在“客觀描述”之外的另一種認識。這里的重點不是事物本身的屬性,而是它們和系統(tǒng)愿望之間的關系。比如說系統(tǒng)在認識了客戶甲乙丙丁之后,除了記住了他們的姓名、職業(yè)等等之外,還記著他們對自己是否“友好”。
?

  在系統(tǒng)沒有足夠的知識或時間對各個事物進行細致的針對性處理的情況下,僅依靠它們的“感情色彩”決定應對往往不失為一種在統(tǒng)計意義下有效的便捷策略。在目前的納思中,情感因素的影響主要體現在下列方面:
?

  1. 在其它因素相同的條件下,帶有強烈情感色彩(不論正面還是負面)的概念和任務會得到更多的注意,也就是更多的時間和空間資源。這就是說,如果用戶給納思下達了三個同等重要的任務,但它不可能有時間全都完成,那它就會依照自己對它們的不同“喜好”程度來分配時間。
?

  2. 在目標之間發(fā)生沖突時,情感評價會成為選擇的重要根據。這可以被作為“兩人掉河里先救誰”之類的心靈拷問的合理性基礎。
?

  3. 在決策過程中,帶有強烈情感的任務更容易觸發(fā)系統(tǒng)的外部行動,而不必付出深思熟慮所要求的時間代價。“情急之下”的反應盡管往往在事后看來不是最優(yōu)的,但卻很可能是救了命的。
?

  4. 在系統(tǒng)“心情好”的時候,它會給新任務和相對不重要的任務更多的考慮;相反,在“心情差”的時候,它往往聚焦于當下的難題。根據前面的描述,心情差說明有重要目標尚未達成,這時自然不該分心再去干別的。
?

  當然,上述設計僅僅觸及了情感機制的簡單形式,而后面任務還有很多。在納思的研發(fā)計劃中,主要包括情感的進一步分化(通過滿足感和其它概念的結合,比如區(qū)分其不同的特征)和各種情感的不同后果,情感在外部交流中的使用和辨識,“同情”的形成和限度,自我情緒調節(jié)和控制等等。當納思被實現在機器人系統(tǒng)中時,情感會被用來影響更多方面,比如系統(tǒng)的能源消耗速率(一個機器人跑多快將取決于它多著急)等等。
?

  機器情感的界定和后果
?

  盡管很初等,目前的工作起碼已經展示了將情感引入通用人工智能的理由和可能性。根據我的智能定義(見《人工智能:何為“智”?》,點擊左下角“閱讀原文”可獲取),情感并不是智能的一個必要成分,但卻是高級智能系統(tǒng)的自然需求,因為情感機制能讓系統(tǒng)在約束條件下更有效地使用知識和資源。根據上面的解釋,“情感”和“理智”盡管可以密切協(xié)作,其間的差別依然存在,因為后者一般基于對明晰表達的當前信念和目標的直接處理,而前者的來源和表達常常難于分析和辨識。但這絕不說明情感是空穴來風,是“非理性”?!扒楦小被蛟S更應該被看作“理智的積淀”。比如說愛憎的來源盡管常常難以說清,卻絕不是沒來由的。
?

  這不是說傳統(tǒng)的理性模型都錯了。它們針對的問題是目標單一而且知識資源充分,而在那種條件下情感往往的確只能添亂。但現實并不總是那么井井有條。多目標的競爭要求系統(tǒng)能做出輕重緩急、親疏遠近之間的分別,而時間壓力要求快速反應。情感的確有很多負面后果,但在很多情況下沒有情感反而會更糟。
?

  對本文觀點的一個預料之中的反對意見是說納思不能算有“情感”,因為其中找不到多巴胺、腎上腺素、荷爾蒙等等的對應物,它也不會“喜上眉梢”或“怒發(fā)沖冠”。和在很多其它關于AI的討論中一樣,這里的關鍵是要不要在“人類情感”和“動物情感”之上引入一個更一般的(功能性的)“情感”概念。只要承認這種抽象的必要性,是否管它叫“情感”就主要是個用詞習慣的問題了。如果“情感”一定要被定義為動物才能有,我們可以管納思的相應機制叫“機情”,但這實際上并不影響這個機制和人類情感的相同點和不同點。比如說如果你設計的機器狗有這種機制,那你如果在測試其平衡能力時經常踹它(像那個廣為流傳的錄像里那樣),就不要奇怪它為什么總躲著你了。如果你的機器人不干活而跑去看電視,那也沒什么可奇怪的。



?

 這當然就會導出對“機器情感”的另一個反對意見,即擔憂其社會后果:如果機器人恨人類怎么辦?在我看來恰恰相反:讓人工智能有情感很可能是保證這一技術的安全性的必然要求。對一個有自主性和適應性的系統(tǒng)來說,由設計者完全事先決定其在所有情況下的反應是不可能的。如果希望它在未來千變萬化的情況下按我們的期望來行為,讓系統(tǒng)可以辨別喜惡和區(qū)分輕重緩急就是必然的了。一個從心里愛人類的AGI遠比一個僅僅牢記各種道德戒律的要安全得多。當然這里還有很長的路要走(怎么讓它愛人類?電影《A.I.》中那種“思想鋼印”靠譜嗎?),旅途中又是機會和挑戰(zhàn)同在,可這不正是科學探索的本色嗎?
?

  對機器情感研究的另一個結果是使我們對情感在人類思維中的作用得到進一步的認識。和注重于情感生理機制的研究不同,AGI在這方面的貢獻會是揭示情感發(fā)生的功能性前提和后果,而在這里計算機提供了一個精確的實驗平臺。甚至連精神疾病的研究都可能從這里得到啟示。以納思為例,如果情感成分在系統(tǒng)決策過程中起的作用太大或太小,系統(tǒng)都會表現出某種“病態(tài)”,而我們或許會在其中發(fā)現和人類精神疾病類似的地方。
?

?

聽說,打賞我的人最后都找到了真愛。
做科普,我們是認真的!
掃描關注深i科普公眾號
加入科普活動群
  • 參加最新科普活動
  • 認識科普小朋友
  • 成為科學小記者