《下一步,AI。NEXT,愛》人類行為訊號處理 (李祈均)

1995年,一位MIT的科學家Rosalind Picard提出全新的概念:情感運算。它整合了計算機科學、心理學和認知科學。科學家設想,人類透過各種語音、肢體動作、生理訊號來表現情緒,如果能記錄下這些訊息,把它們系統化,是不是就能讓AI理解、甚至模擬人類情感?

但是,要了解人類的情緒反應並不容易,同樣一種情緒,不同的人會有不同的表達方式。傳統上,精神科醫師會透過觀察來記錄受測者的行為變化,但這種判斷方式準確性並不穩定。

李祈均教授多年來研究 「人類行為訊號處理(Behavioral Signal Processing, BSP)」,用統計的方式把人類行為做量化、分析、建模。希望將「專家的直覺」變得系統化,減少人為決策的不穩定。

 

清華大學電機工程學系 李祈均副教授:

第一個其實我們是要對訊號做萃取或做計算,我們稱為行為訊號的計算或擷取,這個部分大部分其實仰賴很多我們現在新的裝置的開發變得稍微廉價,也比較容易記錄很大量的資料。我舉例現在就是用錄影機在錄,這個錄影機的本質就是可以記錄行為,我們就可以很大規模地用這樣的設備來記錄人的行為,語音啊、肢體動作啊。再來就是對這些行為你可能會做一些標記,看什麼樣的情緒等等,或說相對應的的一些主觀的狀態,有了這些狀態,有了這些label之後你就可以訓練AI的演算法。演算法的背後其實就是一系列的公式,所以它並不會今天我早上昨天睡了多少,跟我今天心情影響我很多的決策。它會滿一致的。