《下一步,AI。Next,愛 》第三集 預告片段


 清華大學資訊工程學系陳宜欣副教授:
女生在表達悲傷的時候她會講了很多東西是跟她周圍周遭的人有關係,例如我的媽媽爸爸繼母怎麼樣,男生在表達悲傷的時候你會發現他就是直接可能跟咒罵會有關係。男生會用很多的I was女生會用很多的I am,男生可能就會發現他是站在一個好像比較超然,比較客觀的方式來描述他跟這個世界的關係,女生就會感覺像她好像真的是在這個當下,跟社群是有所連結。在這個地方會不太一樣。


台灣人工智慧實驗室 雅婷音樂產品研發 楊奕軒博士:

以前的技術試著從頻譜上面去找一些規則但效果往往非常地有限,但是隨著深度學習技術的發展,AI透過大量的資料以及適當的網路架構的情況底下,它可以發現說,人聲具有哪些特性,譬如說鋼琴具有哪些特性,它從裡面去抽絲剝繭


台灣人工智慧實驗室 雅婷音樂產品經理王重陽:

我們現在能夠做到的是貝斯、鼓跟VOCAL以及所有的其他,所以我們的第四個軌道就會是所有的其他。現在抓一首歌到拆完,需要一首歌的大概0.20.3倍的時間,我覺得這真正最大的差別是在,它不像人就是只要要抓一首歌兩首歌就有很大的,心力上的耗損,機器做這件事情最好的地方在,它快而且它可以一直做,可以一直做這麼快。


清大動機系丁川康教授:

人類的這個倫理觀念是不是有某一種標準,或是模式,如果有的話,那我們可不可以透過某種方式把這些標準或模式把它找出來,然後呢在意外發生之前的階段,把它埋入你的自駕車或是你機器的判斷模型裡面,我想這樣的處理方式應該會比一個人類的臨場反應,或是不作為,要來得好很多。