發表文章

《下一步,AI。NEXT,愛 》15分鐘片花

圖片
劇中的愛情故事順著脈絡一路發展下來,將看似零散的單一研究,穿針引線,一個個串接起來。劇中主角的行為、經歷、能力表現,甚至心理狀態,都一一呼應到AI技術的發展,以及臺灣目前的實際應用的層面,再輔以專家陳述現況以及預測與反思未來。

《下一步,AI。Next,愛 》第二集 預告片段

圖片
台大電機系李宏毅副教授: 我們期待機器未來可以做到只要聽人的聲音,我們不需要告訴它我們講的內容是什麼,它就能上網爬一大堆的文字,自動就可以學會一種語言的語音辨識了。   中研院資訊所馬偉雲助研究員: 我們怎麼讓電腦知道每個詞彙的意思呢?我們就必須有像是一個辭典,是電腦看得懂的辭典。我們過去就是開發了一套這樣子的知識庫,叫做「廣義知網」。   臺北醫學大學醫學科技學院李友專院長: 處方箋錯誤裡面最常見就是用藥的錯誤,用藥錯誤大概佔全世界 5%~11 %。台灣一年要開三億多張處方箋,中國一年要開 80 億張的處方箋,美國大概 60 億張,所以你把它乘以一個 5 %、 10 %它很快就是好幾千萬甚至好幾億張錯誤。三百個錯誤有一個就會真正地傷害性命或者健康。

《下一步,AI。Next,愛 》第三集 預告片段

圖片
  清華大學資訊工程學系陳宜欣副教授: 女生在表達悲傷的時候她會講了很多東西是跟她周圍周遭的人有關係,例如我的媽媽爸爸繼母怎麼樣,男生在表達悲傷的時候你會發現他就是直接可能跟咒罵會有關係。男生會用很多的 I was 女生會用很多的 I am ,男生可能就會發現他是站在一個好像比較超然,比較客觀的方式來描述他跟這個世界的關係,女生就會感覺像她好像真的是在這個當下,跟社群是有所連結。在這個地方會不太一樣。 台灣人工智慧實驗室 雅婷音樂產品研發 楊奕軒博士: 以前的技術試著從頻譜上面去找一些規則但效果往往非常地有限,但是隨著深度學習技術的發展, AI 透過大量的資料以及適當的網路架構的情況底下,它可以發現說,人聲具有哪些特性,譬如說鋼琴具有哪些特性,它從裡面去抽絲剝繭 台灣人工智慧實驗室 雅婷音樂產品經理王重陽: 我們現在能夠做到的是貝斯、鼓跟 VOCAL 以及所有的其他,所以我們的第四個軌道就會是所有的其他。現在抓一首歌到拆完,需要一首歌的大概 0.2 、 0.3 倍的時間,我覺得這真正最大的差別是在,它不像人就是只要要抓一首歌兩首歌就有很大的,心力上的耗損,機器做這件事情最好的地方在,它快而且它可以一直做,可以一直做這麼快。 清大動機系丁川康教授: 人類的這個倫理觀念是不是有某一種標準,或是模式,如果有的話,那我們可不可以透過某種方式把這些標準或模式把它找出來,然後呢在意外發生之前的階段,把它埋入你的自駕車或是你機器的判斷模型裡面,我想這樣的處理方式應該會比一個人類的臨場反應,或是不作為,要來得好很多。

《下一步,AI。NEXT,愛》人臉辨識 (廖弘源)

圖片
研究路上不畏風雨默默潛行。中研院資訊所廖弘源所長在電腦圖像領域,陸續開發出許多傲人成果,包括可以保護智財權的雞尾酒浮水印、以及自動影像修復技術。 2020 年 4 月,更發表第四版的 YOLO 物件偵測技術,超高速的辨識效能打敗 Google 、 Facebook 等大公司,拿下世界第一。奉獻畢生所學,廖所長的研究生涯一眨眼已經過了三十多年。他說,如果時光倒流,還是會選擇做研究。因為人生在世,就是要為鍾愛的事物發光、發熱。

《下一步,AI。NEXT,愛》AI人臉辨識的應用 (何彥明、賴佳怡)

圖片
儘管深度學習還有許多未解之謎,卻已經讓人臉辨識有了突飛猛進的發展。許多公司行號的門禁系統、甚至銀行提款機,都出現相當成熟的落地應用。 人臉辨識的過程,可以分成幾個階段。首先,機器要能偵測出鏡頭前有人臉。再來,要能確認這是一張真的臉,這個階段稱作「活體辨識」。   NEC 台灣專業解決方案服務群 何彥明協理: 活體技術裡面其中一項是用紅外線的方式,紅外線它最主要是打出所謂的光譜,透過你的光譜的反射,也就是說你的臉,可能你的鼻頭的反射,跟你耳朵的反射,其實反射的距離,跟反應回去的能量就不同,所以它就可以很快地辨別出,這是一個立體構面出來。   NEC 台灣總經理賴佳怡: 台灣在 2018 年已經進入了高齡社會,預計在 2026 年我們 65 歲以上年紀的人口就會超過 20 %,人口老化所面臨的社會問題就是勞動力缺乏。當社會趨勢的勞動力下降,科技技術的成熟度高,這個爆發點就會到達那個臨界點,而大量普遍地應用 AI 以及辨識技術。

《下一步,AI。NEXT,愛》 生成對抗網路 (李宏毅)

圖片
科學家的想像力,是推動 AI 技術的驅動力。既然 AI 能辨認出圖像,那它有沒有可能再進一步,創造圖像? 2014 年,一種嶄新的架構做到了,它的名稱叫做「生成對抗網路」( GAN )。   台大電機系 李宏毅副教授: GAN (生成對抗網路)主要做的事情,是讓機器學會做生成這件事情。生成這件事情講得比較通俗一點就是讓機器學會創造。譬如說創造一篇文章,譬如說創造一張圖片。   生成對抗網路,被 AI 界譽為「近十年最有趣的想法」,在這個架構下,機器能透過「對抗」,反覆地自我訓練,展現優秀的「創作」能力。

《下一步,AI。NEXT,愛》 "函式"在AI的應用 (李宏毅)

圖片
函式的英文稱為 function ,也是功能、運作的意思,它能幫忙解碼,找出兩個集合間的某種對應關係。   台大電機系 李宏毅副教授: 今天所謂的 AI ,它真正能做到的事情,其實就是找一個 function (函式)。那什麼是函式呢?函式大家在國中的時候都有學過,就是輸入一個東西,輸出一個東西,就叫做函式。 語音辨識就是一個函式,你今天對 iPhone 說一句話,它知道你說的內容是什麼,它可以回覆一段文字,這就是一個函式,這個函式輸入是一段聲音訊號,輸出是文字。如果你做人臉辨識,它也是一個函式,今天機器看一張人的臉,然後它會輸出說這個人是誰,輸入一張人臉輸入一張圖片,輸出這個人是誰,這個也是一個函式。

《下一步,AI。NEXT,愛》AI 深度學習 (李宏毅)

圖片
深度學習是一種「類神經網路」,運作方式是模擬人類大腦。人腦由億萬個神經元組成,無數訊息在此交換傳遞。在深度學習架構裡,也有許多類似神經元的節點,用來傳遞、演算各種數據。 深度學習的類神經網路架構中,有許多隱藏層,當訊號輸入後,會活化相關的神經元,再把訊息傳遞到下一層,訓練時每個神經元會不斷調整權重,讓輸出逼近正確值,來回千萬遍之後,機器就能找到正確的參數,學會辨識圖像。   台大電機系 李宏毅副教授: 當我們用類神經網路的方法,把大的函式拆成小的函式的時候,我們其實是用模組化的概念來解這個問題,所以每個小的函式都有一些它的工作,它的工作是可以被其他很多小的函式所使用的。可以事後去分析說這些神經元在做什麼,確實發現說有些神經元做的是比較簡單的事情,這些比較簡單的神經元,它把它的輸出接給其他神經元,其他神經元就可以做比較複雜的事情

《下一步,AI。NEXT,愛》 偽裝人臉測AI辨識 (徐宏民)

圖片
AI 領域的新陳代謝極為快速,所有人都在追求最新、最快、效能最好。卷積神經網路 CNN 因為效能優異,常被使用在人臉辨識系統當中。但是徐教授突發奇想,在 CNN 架構中,外加了一項特殊工具。   臺灣大學資訊工程學系 徐宏民教授: 在二三十年前就已經有這樣的研究,就是怎麼提存在高維資料裡面那些主要的元件。所以我們利用 principal component analysis 簡稱叫 PCA 這樣的做法。   「 PCA 主成份分析」從 1987 年開始被用在人臉辨識,在 AI 界算是老古董了。它是一種數學降維方法,能在空間中找到一個軸,把樣本數據,從維度較高的空間,投影到維度較低的空間,並盡可能讓所有資料分開。 好比二維的資料投影後降到一維,樣本之間關係不變,但新的座標系能幫電腦減輕運算時的負擔。   臺灣大學資訊工程學系 徐宏民教授: 我一直主張說,特別是我們在做這種深度學習的研究的時候,應該所使用的工具應該是多元的,過去三四十年來所有科學家,他們也是努力地在各個領域各個問題上得到突破。所以我們在解決當下這個問題的時候其實不應該只專注於,目前深度學習的這些工具,其實過去的很多工具,在很多時候都可以拿進來。做所有的研究我們都是站在別人的肩膀上,往上墊上來的。

《下一步,AI。NEXT,愛》金聲三號 (李琳山)、雅婷逐字稿 (杜亦瑾)

圖片
八〇年代,個人電腦問世,歐美邁入文件電子化的資訊時代,而台灣卻還在使用龜速打字機。科學界開始討論該如何開發中文輸入法,李院士卻超前部署,試圖直接用聲音來輸入。就這樣,他一腳踏進語音辨識研究,但馬上遇到一個難題:西方既有的語音辨識,在台灣完全用不上。 中央研究院 李琳山院士: 中文的一字一音,一個字只有一個音的,而這個音的總數是有限的,總共一千三百多個。但是這一千三百多個音,我們的字 絕對不是一千多個,我們字很多很多,所以就有很多同音字,然後我們當然有個很明顯的跟西方語言不同的是,我們有聲調。 語音辨識不斷融入生活場景,人類幾乎隨時隨地都在跟機器對話。 在台灣,最具代表性的應用,就是雅婷逐字稿,由 PTT 創辦人杜奕瑾 帶領台灣 AI 實驗室所開發。   台灣 AI 實驗室 創辦人杜奕瑾: 我們習慣是跟誰學習就叫這個專家的名字。唐鳳政委不是有一個隨身書記官叫做薛雅婷嗎?她是可以中打一分鐘三百多個中文字的,這種事情我們有沒有可能用人工智慧來做逐字的這種需求,所以我們就把我們這個語音辨識,做了一個很簡單的介面,就叫做雅婷逐字稿。

《下一步,AI。NEXT,愛》處方安全系統、早覺醫療 (李友專)

圖片
隨著醫療進步,處方用藥變得越來越複雜,吃錯藥的比例也逐年攀升。 2004 年起,李友專院長開始關注處方安全問題。   臺北醫學大學醫學科技學院 李友專院長: 處方箋錯誤裡面最常見就是用藥的錯誤,用藥錯誤大概佔全世界不同的國家統計有點不一樣,大概 5 到 11 個% 台灣一年要開三億多張處方箋,中國一年要開 80 億張的處方箋,美國大概 60 億張,所以你把它乘以一個 5 % 10 %它很快就是好幾千萬甚至好幾億張錯誤。三百個錯誤有一個就會真正地傷害性命或者健康。   歷經 16 年,李院長成功開發出處方安全系統— Med Guard 。從十幾億筆電子病歷當中,推導出數百億筆診斷與用藥的排列組合,歸納出過去用統計方法難以整理的規則,當醫師開出不合理的處方籤,能第一時間跳出提醒通知。

《下一步,AI。NEXT,愛》 語種辨識開發 (李宏毅)

圖片
  儘管目前語音辨識的應用已相當廣泛,但都還侷限在主流語種。全世界有七千多種語言,要達到真正的無國界,還有一段距離。   臺大電機系 李宏毅副教授: youtube 上有非常多的鄉土劇,那些鄉土劇往往是有上字幕的。我們就讓機器看了大概一千八百個小時的鄉土劇,然後希望它就可以學會聽一段台語的聲音訊號,就直接輸出一個中文。那這中間我們幾乎沒有做人力的介入。就鄉土劇裡面可能有聲音跟文字沒有對在一起的情形,這個不管它,它可能中文台語跟英文交雜,這個也不處理它,反正機器就是自己去看鄉土劇,它學到什麼就是什麼,我們就沒做什麼特別的調整。我來 DEMO 一下。汝真緣投。它現在輸出的是你真的很帥。雖然我說的是緣投,但是它知道說緣投對應的就是中文的帥,所以它今天輸出的並不是緣投,它是直接輸出帥。我們拿一部機器沒有看過的鄉土劇去做語音辨識,它得到的正確率大概是 60 %左右。 我們有一個生成者( generator ),這個生成者把聲音訊號吃進去,他吐出來的就是文字,但一開始我們並沒有給機器訓練的目標,所以他吐出來的文字就是隨機的因為它根本不知道它要生成什麼東西才是對的,沒有關係,我們有一個鑑別者( discriminator ),鑑別者看過很多人寫的句子,所以它知道說什麼樣的詞彙按照什麼樣的順序拼湊起來,才像是人寫的句子,對生成者來說它就要想辦法把聲音訊號轉成一些句子,這些句子是鑑別者覺得算是人寫的句子。用這樣子的方法就可以讓機器做像是破解密碼的方式,把聲音訊號轉成文字。現在能夠做到的是辨識出音素這個層級,也就是辨識出類似 KK 音標這個層級。

《下一步,AI。NEXT,愛》語意分析 (楊立偉)

圖片
訓練資料不足一直是 AI 面臨的難題,不過,隨著行動裝置、智慧型產品逐漸普及;網際網路、雲端技術變得成熟,人類邁入了大數據時代,雲端上的巨量資料,成為 AI 發展的堅實後盾。光是在台灣,網路上平均每天會產出多達 60 億個字( 2019 ),源源不絕的資料,也讓科學家發現,一直以來的訓練方式,存在著盲點。   意藍資訊 董事總經理 楊立偉博士: 我們以前如果要訓練這個機器,譬如說要它認得某一種特別的文章,譬如說專利文章或者是學術文章,我們都要很辛苦地去準備這個訓練文件,可能數百篇數千篇等等。可是機器這樣學習的效果不夠好,的原因是什麼?後來發現不是它在這個領域不懂,而是它本來的國文能力不夠好,其實就代表它看的書不夠多。所以我們如果能夠預先把這種網路上面大量的資料都讓它先閱覽,它其實某種程度是已經能夠了解字跟字,句子跟句子、上下文之間的關係。 AI 的國文能力先有了,這個時候它要拿來應用在財經、應用在專利,甚至是應用在醫學的語意分析上,都進步會非常多。

《下一步,AI。NEXT,愛》數位病理 (葉肇元)

圖片
AI ,帶我們邁進人機共存的新時代,各種應用快速展開,在救人如救火的醫療領域,更需要仰賴 AI 強大的影像辨識功能。 目前,醫院所使用的醫療影像有: X 光、磁振造影( MRI ),斷層掃瞄( CT )、超音波等等,這些都能成為 AI 的訓練資料,幫助醫師診斷更快速、更準確。但是,還有一種相當重要的「病理影像」,卻遲遲沒有開發出 AI 模型。   雲象科技 執行長 葉肇元: 我們專長的是數位病理的 AI ,那數位病理指的是把組織病理切片做完整的數位化, AI 就是利用這個數位全玻片影像來做 AI ,它特別的地方是這些影像解析度非常非常地大,動不動就是八萬乘以六萬,這種幾十億畫素的影像,所以這個對醫療影像 AI 計算方面來講,其實是非常有挑戰性的。   葉博士嘗試直接用全玻片影像來訓練 AI 。這次沒經過太多處理,只簡單分成「癌症」、「非癌症」兩類。   雲象科技 執行長 葉肇元: 沒有細節標注的狀況之下,訓練深度神經網路去做癌症的辨識,得到辨識的正確率,是跟有細節標注的方法,是非常接近的。接下來我們就針對在癌症手術過程當中,必須要在淋巴結上面去做轉移細胞的偵測,我們也把這樣的資料集,就是全玻片影像,沒有做裁切也不做細節標注的狀況之下訓練 AI ,這個效果也非常好。我們在 2019 年的 super computing 的會議,其實跟國網也有一個共同論文的發表,後面就應用到各式各樣其他的癌症上面。

《下一步,AI。NEXT,愛》 AI對COVID-19的分析、應用與程式 (杜亦瑾、林盈宏、詹仲昕)

圖片
  面對新興疾病的威脅, AI 也為人類生存做出了卓越的貢獻。 2019 年底,中國武漢爆發新冠肺炎,疫情蔓延全球。台灣 AI 實驗室率先運用 AI 技術,篩選出可能具有療效的救命用藥。   台灣 AI 實驗室 創辦人杜奕瑾: 很多時候我們開發新藥其實是會花很多時間,那我們是不是有可能從我們現在已經知道的這種病毒用藥,去找到有可能的藥。就是病毒用藥的部分,我們在二月四號( 2020 )應該算在全世界最早是用人工智慧的演算法去模擬這種病毒用藥的有效。我們有一個 priority (優先排序),第一個其實就是 Remdesivir (瑞德西韋)。   分數最高的瑞德西韋( Remdesivir ),後來也在臨床實驗中被證實有效。此外,實驗室也運用既有平台,分析病毒的基因序列,統整出病毒的演化與傳染歷程。   台灣 AI 實驗室 醫療產品經理 林盈宏: 從最早就是病毒從中國疫情開始的時候,就有一些病毒的序列,這些病毒的序列我們從不同國家的序列來跟它做比較,就可以知道這些病毒上面有一些變異,那有這些病毒的變異之後,我們利用親緣的關係,就可以做這樣子溯源的分類。那可以看到紫色的部分主要偏亞洲的區域,大部分就是中國,來自中國的 case ,紅色部分是來自美國的 case ,綠色或黃色的部分就是歐洲的 case 。所以我們如果可以得到一個病人的病毒的序列,我們就可以去知道說他是在哪裡所感染的。   此外, AI 優秀的認圖能力,還能用來辨識醫療影像,幫醫生減輕負擔。 台灣 AI 實驗室也和疾管署合作,開發出結合人臉辨識和語音辨識技術的防疫 APP -「台灣社交距離」。   台灣 AI 實驗室 醫療產品經理 詹仲昕: 第一階段的話我們是先做所謂的健康回報。我的體溫 36 度,我有點頭痛,流鼻水。第二階段要做的事情就是,根據他回報的健康內容跟他這一次回報的狀況,還有說話的這種語速或者是是否咳嗽等等的這些狀態去做 mapping ,如果你有下載這個 APP 的話,它能夠去將你每天碰到的裝置,記錄在你的手機裡面,如果說你有接觸到有風險的人的話,接觸的時間長、距離近,我們就會通知你說,你可能存在一些風險,你可能要去就醫這樣子。

《下一步,AI。NEXT,愛》人類行為訊號處理 (李祈均)

圖片
1995 年,一位 MIT 的科學家 Rosalind Picard 提出全新的概念:情感運算。它整合了計算機科學、心理學和認知科學。科學家設想,人類透過各種語音、肢體動作、生理訊號來表現情緒,如果能記錄下這些訊息,把它們系統化,是不是就能讓 AI 理解、甚至模擬人類情感? 但是,要了解人類的情緒反應並不容易,同樣一種情緒,不同的人會有不同的表達方式。傳統上,精神科醫師會透過觀察來記錄受測者的行為變化,但這種判斷方式準確性並不穩定。 李祈均教授多年來研究 「人類行為訊號處理( Behavioral Signal Processing, BSP )」,用統計的方式把人類行為做量化、分析、建模。希望將「專家的直覺」變得系統化,減少人為決策的不穩定。   清華大學電機工程學系 李祈均副教授: 第一個其實我們是要對訊號做萃取或做計算,我們稱為行為訊號的計算或擷取,這個部分大部分其實仰賴很多我們現在新的裝置的開發變得稍微廉價,也比較容易記錄很大量的資料。我舉例現在就是用錄影機在錄,這個錄影機的本質就是可以記錄行為,我們就可以很大規模地用這樣的設備來記錄人的行為,語音啊、肢體動作啊。再來就是對這些行為你可能會做一些標記,看什麼樣的情緒等等,或說相對應的的一些主觀的狀態,有了這些狀態,有了這些 label 之後你就可以訓練 AI 的演算法。演算法的背後其實就是一系列的公式,所以它並不會今天我早上昨天睡了多少,跟我今天心情影響我很多的決策。它會滿一致的。

《下一步,AI。NEXT,愛》 AI人性意識的思辨 (黃從仁、謝世民)

圖片
「機器是否能有自我意識」,讓許多人至今爭論不休。但到底什麼是自我意識?我們又該怎麼檢驗機器是否具有自我意識呢? 臺大心理系 黃從仁助理教授: 自我意識就是我們能夠在聽到一個聲音的時候,知道說這個聲音是我的,而不是別人或是別的物體發出來的。心理學家可以用例如說腦造影的方式來確認說一個人到底有沒有,在對外界的這些刺激,做出他自己的自我的決策跟反應。可是這個腦造影的技術沒有辦法應用在機器上面,因為就是把這個機器人放在腦造影的機器裡面去掃,其實看不到任何東西,因為它不是一個生物性的東西。 中正大學哲學系 謝世民教授: 在莊子裡面有有趣的一個故事,他跟惠施在橋上面看魚游來游去,說這個魚很快樂,惠施說,你不是魚你怎麼知道魚很快樂?這個有關一個對象到底他有什麼樣的心理狀態的問題。你看到一隻小狗被你踩到,哇哇叫的時候,你會知道小狗,這個時候是有痛的感覺,那這不是物理科學給我們的知識,這是我們的常識。科學可以研究意識,跟意識相關聯的神經系統,神經細胞的變化,這是科學可以研究的。但是這不等於知道痛感是什麼,科學越進步的話那個關聯性的嚴謹度就越來越準確,可是不管多準確,那仍然是神經細胞變化的活動,而跟痛感是什麼是不一樣的。所以在這個例子上面,意識是什麼,就這個面向上面,不是科學可以回答的問題,它不是科學問題。

《下一步,AI。NEXT,愛》用AI選美 (黃從仁)

圖片
深度學習技術崛起之後, AI 優異的效能讓人驚嘆,但它的運算過程像個「黑箱」,科學家無法從層層堆疊的類神經網路中,得知它到底如何做判斷,這讓 AI 應用,存在著許多未知數。黃從仁教授,試著以心理學的研究方法,來了解 AI 的決策過程,他挑了一個很有趣的題目—選美。   臺大心理系 黃從仁助理教授: 社會心理學的研究其實都已經知道說,臉越對稱我們可能會覺得它越好看,所以我們的做法是說,把所有的測試照片,我們先對每一張照片算出一個臉的對稱性的分數,接下來我們就是根據這個臉的對稱性的分數,把所有的照片做一個排序。我們可以看一下 X 跟 Y 的關係,它其實是呈現一個正相關的關係,不管是人類藍色這些點,還是紅色這些點代表是機器的判斷,其實它們都有一定的相關性。   實驗結果顯示, AI 評審跟人類評審的審美標準相似,臉越對稱,分數就越高。而俗話說一白遮三醜,膚色會不會也是 AI 用來評斷美醜的標準呢?

《下一步,AI。NEXT,愛》情緒辨識 (陳宜欣)

圖片
人類溝通時,隱藏在表情、聲音、語言、動作之下,更重要的訊息是「情緒」。機器要如何辨別人類的情緒呢?人類的情感表達,有時發自肺腑、有時言不由衷。清華大學資工系的陳宜欣教授,分析網路文字多年,就因為對人類情緒的不解,一腳踏入情緒辨識研究。   清華大學資訊工程學系 陳宜欣副教授: 假設今天我們是有一個句子進來說,你為什麼什麼都這樣,從我們的字詞頻率裡頭發現,大部分的為什麼出現的時候,它有比較高的可能性跟生氣有關。都這個字其實跟情緒也有關聯,也是會比較偏生氣,所以我們把這些線索通通加起來,然後透過機器學習以後它就會跑出你為什麼什麼都這樣,然後是一個比較偏生氣的可能性,可是如果為什麼後面是接什麼老天爺啊,阿彌陀佛、怎麼,你會發現它跟生氣一點關係都沒有,它就是悲傷。

《下一步,AI。NEXT,愛》AI自駕車 (丁川康)

圖片
隨著 AI 技術快速發展,自動駕駛已經成真。 2017 年,德國首度針對自駕車立法,允許在特定條件下由系統代替人類駕駛,但也規定一旦出現意外,駕駛要能及時恢復對車輛的控制。這代表當危急情況發生,駕駛必須在不到一秒的時間內接手,做出正確反應。把燙手山芋丟還給人類,與其說是相信人類的決斷力,不如說是對 AI 的不信任。要讓社會大眾相信 AI 是個合格駕駛,必須要讓它具備人類的倫理觀,才能做出合乎人性的判斷。   清大動機系 丁川康教授: 人類的這個倫理觀念是不是有某一種標準,或是模式,如果有的話,那我們可不可以透過某種方式把這些標準或模式把它找出來,然後呢在意外發生之前的階段,把它埋入你的自駕車或是你機器的判斷模型裡面,我想這樣的處理方式應該會比一個人類的臨場反應,或是不作為,要來得好很多。

《下一步,AI。NEXT,愛》 AI音樂的應用 (楊奕軒、王重陽)

圖片
2020 年,台灣人工智慧實驗室,發表台灣第一張全 AI 生成的音樂專輯—武漢肺炎,將病毒的基因圖像化為音符,為疫情肆虐的年份留下紀錄。整張專輯的製作過程完全沒有人為介入,全部由 AI 自動生成。 要讓 AI 學會作曲,首先,它要會區分不同樂器的音色。楊奕軒博士運用「深度學習」技術,讓 AI 從大量音檔中找出潛在的規則,開發出傳統技術難以做到的功能—「聲源分離」。   台灣 AI 實驗室 雅婷音樂產品研發 楊奕軒博士: 以前的技術試著從頻譜上面去找一些規則但效果往往非常地有限,但是隨著深度學習技術的發展, AI 透過大量的資料以及適當的網路架構的情況底下,它可以發現說,人聲具有哪些特性,譬如說鋼琴具有哪些特性,它從裡面去抽絲剝繭。   「聲源分離」在聲學上很難做到,原因在於我們聽到的音樂都已經過混音。早期的技術只能盡可能地去除人聲,而現在的 AI ,已經能自動區分人聲和各種樂器。   台灣 AI 實驗室 雅婷音樂產品經理 王重陽: 我們現在能夠做到的是貝斯、鼓跟 VOCAL 以及所有的其他,所以我們的第四個軌道就會是所有的其他。現在抓一首歌到拆完,需要一首歌的大概 0.2 、 0.3 倍的時間,我覺得這真正最大的差別是在,它不像人就是只要要抓一首歌兩首歌就有很大的,心力上的耗損,機器做這件事情最好的地方在,它快而且它可以一直做,可以一直做這麼快。