台灣時事|?國立教育廣播電臺【新聞真假掰】科技時代的亂象,用科技解決!AI如何識假、打假?阻斷惡意訊息傳播,媒體素養將是最後防線?(逐字稿大公開)
?國立教育廣播電臺【新聞真假掰】科技時代的亂象,用科技解決!AI如何識假、打假?阻斷惡意訊息傳播,媒體素養將是最後防線?(逐字稿大公開)?國立教育廣播電臺【新聞真假掰】節目資訊 播出時間:7 月 1 日起,每周日 17:05-18:00收聽方式:國立教育廣播電臺官網 60 天隨選收聽?節目預告 2023/01/29 周日 17:05-18:00 全台皆可收聽(查閱各地收聽頻率)因八點檔荒唐劇情決定開始闢謠工作的斜槓醫師?跟網紅醫師學溝通技巧!從醫病關係觀察假訊息傳播鏈的因果專訪ICU加護病房醫師 陳志金 / 社區大學講師 延金芝?最新精彩內容 2023/01/15 科技時代的亂象,用科技解決!AI如何識假、打假?阻斷惡意訊息傳播,媒體素養將是最後防線??邀訪來賓 資策會執行長 卓政宏?訪談精華短片https://www.youtube.com/watch?v=6vqkdKdkXkQ?完整訪談內容Podcasthttps://open.firstory.me/story/cl4zsmxnd03gh01t98bw9hzhj?節目介紹烏克蘭總統發布投降演說,引發各界關注,啥米?!栩栩如生的影片竟然是假的?眼見不再為憑,有圖沒有真相,事實「有影」也「嘸影」,什麼都可以偽造的年代,怎麼找到相信的憑據?AI(人工智慧)、Deepfake(深度偽造),被有心人士用來創造、傳播假訊息,但AI其實也可以是「打假」的關鍵技術?認知作戰不限在政治領域,廣告行銷也是隱藏的「認知戰」,培養媒體識讀能力,才能聰明不受騙?!資策會是我國政府與民間共同成立的組織,以「數位轉型的化育者」為定位,整合國內資通技術的人才與研究能量,發展創新服務,促進政府與產業數位轉型。
資策會近年也致力於發展人工智慧鑑識技術,更與台灣事實查核中心合作建立「不實訊息快篩平台」,用科技解決數位時代假訊息縱橫的亂象。
本集邀請資策會執行長卓政宏,和我們分享用創新科技解決假訊息的經驗與侷限,以及對媒體識讀能力養成的期待,請收聽「新聞真假掰」,和假訊息說byebye。
卓政宏(資策會執行長,以下簡稱「卓」)黃兆徽(台灣事實查核教育基金會顧問/台大新聞所兼任助理教授,以下簡稱「黃」)------------------------------------------------------------------------------------------------------------------------黃:哈囉大家好,歡迎來到新聞真假掰,我是兆徽,今天來到現場要陪伴我們一起跟假訊息說掰掰的好朋友是資策會的執行長卓政宏,卓執行長,執行長好。
卓:兆徽好,大家好。
黃:執行長,我們知道這個假訊息的擴散其實是靠著資訊科技的進步,所以讓大家可以在自媒體很發達的狀況下,還有通訊軟體、社群平臺很發達的狀況下,其實有去助長了假訊息的流傳,但同時我們也希望因為資訊科技的進步,我們也有一些手法來遏止假訊息,所以今天特別邀請您來跟我們談一談這個關於假訊息的議題。
首先想要先請您跟我們分享一下您對於假訊息,您怎麼看?然後您覺得假訊息對這個社會的影響是什麼?卓:那我想其實假訊息是自古以來都有的,那現在的差異就跟其他的訊息一樣,應該說資訊科技、網路科技,還有我們現在生活方式,讓資訊的傳播的速度遠大於以往,所以不管是正面訊息、負面的訊息,真正的訊息、假的訊息,其實它都傳的要比以前快很多,所以其實我們在現在的討論的假訊息的問題是自古以來都有,但是不會像現在這麼嚴重。
卓:那當然我們也知道說,我們事實上,學習或是做任何其他的正面的訊息,也是一樣的快。
那對我們生活上面來講,大家都會覺得說:「哎,假訊息似乎造成對我們生活上面影響比過去大很多很多。
」,那這些我們通稱為「假訊息」,事實上它也是有很多種種類,那它產生的原因也有很多,假的訊息有可能是有些人是錯誤的認知,或是他誤會了,那他就開始去講一些事情,但這些事情可能它本身是錯誤的。
卓:但是也有一些情況是現在比較嚴重的,就是說,他是有意的製造假的訊息,那有意的操作這種,我們就比較會擔心它幕後的、它背後的目的,我們講的是說……黃:變成是資訊戰的一環了。
卓:對。
它就會變成像是資訊戰的一環,但這種問題其實有些時候也不用一開始就把它看成是,可能是「國家對國家」,或什麼樣這麼嚴重,事實上這種問題在傳統的我們講的「行銷」或「廣播」上面就已經可以看到了。
卓:事實上很多所謂的「口碑行銷」,它利用就是這樣的技巧,讓很多人去接受某一個訊息,你可以說它是假訊息,但其實它就是一個商業上面,希望說大家能夠認同某一種東西。
黃:對。
就是一種商業操作的手法。
卓:對。
那這樣的操作就漸漸地被用來、用在政治上面,那甚至用在國家對國家的這個攻擊上面,那所以慢慢的,它的負面的影響層面就比我們一開始 它,應該說有一些是自然產生的,雖然是負面的,但它自然產生的要嚴重的許多。
黃:對。
因為它已經不是個人不小心出錯、傳達了錯誤的訊息,它是有……背後是有組織,甚至有特定的商業,更嚴重的是政治目的的,然後用集體的力量很有系統性地在操作言論。
卓:那所以這樣子的問題,當然就是,其實真假有些時候是很難去想清楚的,那也就是說,其實一件事情可能大家的看法不一樣,所以就會有認為是有所謂的真或假,那可能是我的真,你覺得是假。
黃:對。
其實這也是我們在做事實查核第一步要釐清的,就是「事實是什麼」,fact(事實),然後另外的是opinion(觀點),基於事實,其實可以有各種的論點、各種評論、各種觀點,但是最基本的「事實是什麼」,這個事情是必須要被確認的,就像臺灣事實查核中心我們也是從一開始就確認好我們只針對「事實」做查核,那針對評論、觀點,這其實本來就是言論自由的範疇,但是基於正確的事實,才有可能有合理的、然後有品質的評論跟辯論,然後才能讓民主有更好的發展。
卓:對。
所以也就是說,當我們在討論假訊息的時候,其實我們在討論的是「事實的本身」,那因為本來就是,剛剛也提到這個,它對這件事情的評論或者是它的觀點,那事實上是因人而異,所以那個部分就比較不是我們在討論的範圍內,那所以在過去這段時間大概就是我們也看到很多假訊息的傳播,有些也造成了一些影響。
卓:那甚至是在疫情期間,有一些事情甚至造成恐慌之類的,那這個就是我們講說對我們生活上面造成比較大影響的部分。
黃:所以,假訊息其實……當然資訊科技造成了讓我們更容易親近媒體,以前大家都在講媒體的「接近使用權」,那指的是傳統媒體,它很有限,但是現在因為資訊科技發達、網路很進步,所以每一個人都可以在社群媒體上變成一個自媒體,然後去發佈訊息,但也因為這樣,所以可以操作的空間就更大了,那也讓假訊息有更多滋長的空間,包括透過可能Facebook(社群媒體),透過LINE(社群媒體)這種點對點的方式,它可能更難被偵測到這些假訊息,這也是資訊科技的另外一面,就是它雖然造成、助長了假訊息的流傳,但是我們也期待資訊科技可以在遏止假訊息方面做出一些貢獻。
那以您的對這個資訊科技的了解,在目前全球還有臺灣,到底我們在資訊科技上對於假訊息的偵測上、防止上,可以有哪些貢獻?卓:那我想其實這個科技的應用都是先有需求才會找到它的應用,那我們在對於防止假訊息,或者說我們在……應該說面對假訊息的時候,能夠用的科技大概都是你已經先受到影響了,你才會想到說:「我要用什麼樣的科技去應付?」,那照目前為止來講的話,當然就有很多東西是……基本上就是一種「怎麼樣減少傷害、減少影響」,那這個就是像是事實查核中心跟我們有一些合作,就怎麼樣比較快地發現說有一些狀況發生,及早讓大家知道事實是什麼,我想這個是我們大概目前來講做比較多的。
卓:那也就是說這裡面……黃:資策會跟事實查核中心有共同研發一個系統,就是「謠言捕手」,我們可以幫助我們透過各種管道來蒐集可疑的訊息,然後讓我們可以知道說:「唉,哪些訊息正在大量被流傳?」,那其中跟公共利益有關係的部分就會變成是我們優先做事實查核的對象,但當然這個也對於我們怎麼收集哪些訊息正在流傳有非常大的功效。
卓:我想這個大概我們第一步比較常用到,就是說,利用科技來……不是等到事情已經發生很大的影響之後才來發現,而是說當有一些事情開始造成一些影響的時候,影響到大家的看法的時候,就能夠比較早發現,那就比較早去把這個事實去查清楚,那提供給大家參考,那我想這種事情就是我們在第一步能做的。
卓:那除了這個以外,事實上我們在過去這段時間也有,過去這幾年其實也有做一些其他方面的研究,那我們講大概研究其實……針對假訊息研究大概分成兩大類。
第一類是針對content(內容)本身。
黃:內容。
卓:比如說事實的查核其實就是一種針對content本身的一個處理方式;另外一類其實不是針對content,而是針對他的pattern(手法),所謂「針對pattern」就是說,如果說有一些,譬如說我們其實這種東西我們是不管他的動機是什麼,但是譬如說網路的口碑行銷等等,那麼他們口碑行銷經常都是找一些代言人,然後有一些去帶、我們網路上稱為「帶風向」,那去帶這個一個風向,然後就是去操作,這個就是我們所謂的「操作的手法」。
卓:那我們不去看說這個操作手法它只是為了要行銷某一個商品,或它是為了要去攻擊某一個他的對手等等,那其實它都會有同樣類似的行為發生,那這種行為它牽涉到人跟它的進行的方式,也就是說,訊息的傳播、自然的傳播,跟人為傳播,事實上它會在,我們講說他在類型上面,事實上是會有不同的特徵。
卓:那另外就是說,在這些傳播的人裡面,我們也講說事實上你要做口碑行銷也好、你要做什麼,事實上有所謂它的「樁腳」在那個地方,你傳播有一定的一些路徑,這些路徑他們平常就已經有一些固定的這個流動的方式,那其實我們在……在講說網路上面行為,大部分都是可以看得到的,那因為他有些軌跡,其實……黃:您可不可以舉一些比較具體的例子?卓:其實有一個當然就是過去有一段時間,在國防安全研究院他們有出了一份報告,那當然那一部分這個報告是他們做的,不過我們是提供技術上面協助。
他那個其實他在研究的是說,那以這個我們在COVID-19(嚴重特殊傳染性肺炎)的這一段時間,防疫的時間,那我們在一些社群媒體上面,我們看到說有些什麼樣的操作、哪些帳號它的運作方式疑似是這種我們所謂的……黃:網軍嗎?卓:我忘記他們是稱為什麼,不過就是類……類似這種……這種所謂的職業的帳號。
那因為所謂職業帳號就是說,他不管是為了什麼原因,他的運作方式其實是在配合某一種操作在做的,那我剛剛在講說,從我們技術角度來講沒有對或錯,可是它是屬於什麼性質的?它的性質……對……黃:是怎麼樣的模式?能把這個模式抓出來。
卓:對。
那也就是說……黃:我們抓出來的大概是什麼樣的模式是比較可疑的?卓:其實大概我們比較常見的就是說,它的在運作上面,大概我們...,事實上很多很多細節,我大概講幾個大家比較能夠很快理解的細節。
一個細節就是說它的運作時間,譬如說它是按照上下班時間、中午還要休息一下的這種,那你就很清楚說:「哎,這樣子的帳號他其實是有一些不正常的狀況。
」,對不對?因為你說……黃:它每天定時上班、定時下班,然後還要午休。
卓:對,對,對。
中間還有午休。
黃:然後週末也是休息。
卓:那你現在是……對。
週末也有休息,所以像這樣子的,我們講說有些人是你可能是家裡沒有網路,到辦公室才有網路,那你當然會跟著上下班,但通常這種人你上網就不會有中午休息,對不對?那也就是說有一些特徵其實是你可以看得出來。
卓:或者是說,你其實在看到過去有很多傳播的,他的途徑是甲先發出來,乙立刻就……就去響應。
黃:回應,就分享。
卓:然後馬上就轉傳,那這個東西當然就是有很多時候,比如說兆徽跟我是朋友,你一貼文我很快就看到,我也就轉傳了,這種是正常的,但是有很多東西是不太正常的。
黃:什麼樣會被歸類為不太正常?卓:那不正常的就是說,就是他已經太……太過奇怪的狀況,譬如說某甲發言,在一分鐘之內幾百個人去轉他的,那這個就很不正常了。
我們就講說……黃:就這麼快就發現了,然後同時轉傳。
卓:是。
因為就是這麼多人同時都在隨時注意他東西,一出來我就要馬上轉發,這個可能性太低了,那事實上這裡,像這樣的東西它其實是比剛剛講的那種職業帳號更清楚的,它其實有很多是所謂的機器人的做法,根本就不是真正的人在那個地方。
卓:因為真人,說實在……黃:動作沒這麼快。
卓:我上班也沒有那麼認真,這個很短的時間內,這麼多人都同時,就萬箭齊發。
卓:那我想這些其實,我在舉這兩個例子其實大家都很容易可以理解的,那事實上還有很多,也就是說,他在這裡面就是,一個就是我們剛剛講的型態;另外一個就是人際的關係。
卓:那人際的關係我們知道在過去其實是有很多這種,他因為他如果是做,不管是做行銷,或者是做攻擊的,那他會有一些、他經常在做的這些事情,那你……當你開始發覺從我們剛剛的pattern裡面去發覺說:「哎,有哪些……哪些人常常做這些事情?」,你慢慢會去發現,他的那個網路在哪裡,誰是……黃:某幾個帳號。
卓:對,對。
誰是頭、然後誰是他後面的、誰是上線、誰是下線這樣。
黃:有點像做直銷,上線、下線的關係很明確。
卓:對。
那你會看到說,而且他每一個不同工作的,他的操作型態會不太一樣。
有些……黃:你可不可以舉例?卓:對。
那譬如說有些他是主要發文的。
黃:負責寫文章的?卓:對,對,對。
那他可能就是……就是發文的,那有些就是專門轉的。
卓:那這邊我們除了這個以外,這就是我們講說,一種就是它流……它運作的形式;一種就是它的這個network(網路)之外;然後還有另外一部分就是,我們通常大概一個文章你看到、你會轉,但是如果同一時間很多人寫同樣的文章,你就會發覺說:「欸,這個就有點怪了。
」,那也就是說像……黃:有些甚至用字都一模一樣。
卓:對,對,對,對。
所以我在講說,其實這些操作痕跡,這個我們稱為「操作」,那操作我們還是這樣,從技術的觀點來講,我們是比較……黃:中立。
卓:比較neutral(中立)的,我們只看說:「嗯,有操作在裡面。
」,好,那我們不去判斷說這個操作是好或是壞。
黃:你們也不去判斷他的目的對不對?卓:對。
但是有操作就要讓大家知道,就是說:「欸,這個就是後面是有操作在……有人在運作這樣子。
」的一件事情。
黃:是。
就是像您說,資訊它是一個中立的,我們是透過資訊科技來偵測一些不正常的操作的模式。
是,所以您剛剛提的真的很有趣,就是固定上、下班時間、中午午休、假日休假,而且會在同一個時間萬箭齊發,內容都類似或者甚至一字不差,然後同時都是有這些人在轉傳,它的上線、下線,這個脈絡也很……人際脈絡也非常的清楚,這些大概就是很明確可以看出有操作的痕跡,姑且不論這個操作的目的,而且他的目的到底是善、是惡,是甚麼方向。
黃:對。
那在資訊的這方面,您說主要是針對pattern、操作的模式,那另外還有一方面呢?我們有沒有運用資訊科技在做一些偵測,像您剛剛提到的內容?內容要判斷真假可能沒有那麼容易,但是有一些東西我們是不是可以偵測出來?比如說現在大家最擔心的是deep fake,深假,就深度造假他可以把一個人沒有講過的話塞進某一個人的嘴巴裡,那這最早當然是被好萊塢大量地運用在他們的電影裡面。
黃:可是像這次俄烏戰爭我們也發現,已經有人假造澤倫斯基,這個烏克蘭總統,說他呼籲烏克蘭的軍隊要投降,這樣子的深假影片出現。
當然很快就被破解了,但我們也……這個AI的技術因為太厲害了,它不斷的自我演進,所以我們以前還可以說,如果你看到那個AI他眼睛可能比較不會眨,那可能就是用深度偽造的,那可是AI自我學習之後,我們現在看到的AI影片越來越像真的了,那現在當然也被大量用在色情影片上,那這個在資訊科技上我們也在努力說,我們是不是有什麼方法來偵測說什麼樣的狀況是AI造假的?卓:那我想其實這些東西大概有作法就有解法,那總是我們會慢慢跟上的,但是所有這些的應用上面來講的話,我想到目前為止並沒有說做出很好的一個結果,那也是說,你要判斷真假事實上是沒有那麼容易的。
黃:您是指在內容上?資訊科技也很難……卓:對。
在內容的真假的判斷上面。
應該是說,其實連第一步都不太容易抓到,也就是說,網路上在傳這東西,有哪一些是值得懷疑的?這個恐怕一開始就很難。
所以剛剛提到的那些傳播的方式,如果他是故意要造假的,事實上他一定會想要是有一些目的在後面,也就是說你故意的造假通常後面是有目的的。
黃:然後就會有操作,所以你們還是可以操作模式上來抓出來?卓:那……對。
他就會有操作。
所以你從這個地方可以……可以去找到,但下一個問題就是說,那content怎麼樣去……去辨識它的真假?那這個部分的確到目前為止並沒有很好的進展,當然也還是會往前去……試著去解決這些問題。
黃:所以在資訊科技在對於這個假訊息的遏止上面,目前比較大的挑戰,您認為是哪些層面?卓:嗯……「真假」本來就是一個很難的。
黃:沒錯。
卓:那一段影片有沒有經過……經過後製,是看得出來的,就是說有技術是可以……可以出detect(偵測)出來。
黃:所以這個在……卓:但並不表示那是真或假。
黃:有沒有經過後製,目前我們已經有這個科技可以自動判斷?卓:對。
是有辦法去判斷,也就是說它事實上有剪接或有什麼,事實上中間可以看到,也就是說,它如果是一個連續的影片的話,跟剪接過的影片,事實上你們也是很專業,應該知道這中間是有差異的,所以那個部分只要是我們講說人可以有辦法辨識出來的,那你用人工智慧就有辦法去辨識出來,所以這部分是沒有問題的。
卓:那反倒是說,如果是明知道是一個製造過的,但是你能不能就是說很清楚地找到證據說它是造假的?那這個就相對地到目前為止來講很困難,那這也是我們覺得最擔心的一件事情,就是說,就算你事後找出說這個是假的,但是它是不是來得及去……黃:遏止。
卓:去遏止這樣的訊息。
黃:雖然我們可以有足夠的資訊科技能力在事後透過這個訊息傳遞的模式來抓出一些異常的操作,可是他在第一時間的造假的內容已經大量散發出去了。
卓:對。
黃:所以這是您比較憂心的。
黃:所以我們也是更期待說資訊科技有沒有可能提早就偵測到它在內容上,比如說我們說的deep fake,它這樣當今天有一段澤倫斯基的影片出來的時候,它是用AI變造的,那AI有沒有能力去破解,說這個是AI造假的?卓:我們就希望說,就能夠越早發現越好,越早把這樣的可能性讓大家知道,也就是說你看到的時候,你會對它有存疑。
傳播學上有一個所謂「曼德拉效應」,那事實上很多事情就明明事後知道那是假的,但是因為已經看得太多次了,你慢慢就會覺得那個是真的。
黃:就被洗腦了。
卓:對。
那個就是你的……你的認知已經……已經形成了。
那我們在過去的這個很多東西就是,我們在……在講說,如果事實……事實可以知道,那是不是這些假訊息就可以解決?事實上它不會解決,因為很多時候認知已經造成了,當認知已經造成的時候,你再來做什麼可能已經太慢了。
卓:那所以其實應該說,針對這樣的東西,我們其實應該要……我……我覺得這個東西也是大家都還在學習,我們今天碰到的是一個以前比較相對沒有那麼複雜,因為以前就算一個謠言,那也不至於真實到讓你就會相信那個場景,因為現在有影片,有……黃:以前說:「有圖有真相。
」卓:對。
黃:你的文字可以誣賴人,但是有照片為證、有影片為證,那現在P圖太容易了,然後接下來連AI造假都很容易的時候,那到底要怎麼辦?這是一個真假莫辨的年代。
卓:對。
那也沒錯,那這當然就是……我覺得我們本來……我們所屬的社會,我們所處在的社會跟過去的社會不一樣,所以你本來就必須要……在這樣的社會你就必須要去有比較現代化的一個求生的方式,你的技……這個生存技能,那基本的技能你要能夠辨識一些東西。
那我覺得有很多東西是包括大眾的這個我們講說……黃:媒體素養?卓:識讀能力。
卓:這個媒體識讀的素養必須要建立,因為這些東西別人幫不了你,那我們在講說有很多事情我們是怎麼樣去看待這樣子的一件事情,譬如說我們以假訊息這件事情來講的話,那當然很多人會認為說,如果是……這是一個謠言,是在攻擊我的,那我會覺得我是受害者,但其實大部分的假訊息,它受害者是「接收者」本身,也就是說錯誤的醫療資訊,那會讓你造成恐慌的一些訊息,那事實上,接受者本身就是受害者。
黃:沒錯。
卓:那如果我們從這樣一個角度去看它的話,那你會覺得說事實上對大家來講,你才會真正有那個動機說:「哎呀,我要去建立我的識讀素養。
」,要不然我以後可能會是受害的那個人。
而不是說我今天聽到了謠言,人家說兆徽怎麼樣,人家說卓政宏怎麼樣,然後就是聽聽當八卦就結束了,事實上並不是那樣子。
卓:也就是說,你如果沒有這種……黃:危機意識。
卓:對。
也沒有這種能力的話,就是說我剛剛講的,它會變成我們未來生存能力之一,也就是說,你有太多太多的訊息會一直進來,那哪些就像你現在COVID-19這樣的疫情裡面,到底我確診了我該做什麼?或是我現在如果我要去哪裡,我應該做什麼?那你如果你沒有辨識訊息的能力的話,你真的不知道我怎麼樣……怎麼樣出門,你連一些基本的這個生存能力都可能會受到影響。
卓:所以我覺得對大眾來講,我覺得就是這樣子的……黃:媒體素養教育是非常重要的。
卓:對。
要讓他們知道,你不去學著辨識真假,最後遭殃的是你自己。
黃:沒錯,沒錯。
所以我們其實這個節目也就是希望能夠幫助大眾提升媒體素養的能力,減低假訊息對我們的危害。
黃:剛剛卓執行長已經跟我們分享到,目前我們的資訊科技對於抓出一些不正常的訊息操作的模式,包括他這個按時上、下班、午休時間、假日休息,或者是有在同一個時間散……大量的散發同樣的訊息,不同的帳號散發同樣的訊息,又大量的被同樣的一批人在轉分享,這種萬箭齊發式的,這樣的訊息操作模式,我們是目前是在資訊科技上是可以幫忙抓出來這些,不管他背後的目的是要行銷,或者是政治的攻擊、商業、政治目的我們不管,但是我們至少可以在資訊科技的技術上幫忙抓出這些在社群媒體上、網路上的異常的操作模式。
黃:但是對於內容呢?內容方面您剛剛也提到,當然媒體素養教育非常重要,每個人要建立自我的方式來辨識假訊息,我們也期待資訊科技可不可能在某些程度上幫助我們辨識假訊息?那目前資訊科技可以做到的是哪些?卓:事實上全世界都面對這樣同樣的問題,所以也都在想辦法解決這些問題,所以針對這樣子的,這些所謂造假的訊息,那特別是大家覺得現在最嚴重的其實是假的影片這樣子的訊息,那這些我們的確在全世界都有努力在做一些,嘗試一些方法,那當然有一種就是用AI的方式去看能不能很快的辨識出一個東西是不是假造的?一段影片是不是假造?像這樣子解deep fake,事實上過去兩、三年都有很多的努力在做,那不是說沒有成果,但是沒有一個比較可以讓人興奮的、往前進的一些……一些比較大的突破。
黃:是。
這在傳統上其實……是不是其實原本資訊科技已經在運用在一些犯罪的偵防,或者是說法庭上的犯罪證據的辨識上?比如說這次在俄烏戰爭中,我們看到有一些假影片,那有一些國外的事實查核組織,或者新聞媒體,他們是透過像是聲紋比對的方式,或者是影片自動去抓出說這個地點是……比對不一樣的地點,是被移花接木過的。
那像聲紋比對這些是已經發展的比較成熟的技術了嗎?卓:它當然是比較成熟的技術,那事實上我們講的聲紋比對也是生物特徵之一,那這些特徵既然可以被拿來做為辨識一個人的話,那他在做辨識影片上面當然就是相對它一定是可以做得到的。
那但是這樣子做得到的,並不表示你就解決了問題,因為你做得到,人可以做得更真。
黃:對。
卓:也就是說他可以……黃:就是道高一尺、魔高一丈,不斷的這個競賽。
卓:對。
他可以再拿真正的,如果他收集足夠的這個聲紋資料,他是可以完全仿造那個再來製造的。
所以我就想說,我們不是沒有往前進,但沒有比較大的突破是因為,我們也都看到這些東西它的極限在哪裡,那所以辨識真假,講簡單就是:「他要造假,比你要辨識真假要簡單太多了。
」,所以我們在前進的過程中間,的確是會碰到這樣子一個先天上的一個困難。
黃:尤其是AI我們現在真的是滿擔心的,因為像這次在烏俄戰爭中,這個假造澤倫斯基的AI影像,然後說他要烏克蘭軍隊投降,這個因為它的……它還是用一個相對比較粗糙的方式,所以比較容易被抓出來。
可是未來、接下來,如果全世界在面臨選戰的時候,像臺灣也是,有可能就出現造假,會不會其實是在第一時間其實就會造成社會的動盪?那像這樣的狀況,我們的AI有沒有可能,比如說我們現在就開始努力地蒐集我們所有的政治人物、我們的重要的官員,或者是重要的社會意見領袖的各種大量的影片,然後讓AI學習他的這個真實的狀況是什麼,然後在必要的時候就比較容易破解?有辦法這樣嗎?卓:理論上是可以做到一定的程度,也就是說當然我們所有這些比對,或者是判斷都不是說100%,但是他如果能夠做到一個很高的一個可靠度的話,那就會有用。
那所以剛剛提到的這種你收集足夠的資訊去訓練,那以AI的這種運作方式理論上是可行的。
卓:當然它也會碰到一些比較大的問題,也就是說,通常我們在所有的我們講深度學習,這一類的技術,當然AI還有很多不同的技術,但現在比較多運用的是做深度學習,那也就是它基本上的一個概念就是說,我會給你一些真的、給你一些假的,告訴你哪些是真的、哪些是假的,然後經過這樣一大堆的資料訓練之後,它慢慢就會歸納出來,那它就會判斷出來說什麼是真的,什麼是假的,那這個前提就是說,你要足夠真的資料跟足夠的假的資料。
黃:所以光有足夠真的資料還不夠,還要得告訴它什麼樣狀況是假的。
卓:對。
那也就是說,因為你如果不知道的話,也就是說,如果一個很像的聲音,那它到底要不要歸類於是對的?還是真的?還是假的?當然我們知道它是「很像」,它不是真正的聲音,那如果它之前沒有接觸過,它可能覺得這個聲音很像,應該是,那就有可能會判斷錯誤。
卓:那所以這些當然就是我們在講說,這種造假的技術它其實是有可能,它也跟你一樣,它去收集了足夠的聲紋的這個……它的聲音資料,利用這個聲音資料去假造對應的這個……這個影片的話,事實上你相對就會很難辨認出來。
除非你有足夠的資料,是這種造假的資料,然後去訓練它,然後它很難辨認,但它最後如果學會了辨認,那可能就會有用,不過以現在來講比較大的問題是,假的資料……黃:不夠多?卓:不夠多,如果真的、假的資料,你可能就拿別人的聲音,那可能它是很容易辨識的,然後我剛剛講的那種狀況,真的碰到的時候,它可能就認不出來了。
那所以這些事實上都是……都會有困難。
黃:科技的極限。
卓:以目前來講都有極限,但未來的發展會怎麼樣也不知道,當然還在繼續努力中。
黃:那在全球的這個資訊科技界對於假新聞的或假訊息的,不管是偵測或者是抓出它的模式來,臺灣在哪些方面的技術其實是足以傲視國際的?卓:我想我們在……其實大家問題都一樣嚴重,那我們也的確在過去一段時間內有努力,那我覺得我們至少在……在某些領域上面,我覺得剛剛提到,我們在這個模式上面的辨識上面來講,算是其實還不錯。
黃:抓出異常操作的模式。
卓:這個沒有所謂的比賽,所以我們也不知道我們第幾名,但是這些部分我們算是走得滿前面的,那而且這個其實是有一些部分也跟它的那個特性有關,因為在臺灣我們有一些不一樣的社群媒體,譬如說我們的PTT(臺灣電子佈告欄),那這些就是相對國外他們會對他們的運作方式就可能不太熟悉,那這些部分就是……一個就是,不是說技術比較進步,但是對這個……對這個區域,這個……這個應用範圍內,我們一定是比別人清楚的。
卓:那事實上我們在研究上面,Facebook可能也是相對厲害的,但可能在Twitter(社群媒體)上面,我們因為過去用的少,也就相對它就會接觸的比較少一點,那所有的東西、所有的大概也都是會有這樣的情形,也就是說,大家所謂的「專精」,就是你常常在哪些場地練習,那個場地你就會比較熟悉,不過技術上來講,我們是在這個形態的辨識上面算是做得還不錯。
黃:所以接下來呢?資策會正在哪些方面做更積極的努力?卓:我相信每一個部份都會持續,剛剛提到的這些每一部分都會持續,但是我們必須要重新回來去看看就是說,有很多時候每一件事情都要做,那你要看看哪些事情比較重要。
黃:重點。
卓:那也就是說,在未來我們看到在它的影響,慢慢它的形態是什麼樣子。
因為有些時候它假訊息並不是要你完全相信它,有另外一種情況是「它要你不相信任何事情」,那如果他是以這樣為目的的話,那你要怎麼樣去應付他?也就是說我們現在有很多的研究可能會轉向類似這樣一個方向,也就是說,我們認知到這個東西,你不可能完全擋住,它會……就會在那邊,它慢慢的並不是要達到變成說:「讓你所有的人都相信那件事情。
」,而是它很可能要達到你一些,不管是錯誤的認知,或是你在認知上面會造成障礙等等。
卓:那這些都是對於……我們講的,對於所有的人來講都是這種傷害,所以我覺得這裡面真的很重要的一部分,還是大家要認知到,如果你沒有辨識能力,你自己沒有辨識能力,即使人家有工具給你,也不見得有效,那有辨識能力是非常重要的一部份,也就是說,我們今天就算如果說有人正在操作,我們就馬上亮起紅燈說:「有人正在操作。
」,可是如果有些人他就是不相信,或者是說你跟他講:「有人在操作。
」,他就不知道那操作是什麼回事?對我有影響嗎?對不對?卓:那如果沒有一些對於……對於這些東西的辨識能力的話,我想其實做再多,能夠幫助的很有限,我覺得我未來,事實上在很多的部分,其實大家應該共同努力的是「怎麼樣讓大眾去認知到這樣子的危機」,也就是說,真的碰到他自己的生存的壓力的時候,他是沒有生存能力的,那這樣大家才會慢慢的去做一些改變。
卓:我們不是講說你……不管你的政治立場,或是你的……你的這個商業立場怎麼樣,但是你都必須要具有這樣的能力。
黃:是。
所以我們已經透過資訊科技的方式告訴我們,其實我們已經可以證實有很多的操作在裡面,它是一種異常的操作在裡頭,所以我們接收到的資訊很多是,不管它的目的是商業行銷或政治攻擊,我們都身處在一個……這個資訊戰,不管是做商業戰或政治戰當中,我們要先有這個警覺,就是我們接收到的訊息可能都是來自於操作的結果。
然後接下來讓自己有辨識訊息真假的能力,然後您覺得這個會比光倚賴資訊科技幫我們偵測內容的真假是更重要的。
卓:是的。
也就是說,其實我們解決任何問題都不能單方面的想用一個很簡單的方法去解決它,只要一個事……一個問題是很複雜的問題的話,事實上解決辦法一定要很多方面的,大家一定努力才有可能達到一定的效果。
黃:是。
那最後卓老師有要幫我們補充什麼嗎?卓:我想其實在……我們在面對這個新的科技時代,那在整個從無論你說從資訊的角度來講、從各個角度來講的話,那我們現在其實要面對的是一個跟過去完全不一樣的時代,那不同的時代的人有不同的生存的方式,那在這個時代你必須要學習不只是假訊息,是所有訊息、所有資訊,你運用的方式、你面對的方式、你選擇的方式,那你才能夠在這個新的時代裡面能夠很從容地去應付所有的事情,那所以建立一些基本的,我們講的資訊素養這是有必要的,那不只是針對假訊息。
黃:您覺得這個「基本的資訊素養」應該要包含哪些?卓:其實……黃:都要會寫程式嗎?卓:不用不用,完全不用。
事實上以後寫程式的人可能會越來越少,所以其實是現在寫……我們以前所有的東西,你要學學問都要寫程式,現在其實我們都知道,全世界已經流行所謂「low-code」(低程式碼開發)或「no-code」(無程式碼開發),把一些基礎的東西建好以後,,你以後就是直接想說我要做什麼事情,它就放進去,直接把這樣程式也都寫了,這是我們希望的方向。
卓:所以其實相對的,我們在講說,現在不管你是不是稱它為「寫程式」,你要做出一個……一個東西、一個應用來,其實相對於過去要簡單很多,那所以要的不是這個。
卓:而是說當我在這個新的時代裡面,我必須要知道說,就好像說以剛剛的例子來講,那你要知道說你看到影片它不一定是真的,因為它是可以變造的,你要知道什麼東西是可……黃:對。
現在眼見不能為憑。
卓:對。
也就是說,這些東西都是一些很基本的一些,比如說你要知道,講簡單點就是說,你就算不會用電腦,你也要知道電腦能夠做到什麼,那你……很多東西你是可能你對它的熟悉度、掌握度不高,但是你要知道他們能做些什麼,這裡面包含就是說我們在講說,現在的對於每個產業,都有所謂……我們現在都提到所謂「數位轉型」,每一個產業其實從這個製造業到農業到醫學,它都很多東西都可以用到新的科技,包含AI,包含這個IOT(物聯網)武器等等各式各樣的技術,那你其他行業的人你可能不會知道說這些東西是怎麼去用它,但你要知道他可以做什麼。
卓:如果你在你的領域裡面,別人知道怎麼樣去用AI,什麼……AI可以做什麼,他們就可以把它引導到他的領域裡面去,別人知道IOT可以做什麼,什麼東西可以做什麼,那他就會把那些東西帶到他的領域裡面,就變成他競爭的優勢。
所以你這些不會用的就會被他打敗,所以我們其實都常常會講說有一個笑話就是說,你在外面,那一群人就看到一隻熊衝過來了,那有人就趕快把他的鞋帶綁好要衝,那旁邊的人說:「你鞋帶綁好你也不會跑得比熊快。
」,那人說:「我不用跑得比熊快,我只要跑的比你快就好了。
」黃:就讓那個落後的人被吃掉。
卓:那其實像我們在講說,每一個領域我們知道現在都在講說:「有多少工作會被AI取代。
」,其實那些工作都還是有它的……應該說它的一個dominant(優勢)的一些……一些know-how(知識),其實你被取代、你被打敗,你其實都是被你同業打敗,你被那些知道如何運用數位科技的同業所打敗,所以我剛剛講說,建立資訊的基本素養是很重要的,因為不止是面對假訊息,很重要的是,在你每一個領域裡面,你都有可能利用它去增強你的競爭力,就算你不打敗所有的同業,你也不要被你的同業打敗,那也就是希望大家建立一些基本的數位的這個素養是非常重要的。
黃:至少要知道數位可以做到哪些事情,就算我自己不會寫程式,但是也要知道它可以做到什麼程度。
卓:對。
因為當你知道的時候,自然可以找到有人可以來幫助你。
黃:非常謝謝卓老師,謝謝。
卓:謝謝。
(校對:李建甫|更新:2023/01/18)。
出處:https://tw.news.yahoo.com/國立教育廣播電臺-新聞真假掰-科技時代的亂象-用科技解決-ai如何識假-090535097.html