HOME

 

 

那福忠,網路作者。
   
  西海岸數位隨筆
美國西海岸 吸取太平洋與陽光精華 隨時有精彩故事發生
  January 13, 2019   清理 AI 的陰暗面向
  請把你的想法寫信給我: frank.na@gmail.com
   

   2018 年,是人工智慧 (AI) 成長快速的一年,也可以說是「智慧」增進的一年,運用的範圍也擴大到科技以外,工商各業從工廠到辦公室,居家生活的衣食住行,不冠以 AI 就好像落伍似的。這好比上一世紀 70 年代電腦發展初期,任何事都要加電腦兩個字;又好比 90 年代網往路紅翻了天,記得當時英國有人設計方便上網的茅房 (Loo),讓人真的一邊「方便」、一邊上網。現在的 AI,看幾來是步電腦與網路的後塵。


人工智慧的陰暗面相 The Dark Side of Artificial Intelligence。圖片:itij.com

   在成長的對面,也就是正向光明的另一面,存在了陰暗的一面。自駕車的車禍,無疑引起行人與一般駕駛人的憂慮;臉書洩漏大量個資,操縱政治活動,引發的軒然大波是否會重演;深度學習技術,可以維妙維肖的仿製變造語音與影視,精密到真假難辨;Google 為國防部提供 AI 技術,分析中東影片,引發 Google 員工抗議,AI 的軍事用途成為全球話題;偏差的演算法與數據,導致 AI 偏差,弱勢族群或遭受不平等待遇。這許多陰暗面的 AI,在 2019 年能否清理消除?

   自駕車,可以自動行駛但有人坐在駕駛座,遇到狀況切換成手動駕駛。去年一輛自駕車,在一條亞利桑納州公路夜間行駛,一名婦人推自行車橫跨馬路,自動系統沒有煞車,駕駛人也一時疏忽沒看到路上有人,當場撞死這名婦人。即使如此,亞利桑納州還是開闢有限的區域,供 Google 的 Waymo 無人車以計程車載客行駛,無人車,指的是駕駛座上不坐人。

   無人車的下一步發展,是車內沒有方向盤、腳踏板、以及任何控制行車的器具,是一輛完全自己駕駛的車輛,目前交通法規還不允許上路,唯各大車廠都躍躍欲試,通用汽車還向交通單位請求放寬這一規定。無人車發展的初衷,在減少數以百萬的車禍死亡,川普政府有意放寬法規,唯一旦施行,路上的車輛與行人都成了白老鼠,安全不無堪虞,看樣子今年可能還是無解。

   臉書的紕漏,可以說驚天動地,同時也暴露了設計的缺失,製造機會任人玩弄,讓放大不實、暗藏爭論、分化族群的新聞與資訊,在適當時機浮出水面。執行長札克伯格在國會被煎熬兩天,應允訓練 AI 找出有害的內容。但基本的問題,是機器無法理解人類的溝通語言,即使學習,仍難瞭解文字、圖像、影視的真正意涵。所以臉書為此仍雇用人力,偵測有害內容,提出警訊。

   紐約時報比喻社群網路有如每晚與 500 個朋友喝酒,你可能聽到一些消息,但不太會記得誰說了什麼,也不會在意消息是否真實向誰求證,因為消息太多了。我們聽到的幾乎都是二手消息,但是否相信,多取決於對傳播者的信任,但這種證言規範 (Norm of Testimony) 並不存在於社群網路,因為大多數的「朋友」在真實世界可能都不認識。今年有南非與奈及利亞選舉,且看臉書預防的措施能否生效。

   深度學習 (Deep Learning) 的進展,把 AI 帶入新的境界,生成對抗網路 (Generative adversarial networks) 用兩個網路對抗,網路一盡量挑剔網路二的缺點,網路二盡量避開讓網路一的挑剔,這樣相競的最後,可以製作出幾可亂真的圖像與影視。AI 技術固然因此向前進一大步,造假的技術也跟著向前進一大步。去年 5 月 29 日的「從深度學習到深度造假」,例舉一段奧巴馬總統的「談話」影視,再次播放如下。


不是奧巴馬說的奧巴馬談話。影片:Youtube

   一個月以前,Nvidia 宣佈把深度學習推向另一層次,製造出的精緻人臉,不是幾可亂真,因為就是真的,從式樣、皮膚、毛髮,與真人的照片無異,無法辨認是製造出來的,但這是假人,在世界上不存在的人。Nvidia 從大批的人臉照片取出各部位的式樣,用來建造不存在的人像,這不是 AI 造假,是造「真」。國防部外圍組織 DARPA 預備用新技術偵測深度造假,新技術免不了還得用 AI,AI 捉 AI?貓捉耗子的遊戲。


Nvidia AI 的產品,真人面孔不存在的人。圖片:Nvidia

   去年 Google 參與國防部 Maven 計畫,用 AI 工具協助美軍分析在中東空拍的圖片,Google 員工知道了以後大力反彈,堅持 AI 不能用於戰爭,引發學界科技業的聲援,有點像當年反越戰的味道,迫使 Google 當局停止 Maven 計畫的合作,宣示不發展戰爭 AI,並制定倫理規範。

   AI 用在軍事,似乎是再自然不過了,軍方除了自行發展,也需要業界協助,即使 Google 不幫忙,微軟與亞馬遜仍保留協助的態度。但 AI 化的戰爭是否會肆無忌憚的殺戮,成為有識者最關心的事,像「制止機器殺人運動」組織,就試圖藉一連串的會議,寄望聯合國盡快能約制這些不需人操控的全自動武器。

   當 AI 的運用逐漸普及,在漫不經心之下,進入了我們的生活,許多生活上的選擇,求學、謀事、借貸、醫保,都不再由人、而是由機器來決定。理論上大家用同一尺度,摒棄人為的偏頗,是一個公平的法則,但背後所用的數學模型,既不受管制、又無法驗證,即使錯了也任其走下去,致不斷的擴大歧視,支撐了幸運的人,卻懲罰了不幸的人,數學就成了毀滅武器。

   這是去年 2 月 6 日「我們背後的數學引擎」所闡述的 AI 負面效應。AI 所以有用,是由演算法、或說是數學模型,用大量資訊、或稱大數據,訓練學習產生的,無論演算法在設計上的偏差,或大數據取得的不確實,都會扭曲 AI 的運作。說起來這是一個嚴重的問題,長期下去 AI 所製造的不平等,更增加社會的分歧。去年 9 月 IBM 推出一個 AI Fairness 360 工具,幫助偵測 AI 的偏差,效果如何,拭目以待。

   AI 像是一把兩面利刃,希望兩面的銳利不要相等,反面要不停的磨,磨的越頓越好。



上一篇  下一篇  索引