HOME

 

 

那福忠,網路作者。
   
  西海岸數位隨筆
美國西海岸 吸取太平洋與陽光精華 隨時有精彩故事發生
  June 11, 2018  Google 宣示不發展戰爭AI
  請把你的想法寫信給我: frank.na@gmail.com
   

   本專欄四月份 (4.21.2018) 談到 AI 能不能軍用,當時全球幾十名 AI 學者聯名呼籲 AI 不可以用在戰爭,然後又有三千名 Google 員工聯名寫信,抗議公司高層用機器學習軟體 TensorFlow,協助國防部發展 AI。Google 參與的國防計畫叫 Maven,目的在發展「電腦視覺」(Computer Vision),來精密解讀無人機追蹤目標拍攝的影像。

(Google 協助國防部建構AI分析無人機影像。圖片:Getty,取自網路)

   Google 的「參戰」在內部一直沒有平息,在更多員工抗議、及部分員工憤而辭職之後,終於日前宣布退出「戰區」,以後不再用 AI 發展用在武器或傷害性的技術,至於已進行的 Maven 計畫,則於明年合約到期後退出,不再續約。

   Google 執行長 Sundar Pichai 為此宣布了七項發展 AI 的「倫理」,禁止發展自動化武器,但對非戰爭性的國防用途,仍保留彈性。下面就是這七項倫理規範。

  • 1. 公益。AI 廣為運用在保健、安全、能源、交通、製造、娛樂各個領域,提供高品質的精準資訊,尊重使用所在地的文化、社會、法律的規範。

  • 2. 避免偏頗。強調對影響到人的敏感特性,包括種族、性別、國籍、收入、性傾向、能力、政治與宗教信仰等,盡求公允。

  • 3. 安全。加強安全考量,避免意外產生的危險與傷害,特定的 AI 技術會在封閉的環境測試,嚴密監視 。

  • 4. 對人負責。AI 系統會給人反饋、解釋、申訴的機會,AI 技術也會由人來主導、控制。

  • 5. 隱私。AI 技術的發展與使用會遵照隱私原則,提供資料的透明與管制。

  • 6. 高標準。技術創新源於科學方法,AI 工具有潛力解開新的科學知識,會以高水準的卓越科學,來發展 AI 技術。

  • 7. 使用。技術有多種功用,但會限制有潛在傷害或濫用的領域。

   除了上面的規範,Google 又提出負面不會發展的技術。

  • 1. 可能導致傷害整體的技術。

  • 2. 目的在傷人的武器或技術。

  • 3. 違反國際規範收集監視情報的技術。

  • 4. 違反一般國際法與人權的技術。

  • 5. 再一次表明不會發展用在武器上的 AI,但會與政府及軍方在其他的領域合作,包括網路安全、訓練、軍事人力聘僱、軍人保健、搜尋與營救。

   Google 又提出長遠的 AI 目標,說要對股東負責,來提升領導力,並用嚴格的科學與多學科的方式,繼續分享所學到 AI 的技術。用這一原則發展未來的 AI,與 2004 年公司創辦的價值一致,當初說過的價值,現在更相信是正確的方向。

   現在的 AI 已轉向雲端,完整的神經網路架構,開放給人使用,用自己的資料訓練,發展自行的 AI,變得越來越容易。Google、亞馬遜、微軟,是目前主要的 AI 雲端供應者,仍有蘋果等追趕在後,爭食這一龐大市場。

   上世紀 90 年代關連式資料庫出現,大家都知道好用,但懂得運用的人卻很少。AI 現在正面臨同一情況,大家都知道好處很多,但瞭解技術的人卻少,有人說全球有上千萬家企業或機構可以受益於 AI,所以 AI 雲端的使用會越來越容易。

   AI 的軍用,可能讓大家立刻想到好萊塢電影「終結者」(Terminator),完全自主的武裝機器人任意肆虐,傳說有這方面的研究,但距成熟還遠。其實除了用在戰場,AI 的軍事用途還很多,專家說主要可用在三個領域。

   一是資料處理,如同一般的公司機構,有龐大的資料需用 AI 處理。二是加速,戰爭的速度越來越快,每一件事都要加快,AI 可以讓每一件事變快。三是協調,複雜的戰爭已無法單用人力協調,必須藉助 AI。

   但 AI 用在軍事總教人不太舒服,甚至恐懼,AI 的技術公司遵守「倫理」規範,不去發展用在武器與戰場上的 AI,是不是就解除這一迷失,恐怕還沒那麼簡單。

   AI 的雲端提供了機器學習架構,使用的人可用來發展自己的 AI,發展的結果是否仍能遵守規範,也許就難以約束了。AI 不是武器,僅算是能源,有了能源可以做的事就很多了。

   軍用 AI 的需求龐大,除了軍方自行開發,借用民間技術在所難免。據報導,亞馬遜與微軟,正以億計的雲端計算標案,對像是五角大廈。


圖片影片連結:
刊頭:美國西海岸太平洋風景



上一篇  下一篇  索引