拒絕科技歧視,Google 啟動 PAIR 計畫

文/Allen|圖/Quen|編輯/Quen

        AI 相關事務已然成為最火紅的話題,新聞不時可看到技術又推陳出新、又有新的應用場景。從一戰成名的 Google AlphaGo,到 Uber 的自動駕駛技術,加上各家五花八門的AI 語音助理像是 Apple 的 SiriGoogle AssistantAmazon Alexa,越來越智慧,與生活的連結程度越來越高,無不讓人覺得人工智慧時代就快來了。

        但是,如此深入生活方方面面的 AI 科技,會不會有一天侵害了使用者的隱私權呢?我們真的該擔心,AI 技術被人類用在不好的地方,或是對人類產生不良影響。

        幸好身為AI人工智慧的技術領導者,Google 已經比別人都多想一步。Google 從以前就很重視科技倫理,「 Don’t be evil. 」或是現在 Alphabet 時代的「Do the right things.」,都是因為 Google 最理解科技的強大力量,同時可能傷害到人類,而訂出公司發展的中心原則。現在AI的浪潮來臨,Google在此時籌組了「PAIR」小組來應對。

PAIR | People+AI Research Initiative。圖/PAIR

        Google PAIR,其中 PAIR 是 People + AI Research 之意,就是針對 AI 技術發展定義準則與框架,最重要的概念便是「AI for Everyone」,Google 認為,AI 技術是要對人類有益處、且能被所有人所使用、並受益的。

Making people + AI partnerships productive, enjoyable, and fair

不過現行 Machine Learning 技術即使十分強大,卻容易受到資料集( dataset )的影響,而有所偏頗。最著名的例子是在人臉辨識的演算法中,黑人面孔並不會被系統辨識出來,因而產生科技歧視的感覺;或是有聊天機器人因為透過留言學習,被廣大惡意網民訓練成充滿種族歧視、性別歧視言論的偏激機器人。又或者,在廣告投放時針對某種性向的使用者投放。這些都是在大數據、AI 時代後才出現的問題。因此 Google PAIR 的使命就是讓科技成為更加平等的工具,幫助消除世界上的歧視。

        為了達到這樣的目的,PAIR Project 首先便先做了先進的資料可視化,讓研究人員能在一開始就先檢視原始資料( raw ingredients)是否有偏頗的情形;並且這些工具都是開源的( open source ),所有人都能檢視這樣的編寫是否合理。此外,也提供各式各樣的小教學,例如教學如何判斷資料是否公正、是否顧及不同群體等等。甚至 Google 在這方面產出的論文都可以在 Google PAIR 的網站上找到,提供更近一步討論的資料。

FACETS – KNOW YOUR DATA。圖/Google PAIR

        AI是不可抵檔的新一波狂潮,許多公司也都開始使用 AI 作為商業工具,但是如何能在享受科技的便利的同時顧及使用者的安全、平等性,又或者是避免科幻電影式的人類滅絕? Google 在 AI 世代的黎明就開始投入這方面的努力,值得大家共同參與。

參考資料

*Google啟動「PAIR」計畫,要消弭人工智慧的偏見和歧視
https://www.bnext.com.tw/article/45334/google-launch-pair-to-reduce-the-bias-and-discrimination

*Google’s ‘PAIR’ project wants AI and humans to get along
https://www.engadget.com/2017/07/10/google-pair-project-ai-humans-get-along/

CloudMile

成立於 2016 年,致力於 B2B 雲端與人工智慧應用,為客戶建立國際級雲端架構,並以機器學習及大數據分析技術為核心,協助企業進行商業預測與產業升級。

Website: https://www.mile.cloud/
Facebook: https://www.facebook.com/CloudMileFans/
Linkedin: https://www.linkedin.com/company/cloudmile/
Youtube: https://www.youtube.com/c/CloudMile
Contact Us: service@mile.cloud