首頁 > 關注議題 > 智慧財產 > 人工智慧的法律議題(三) 個人資料蒐集與隱私權

關注議題

2019

11.12

智慧財產

人工智慧的法律議題(三) 個人資料蒐集與隱私權

作者:蔡如茵

 

由於目前的人工智慧的訓練奠基於大量資訊輸入,因此隨著人工智慧發展,數據蒐集的用途漸被使用者所重視,隨之而來關注的就是資訊隱私權問題(註1)。

人工智慧的法律議題(一)人工智慧得否作為權利主體?

人工智慧的法律議題(二)人工智慧是否具有責任能力?

人工智慧對於數據的運用方式,主要包括三個步驟:蒐集、運算與應用,每個步驟中都會伴隨著資料隱私(data privacy)的困境。

 

  1. 資訊蒐集步驟中的隱私困境
    1. 事前同意的可行性
      基本上蒐集資料時若能取得用戶的事前同意,蒐集數據的爭議會大大減少。

      然而目前的困境為:為訓練或建構人工智慧所蒐集的數據量,是否能一筆一筆確實徵得使用者的知情與同意?使用者能否在被蒐集一段時間的數據後拒絕自己的資訊繼續被蒐集嗎?

       
    2. 資料去識別化後是否仍能滿足機器學習的需要
      為了獲得資訊取得的合法性基礎,因此需要避免可由蒐集到的資訊直接推斷出使用者身分。目前的方式除了蒐集數據時自動抹去直接識別資訊外,更包括隨機化或通用化資料庫中的資料集合,使個人資訊無法直接和本人串聯或者是標定。然而目前尚無一種方法,可以完全的杜絕資訊跟當事人間的連結,因此仍有進行數據互相比對,進而拼湊出真正當事人身分的可能。

      但個人資訊與個人之間的連結若完全切斷,那也失去了蒐集數據的意義,畢竟人工智慧蒐集大量的個人資訊目的之一就在於了解使用者與其偏好。

       
    3. 數據與資料庫品質
      在涉及大數據或是資料庫的科技之中,關係到產出結果的品質的關鍵因素,除了分析的方法外,最直接就是資料庫內的數據品質。但資料蒐集最大的兩難就來自於如何兼顧數據的多樣性及數據品質。所謂多樣性是盡可能蒐羅目標群體內的所有數據,盡量接近真實的世界,但當數據過多時也有可能會造成電腦運算緩慢或是造成人工智慧過於敏感的問題。

      至於數據的品質,問題在於我們要如何定義這是一個「垃圾數據」(junk data),是虛偽的數據、重複性過高的資訊還是錯誤的資訊?更甚者,難道垃圾數據就沒有價值嗎?

      另外衍生出的問題是,誰能保證數據庫裡的資料都是真實的?或是保證資料的來源是可信的。在非監督式的資料蒐集下,蒐集而來的資訊即便真實性不可靠也可以被任意的使用?在非常極端的情況下,一個偽造的Face ID定位資訊就會成為把人定罪的依據。這將對於講求證據真實的法治社會帶來巨大衝擊,證據法則可能會因此改寫。

       
  2. 資訊運算步驟中的隱私困境
    1. 演算法黑盒
      由於在高階人工智慧中人類對資訊分析的演算法掌控力減弱,大眾、根本無從得知演算法是如何利用與分析資訊,即便是開發者可能都不了解人工智慧的結果是如何產生的。

       
    2. 人工智慧繼承設計者的人為偏誤
      我們常會對人工智慧抱持一種偏見:人工智慧比人更完美、更公正。但其實人工智慧也是人類所設計出來的產物,不免參雜進入一些人為的主觀偏見或是上一代人工智慧的既存錯誤,這些偏誤在開發的過程中被新一代人工智慧所繼受,卻藏在機器學習或深度學習的大旗底下而不被察覺。

      沒有任何一種方式分析或彙整出的結果是絕對完美的,但如何盡可能地保留資訊多樣性同時去除假資訊,與確保公平、公正、正確與客觀的處理數據,是目前需要面對的挑戰。這有賴更多元化的開發團隊,確保人工智慧系統能夠不斷地去偏見化(de-bias),使上一代人工智慧或開發人員的偏誤不再被下一代的人工智慧繼承。

       
  3. 應用運算資訊結果的隱私困境
    1. ​資訊隱私
      倘若人工智慧為用以預測、評估或分析使用者身分、位置、社經地位、健康狀況、行為模式、或工作表現等軌跡的側繪(profiling),可能會讓使用者「不想被人知道的資訊」被人得知。
    2. 歧視
      人工智慧運用進行決策時,有可能因為繼承了人為偏誤造成歧視。即便資料庫中的資料已被抹去部分識別資訊,但仍有可能會有一些本被視為非識別資訊的集合可能成為識別資訊(附帶一提,『這些資料不會讓使用者被認出來』就是開發者典型的人為主觀偏誤)。

       

隨著2018年5月25日歐盟實施開始實施一般資料保護規範(General Data Protection Regulation,GDPR),GDPR是有史以來政治實體嘗試最大規模、影響範圍最廣也最強力的資訊隱私權規範,GDPR的實施成為一個利用法律手段平衡人工智慧發展與隱私權侵害的契機。GDPR賦予「個人」對於「自動化蒐集個人資訊用以決策的程序」拒絕的權利,且在機器以純自動化的方式完成決策時,受影響的個人可以要求資訊控制者(data controller)解釋(right to explanation)並人為介入(註2)。但歐盟仍有不同的聲音認為GDPR應該對人工智慧更開放/更緊縮,並持續對話著,GDPR實施剛滿一年,對於人工智慧的管理效果有待繼續觀察,但仍應肯定這是一個科學發展與法律對話的里程碑。

 

  1. 人工智慧為何引起大眾的恐懼
    人工智慧的發展為人類帶來衝擊的主因是人類文明發展迄今,從來沒有出現過一個能夠與人類聰明才智匹敵的智慧,人工智慧的出現可說是「與人類一樣聰明,但不用像人一樣受到規範」,也因此許多法律試圖要將人工智慧納入法律規範中,讓「和人類一樣聰明的」機器也能夠負擔人類的義務。

    但目前為止,電子人格的法規發展有所限制,原因為人工智慧和人類的認知模型並不相同。將人工智慧和人類的嬰兒的學習歷程相比較,人類嬰兒是藉由建構因果模型(causal model)學習並理解這個世界,藉這個方式人類可以將學習到的有限資訊擴展到陌生的情境中應用,藉以不斷探索與適應新環境;人工智慧則是在初期灌入大量資訊,使機器在大量(但有限)的數據組合中不斷練習,因此在數據組合中機器具有敏捷、敏銳的特性,但面對陌生情境機器將難以正確的以有限的資訊應對(註3)。

    由上述可見,目前的機器並非由人類的學習方式認識世界,因此在識別事物、面對陌生情境與決策時,也會有著不同的思考過程。然,目前的規範系統都是以人類認識世界的視角為中心所設計,機器的行為模式和人類不相同,是否能適用此種人類世界的行為規範,不無疑慮。

    人類對人工智慧產生疑慮的來源還包括人類對於機器的掌控度降低。目前人工智慧法律爭議多是集中在機器學習與深度學習層級的人工智慧,除了這些科技是「嶄新的科技」、過去人類較為陌生之外,更因為他們的演算法受人控制的程度較小、蒐集資訊量較過往為大、功能也更顛覆人類過往對於機械的想像。尤其是機器產出結果的方式為歸納法,又因為演算法黑盒的關係,使得連開發者也是「知其然而不知其所以然」。

    站在開發者的立場,研發成果可以帶來金流,走出實驗室是科學技術發展的原動力之一,然而現行的法規範對於人工智慧的權利能力與責任能力規範尚未明瞭,也尚無相對應的風險控管配套措施,同時人工智慧的技術邊界模糊時又未賦予其創作財產權,這些都可能成為投資者的潛在疑慮,使得投資者對研發的投資意願下降。目前人工智慧發展另外遇到的瓶頸也同樣來自投資,不過不是投資意願缺乏、而是投資的資源過度集中,如數據蒐集的廣化與深化的領域,然而這些領域目前都面臨了技術與法律的問題需要克服,對於現在人工智慧需要克服的最大挑戰:「如何在有限的數據下適應高度複雜的世界」所迫切需要的研究領域相對缺乏資源投入,如遷移學習、無監督學習或少樣本學習等領域(註4)。

    在最近許多媒體揭露與GDPR出爐的情況下,資訊隱私權議題也被民眾關注(註5)。歐盟GDPR中認為每個人都應當有處分自己的資訊的權利,包括被遺忘、不被蒐集等,若在不知情或不留意的情況下,自身資訊被大量的蒐集、大量的被分析,倘若再大量的把分析結果打包賣給保險公司、市場調查單位甚至情治單位,資訊造成的偏見可能造成最嚴重的後果,就是我們在還不受無罪推定前,就已經被定位成數據所看到的模樣。數據呈現出來的結果有可能是真實、卻也有可能是偏見。

 

  1. 結論
    真實世界的數據複雜到難以想像與量化,即便是人類的智慧也無法企及所有的維度,更何況人工智慧只是一種洗鍊、簡潔的歸納法,結果並不能代表完整的真實世界。我們如果「只」利用數據來看世界,卻對數據之外的世界不聞不問,彷如坐井窺天、以管窺豹──我們能看見世界真實的一部分,卻對真實的世界一無所知。

    「我的資訊集合不等於我」、「該害怕的不是人工智慧而是人」,這些聲音一直都在、也沒有錯,我們活在科技時代確實應該擁抱新科技潮流,享受科技為我們帶來的生活品質提升。但科技始終來自於人性,科技是為了讓我們的活得更好、活得更安穩,而不應是為我們帶來恐慌與躁動。

    任何新事物出現於這個世界上都是所謂的雙面刃,有利就必定有弊,重點是在當下的世界觀中兩相權衡,看是否「利大於弊」,並且盡可能做好風險的控制與管理。

    在過去科技至上的樂觀主義旗幟下,使得我們對於「運用法律來規範科技」這件事有所顧慮,總認為科學技術發展是不應該被規範限制的。可是科學技術最終仍會應用在我們的生活中,終將成為彼此生活的一部分,適度的法律規則能使得大眾的疑慮降低,也能敦促科學真正產業化,促使大眾消費的金錢流投入到研發,真正促進科學技術發展。

    人工智慧的開發者與使用者或許會覺得這些法律議題繁瑣,但是有制度規範不一定代表限制,某些層面上可以保障科學技術商業化的實施,也使民眾對於人工智慧的接受程度更高。不妨將大眾對於資訊隱私權的覺醒視為是一個重新整理各方想法的契機,相信未來有許多問題值得進一步研究與探討,例如:科學技術發展與人權的界線究竟在哪裡?消費者對新科技真正的恐慌與疑慮在何處?開發者應該如何消除消費者的恐慌與疑慮?要如何使科學技術走出實驗室商業化?如何在規範下發展商業模式使科學走入人群、改變世界?改變後的世界樣貌,會是我們喜歡的模樣嗎?

 

 

(註1)邱文聰,初探人工智慧中的個資保護發展趨勢與潛在的反歧視難題,載:人工智慧相關法律議題芻議,頁153-176,頁159-168,2018年11月;人工智慧與資料隱私之探討,財團法人台灣網路資訊中心,2019年5月份電子報,https://blog.twnic.net.tw/2019/04/25/3384/ (最後瀏覽日期:2019年9月2日)。

(註2)劉聲安譯,David Meyer著,歐洲GDPR將揭發「人工智慧」嚴重的隱私問題,關鍵評論,2018年5月30日,https://www.thenewslens.com/feature/timefortune/96632 (最後瀏覽日期:2019年9月2日)。

(註3)(註4)Alan L. Yuille & Chenxi Liu, Deep Nets: What have they ever done for Vision?, arXiv preprint arXiv:1805.04025., 2018.

(註5)曾更瑩、吳志光,人工智慧之相關法規國際發展趨勢與因應,國家發展委員會委託研究計劃結案報告,頁65、66、187、與260-261,2018年12月。

本網頁內容係採用Creative Commons 「姓名標示-非商業性-禁止改作」 3.0台灣授權條款授權。未經宇智顧問股份有限公司事前同意,禁止以任何其他方式利用本網頁內容。

Material on this page is licensed under Creative Commons Attribution-NonCommercial-NoDerivatives 3.0 Taiwan License. Any other use, in any form or by any means, is strictly prohibited without prior written permission from PHYCOS International Co., Ltd.

宇智電子報將提供您多元產業資訊,歡迎訂閱

(您的訂閱,將視為您同意本公司保存您的通訊資料。依據國內個人資料保護法規定,除非獲得您的同意或因應法律要求,您的通訊資料將不會以任何形式出售或交換給其他團體或個人;將完全使用在以下聯絡通知事項用 : 電子報、宇智舉辦或協辦活動等訊息、分享宇智業務相關產業最新政策、法規、未來趨勢等其他資訊及活動訊息)

E-mail