<ins id="aazt7"><big id="aazt7"><button id="aazt7"></button></big></ins>
        <sub id="aazt7"></sub>
        <b id="aazt7"><tr id="aazt7"><var id="aazt7"></var></tr></b>
      1. <video id="aazt7"><input id="aazt7"></input></video>
      2. 【科學的溫度】聶再清:AI時代,把更多決策權還給個人數據主權方

        分享到:
        分享到:

        【科學的溫度】聶再清:AI時代,把更多決策權還給個人數據主權方

        2022年12月21日 19:10 來源:中國新聞網
        大字體
        小字體
        分享到:

          中新網12月21日電 (記者 孟湘君)掃地機器人、升降桌攜帶攝像頭,家中被“偷拍”防不勝防?手機、電腦APP,日復一日“偷聽”你說話?動不動就收到房產中介、早教、健身機構的“騷擾信息”?個人就醫健康數據接入互聯網,究竟誰有權查看?

          Web3.0時代正在到來,人工智能應用越來越廣泛,個人隱私數據和信息泄漏問題隨之而來。隱私被泄漏,該找誰?如何做好數據保護和管理?人工智能被惡意使用,責任歸屬如何劃定?

          就這些問題,中新網記者邀請清華大學國強教授、智能產業研究院(AIR)首席研究員聶再清,展開深入解讀。

        資料圖:聶再清。受訪者供圖

          “個人隱私信息,遵循最小范圍收集原則”

          網上流傳著一種說法,即手機、電腦里一些APP可能在“偷聽、偷看”持有者說話,通過用戶搜索的常用關鍵詞及通話錄音高頻詞,來分析用戶喜好并進行商品和服務推薦,聶再清表示,有這種說法,但要具體情況具體分析。

          他指出,其實從數據輸入開始,到瀏覽器或其他軟件,再到真正的系統里,要經過各種程序。正規來講,所有軟件都應遵守用戶隱私協議和國家相關法律法規,都要與用戶簽隱私協議。傳輸過程中軟件是不是在“偷聽”,到底哪個軟件在“偷聽”,要具體分析。在一個軟件當中,利用好用戶的某些個人信息,也可能能為用戶帶來價值。

          聶再清舉例稱,比如音樂軟件記住用戶所聽歌曲,通過數據收集知曉用戶是誰的粉絲,就能按喜好薦歌。前提是,軟件應與用戶簽好隱私協議,告訴用戶在使用過程中會收集其所聽歌曲的名字、聽歌時長等,這類功能需要用戶授權,獲得用戶同意才能使用。用戶應該也有權不允許啟用這類個性化推薦功能。

          最近,市場上流行的一些智能家具、家電,比如掃地機器人、升降桌等攜帶攝像頭、麥克風等,也引發“偷取”個人隱私的質疑。一些消費者認為商家未充分明示,導致自己在家中被拍攝和錄音,從“不設防”變成了“防不勝防”。

        資料圖:2022世界人工智能大會上,智能機器人亮相。 湯彥俊 攝

          對此,聶再清表示對消費者的理解。他同時指出,對一些智能家電來說,沒有攝像頭、麥克風就無法收集用戶語音指令和現場狀況,但同時,應當對市場上的商品進行更好地監管,他指出幾個判斷標準:

          首先,商家是否明確告知用戶,何時收集數據、如何使用數據,是不是超出了實際使用和收集范圍?

          第二,數據收集完后,商家會否拿來做別的用途?商家在整個過程中,一定要遵循國家法律法規和用戶隱私協議。

          第三,軟件運營人員、機構負責人,應當是第一把關人,要保證軟件不做多余動作,否則就等于是違反協議甚至違法,一定有相關法律法規來監管。

          聶再清同時指出,商品、軟件設計者還應遵循最小范圍收集個人隱私信息的原則,絕不要收集和產品用戶價值無關的信息。

          “將更多決策權還給個人數據主權方”

          聶再清表示,隨著全球逐步邁入Web3.0時代,數據已成為機構或個人的核心私有資產。這就需要數據擁有方在政府允許范圍內管理和利用好數據資產,從而在日常生活中,讓數據資產發揮應有價值。

          他指出,Web3.0時代和Web2.0時代的最大區別,就是Web2.0時代,更多地還是把數據擁有權以及其他權利交給平臺,但在Web3.0時代,希望能把決策權等很多權利還給數據主權方。這個數據主權方,可以指個人、機構,也可以指政府部門。對于個人而言數據主權是指人們對自身行為產生的數據擁有使用權和所有權,對于國家而言呢,數據主權是指存在于本國的數據要受到本國法律的約束。

          “我認為這個方向特別好”,聶再清希望,未來在政府指定范圍內,個人數據主權方能逐漸擁有越來越多的決策權。

        資料圖:兒童醫院就診區,醫生在診室內。殷立勤 攝

          他以個人的就醫、健康數據舉例稱,可以嘗試在政府引導下,由相關機構和有參與意愿的個人,嘗試共同建設健康數據聯盟鏈示范區。檢查、診斷、病史、鍛煉康復、體檢等各種個人健康數據,都放在數據聯盟鏈上,個人持有密鑰。如想讓他人查看自己的健康數據,就用密鑰授權。

          聶再清進一步指出,是否允許他人查看個人健康數據、是否可有償或無償將自己的數據提供給藥廠以做制藥研究等,都基于個人決策。機構也是一樣,某個機構如有需要,可在數據聯盟鏈上進行交易,所有數據交易都應可見且不可篡改,符合法律法規。

          “將責任壓實到技術產品研發人身上”

          圍繞人工智能在應用中的風險管控問題,近日,在2022人工智能合作與治理國際論壇上,中國工程院院士高文提出一個值得探討的觀點。他認為,如果沒有辦法阻止人工智能的惡意使用,用人工智能犯罪,只是時間早晚問題。

          對于這一觀點,聶再清表示“完全同意”。他指出,工具本身沒有好壞,人工智能跟別的工具沒有太大不同。只要是工具性質的發明創新,都會有被惡用問題,跟背后的人如何應用工具有關。

        資料圖:第五屆進博會技術裝備展區內,參觀者在“Meta”展臺體驗元宇宙。 殷立勤 攝

          因此,他強調,為避免人工智能被惡用,應該將責任壓實到技術、產品研發背后的人身上,讓他們對后果負責。對于技術創新和產品研發人員,要有一套越來越完善的管理制度,讓他們失去犯罪的可能性。

          同時,聶再清指出,我們要鼓勵有可能帶來重大生活方式改變的顛覆式AI技術(或產品)創新,但同時需要一套完善的AI技術、產品的管理制度。對于可能有安全隱患的人工智能技術創新和新產品,從原型研發到灰度內測,再到大規模使用,“就像新藥上市前要做臨床實驗一樣”,要證明AI創新產品和技術的安全性,然后才能大規模使用它。

          使用過程中,也要不斷對效果和影響進行數字化監測,他進一步指出,比如現在互聯網公司做產品,都有大量數字化監測,每時每刻都有反饋。一旦發現某一功能對人產生了安全隱患,需要能及時讓人參與控制,讓系統回滾。

          “總體上,我對人工智能的發展前景及應用表示樂觀”,聶再清說。他認為,作為人類的助手和工具,人工智能的應用總體上要符合人類科技向善的主流價值觀。科技在發展過程中不斷突破瓶頸,最終都是為了提升人們的生活質量。(完)

        【編輯:張尼】
        發表評論 文明上網理性發言,請遵守新聞評論服務協議
        本網站所刊載信息,不代表中新社和中新網觀點。 刊用本網站稿件,務經書面授權。
        未經授權禁止轉載、摘編、復制及建立鏡像,違者將依法追究法律責任。
        Copyright ©1999-2024 chinanews.com. All Rights Reserved

        評論

        頂部

        无码一区二区三区久久精品色欲_免费国产一区二区不卡在线_欧美一级高清片在线观看_99国严欧美久久久精品l5l
          <ins id="aazt7"><big id="aazt7"><button id="aazt7"></button></big></ins>
            <sub id="aazt7"></sub>
            <b id="aazt7"><tr id="aazt7"><var id="aazt7"></var></tr></b>
          1. <video id="aazt7"><input id="aazt7"></input></video>
          2. 亚洲日本中文字幕一区二区三区 | 亚洲精品一本中文字幕 | 亚洲午夜福利一级无吗 | 在线影片亚洲视频 | 亚洲一区国产二区三区 | 亚洲欧美久久网站 |