人工智能或引發人權風險 專家建議推動跨國協同立法
中新社重慶4月19日電 (梁欽卿 楊夢逸)19日在西南政法大學舉行的2025·亞洲人權論壇上,人工智能(AI)治理成為論壇討論焦點。針對AI帶來的隱私、算法歧視等問題,有人權專家建議完善法律法規,推動跨國協同立法,并建立多元共治機制,平衡技術創新與人權保障。
“人工智能在應用中有可能侵害人類的生命權、健康權、財產權、勞動權、隱私權、平等權等,數據過度收集、數據濫用、數據跨境傳輸都有可能帶來侵害人權的問題。”北京理工大學科技人權研究中心執行主任、法學院教授肖君擁舉例稱,人工智能工具在提升效率的同時有可能使決策者成為技術的附庸,削弱專業化的思維,比如說醫療領域里面存在雙重的誤診風險。對于應對這些風險的法治化路徑,他提出要加強人工智能人權風險的立法保障、社會防控,此外還要加強技術管控和國際合作。
針對國家法律是否能夠為約束和監管AI活動而開展跨境工作,蒙古國立大學法學院副教授烏揚加·邁阿馬爾在線上發言稱,AI監管是個嚴峻問題,國際社會已起草多份文件進行回應,例如聯合國、歐盟等機構都制定了相應的法律和條例。同時,世界多國在立法方面也在跟進,這表明國際社會都在加速構建AI治理體系和監管體系。“國際法能夠跟上AI的快速演變,所以在國際層面需要多做努力來確保公約和國際協議能夠保障人權。”
“科技競爭是如今世界各國進行博弈的主戰場和前沿陣地。在此背景下,應把人權納入全球治理視野中,用人權來‘馴化’科技競爭,確保科技發展的利益公平普享。”吉林大學法學院教授、人權研究院副院長劉紅臻表示,以AI技術為例,其科技倫理和技術標準尚未建立全球化的統一標準,規則制定應強調共商、共建和共享,保證所有國家平等參與,建立開放包容、和平安全的科技治理秩序。
隨著人工智能產業的發展,“主權AI”與“AI主權”的概念區分及其對產業發展的影響也引起業界關注。西南政法大學人工智能法學院博士張翔認為,“主權AI”本質上是一種技術控制工具,以地緣政治競爭為核心,而“AI主權”本質上是一種治理框架,融合技術、法律與倫理規則。未來,發展中國家需平衡技術自主與人權保護之間的關系,避免陷入“數字陷阱”;國際合作也應積極推動開源生態與多元價值共存。(完)


社會新聞精選:
- 2025年05月01日 12:20:55
- 2025年05月01日 12:18:09
- 2025年05月01日 12:11:20
- 2025年05月01日 11:02:14
- 2025年05月01日 10:51:35