(聚焦博鰲)AI迅猛發展,人類能否穩控“方向盤”
中新社博鰲3月26日電 題:AI迅猛發展,人類能否穩控“方向盤”
中新社記者 王曉斌
全球各大企業在AI(人工智能)技術賽道上競相追逐,博鰲亞洲論壇2025年年會于3月26日舉辦的一場AI主題分論壇,關注相關的深層次話題:在AI技術迅猛發展的時代,人類能否繼續穩坐“駕駛艙”,確保自己是掌控方向的司機,而非被動的乘客?
為何人類必須掌控AI“方向盤”
AI近年來的快速發展既令人振奮,又暗藏隱憂。上海科學智能研究院首席戰略官、復旦大學經濟學教授楊燕青指出,AI可能是人類歷史上最強大的通用技術。“與蒸汽機、電力等增強人類體力的技術不同,AI直接賦能人類大腦,涉及計算與認知的深度融合。”楊燕青將AI特性描述為“類人”,這使得AI既能帶來生產力提升,也可能引發威脅人類生存的風險。
中國工程院院士、清華大學智能產業研究院院長張亞勤介紹,2025年人工智能發展呈現三大趨勢:從生成式大模型邁向智能體,從預訓練走向推理,從信息智能走向物理智能和具身智能。
隨著AI的快速迭代,一個令人不安的場景或從科幻電影中走向現實:本應協助人類的AI,可能因為算法偏差或外部操縱,做出違背倫理、危及人類利益的決策。
人類如何掌控AI“方向盤”
面對未知的AI風險,人類如何應對?中國科學院自動化研究所研究員、聯合國人工智能高層顧問機構專家曾毅主張,將倫理安全融入AI開發的底層設計,視其為“第一性原則”,不可刪除、不可違背。他強調,AI的倫理安全應成為技術發展的基因,確保其與人類價值觀保持一致。
張亞勤進一步將AI風險分解為可信度與可控性兩個層面。可信度要求AI在執行任務時遵循人類期望、倫理規范和社會法律,不產生誤導性、有害或不公平的結果;可控性則確保人類能有效監控、干預和糾正AI行為,避免失控或不可預測的后果。他提出,設定技術紅線與邊界是關鍵,如限制智能體自我復制,以降低失控風險。
在具體實踐上,國際社會已采取行動。歐盟《人工智能法案》于2024年實施,對高風險AI系統設定了嚴格的透明度和問責要求;中國2023年發布的《生成式人工智能服務管理暫行辦法》則明確要求企業對AI輸出內容負責。這些技術與倫理并重的措施,旨在確保人類腳踩AI超速的“剎車片”,手握AI發展的“方向盤”。
平衡AI:發展與治理的共生之道
有人擔憂,給AI“裝上剎車片”會削弱其競爭力。曾毅介紹,其所在的團隊通過對大模型進行微調,可以將安全能力提升20%至30%,對其性能幾乎沒有負面影響。這一發現證明,安全治理與技術發展可以并行不悖。
當天在博鰲的討論最終匯聚成共識:AI治理需要構建一個多元、立體的全方位治理體系。這一體系如同一個精密的生態系統,既有自上而下的宏觀規劃,也有自下而上的微觀參與,涵蓋技術、社會、經濟等多元維度。
“我們怎么和人工智能共處?如何讓人工智能使得整個世界變得更好,人類應有更大的責任。”楊燕青認為,AI治理是每個人的使命。社會大眾應保持自身的價值觀和創新力,在多元的理念中把握好自己的“方向盤”。(完)


經濟新聞精選:
- 2025年03月29日 21:14:16
- 2025年03月29日 19:19:37
- 2025年03月29日 16:17:08
- 2025年03月29日 15:59:34
- 2025年03月29日 14:42:33