您現在的位置:首頁 > 科技 > 正文

        AI前行需創新驅動,也要倫理護航

        時間:2025-03-12 15:45:39    來源:科技日報    
        今年全國兩會上,全國人大代表、天能控股集團董事長張天任建議,針對人工智能(AI)可能引發的一系列社會經濟、道德倫理等問題,應制訂《人工智能管理法》,其重點首先即是要建立完整的人工智能科技倫理規范體系。全國政協委員、中國工程院院士陳曉紅也表示,在積極構建開源創新的AI生態體系時,要促進算力資源共享與模型迭代協同,也要完善AI倫理價值體系。

          如今,AI技術如洶涌浪潮般席卷而來,其強大功能為人類社會帶來前所未有的發展機遇。然而,在蓬勃發展背后,一系列倫理治理難題如暗礁橫亙。其中,AI真實性和AI價值觀是不容忽視的兩個方面。

          在AI發展伴隨的真實性挑戰中,與人們息息相關的就是虛假信息問題。譬如,基于生成對抗網絡的深度偽造技術,能夠生成高度逼真的虛假視頻,這輕則令個人利益受損,重則影響社會秩序和公共安全。

          應對這一挑戰,一方面,開發者在模型訓練和算法部署的每一個環節,都應融入透明性和可驗證性機制,從根源上防止虛假信息的產生和傳播;另一方面,應加快推出相關法律法規,對利用AI制造并傳播虛假信息的行為予以懲治。

          除了真實性難題,AI價值觀也是倫理治理的重中之重。我們知道,AI系統的學習基于海量數據集,這些數據往往包含了人類社會的各種偏見。如果現實社會中的偏見沒有得到有效糾正,被AI系統學習后很可能進一步放大。

          一個典型的例子,是一些西方國家AI面部識別系統面向少數族裔群體使用時有異常高的誤判率。有數據顯示,在識別有色人種時,幾種基于深度學習技術的系統錯誤率高達20%至30%,而識別白人時的錯誤率則低得多。這種“AI偏見”的形成,在技術層面,是由于研發者采用的數據庫原始樣本就存在嚴重的種族不平等。這甚至可能使算法將深膚色特征與“高風險”聯系在一起。一旦金融、安檢和執法領域運用此類面部識別系統,就可能導致不公正待遇。

          因此,從倫理治理的角度看,研發者應在數據收集、模型訓練和算法設計階段,引入多樣性、多元化的視角,避免單一文化或群體偏見主導AI。此外,政府和行業組織則應借助審查機制確保AI最大化遵循基本社會道德,或鼓勵跨學科合作,讓法律專家、倫理學家和社會科學家共同參與AI的倫理評估。

          技術創新無疑是AI發展的強大驅動力,但同時也要為AI這艘科技巨輪配備可靠的導航和護航機制。在這個過程中,每一個參與者,無論是技術研發者、企業還是政策制定者,都肩負共同的責任。

        關鍵詞:
        相關新聞

        最近更新

        凡本網注明“XXX(非汪清新聞網)提供”的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和其真實性負責。

        特別關注