近年來,美國專利商標局、美國版權局發布了一系列指南或研究報告,明確限制人工智能(AI)輔助創新的專利和版權保護。例如,美國專利商標局要求人類對AI輸出可能形成的發明做出“顯著貢獻”方能獲得專利保護;美國版權局則指出,當AI技術決定其輸出的表達性元素時,生成的材料不受版權保護。這使得商業秘密法成為企業保護AI相關創新的重要工具,因為它既不要求發明人或作者身份,也無需政府批準或注冊。
商業秘密法憑借其高度包容性和廣泛適用范圍,為AI技術創新提供了強有力的保護,能夠覆蓋專利和版權無法涵蓋的敏感信息,例如用于訓練AI系統的數據或模型權重。因此,業內有人戲稱,用商業秘密保護AI技術堪稱“天作之合”。AI開發者和用戶可以借助商業秘密法保護與AI技術相關的核心信息,同時規避傳統知識產權保護所面臨的時間限制和程序繁瑣等約束。然而,將商業秘密法應用于AI技術的保護也面臨諸多挑戰,包括技術透明性不足、法律手段濫用以及公共利益受損等。
AI技術的快速發展帶來了“饑餓”與“喂養”的矛盾:一方面,AI對數據、算法和算力有著永無止境的需求;另一方面,商業秘密法作為保護AI技術創新的重要工具,其“黑箱化”特性與社會對AI技術透明性需求之間的沖突日益凸顯,可能使AI技術從“喂養”階段逐步演變為“吞噬”階段,帶來深遠的社會和倫理影響,進一步加劇AI技術治理的難度。
能用保密信息喂養GenAI嗎
日常使用生成式人工智能(GenAI)處理文件或生成報告雖具便利性,但用保密數據喂養GenAI已被多國明確認定為違法泄密,且存在不可逆的泄露風險。例如歐盟《通用數據保護條例》禁止傳輸可識別的自然人信息,歐盟《商業秘密保護法》則保護企業核心機密數據(如定價策略、技術圖紙、客戶名單);中國《個人信息保護法》和《反不正當競爭法》同樣嚴令禁止這類行為,違者將面臨高額罰款乃至刑事責任。
國際案例反復印證由此引起的泄密風險:三星電子員工2023年3月使用ChatGPT調試半導體設備源代碼,導致核心代碼及良品率數據泄露,20天內連發3起事故,迫使三星全面禁用公共AI工具;2024年1月30日,美國科技媒體Ars Technica報道ChatGPT曾泄露私人聊天密碼及未公開研究項目細節;2023年4月,意大利監管機構一度封禁ChatGPT,禁止OpenAI處理意大利用戶數據。
GenAI技術層面存在系統性缺陷:即便將數據脫敏(如市占率從具體數值泛化為區間值),仍無法消除身份識別風險且顯著降低數據的商業價值。因此必須建立嚴格規范:核心商業秘密禁止接觸公共AI,非敏感數據需經身份隱藏與業務背景剝離雙重處理。最可靠方案是采用本地化部署實現數據物理隔離。全球案例表明:公共AI與機密數據本質互斥,效率提升絕不能突破法律底線。
商業秘密法與AI:從保護到反噬
鑒于商業秘密法的高度包容性,其保護范圍在AI領域廣泛擴張,涵蓋了算法、模型權重、數據集和運行邏輯等幾乎所有技術要素。這種全面保護雖然為企業提供了法律支持,但也導致了過度保護和濫用,甚至引發了一系列法律、倫理、經濟和社會危機。這些問題相互交織,構成了復雜的系統性挑戰。
商業秘密法的核心作用是保護經營創新和技術創新,確保經營信息和技術信息一定的獨占性,從而推動企業研發投入和技術進步。這種保護機制能夠有效制止不正當競爭,維護市場秩序,為AI技術的開發和應用提供法律支持。然而,在實際應用中,商業秘密法的功能也可能帶來負面影響,例如過度保護導致技術共享受限,打擊健康的創新生態,甚至阻礙AI技術的開放與協作。
與此同時,商業秘密法通過保護經營信息和技術信息,強化了企業的私權保障,使其能夠通過獨占信息獲取競爭優勢。然而,私權保護的擴張也帶來了權利失衡的問題:公眾對技術的知情權、監督權和參與權空間受到壓縮,中小企業因技術壁壘被排除在AI研發與應用之外。一些企業甚至可能濫用商業秘密法,通過惡意訴訟限制競爭對手或員工合理流動,進一步強化技術壟斷,損害整體社會公平。
透明性缺失是商業秘密法在AI領域的另一大挑戰。AI技術的“黑箱化”特性與透明性需求之間存在根本矛盾,尤其在醫療、司法和公共政策等高風險領域可能導致嚴重后果。例如,公眾無法了解AI系統的決策依據,容易掩蓋算法偏見并誤導決策者。同時,商業秘密法限制了公眾和監管機構對AI技術的監督,使技術濫用或錯誤決策隱蔽化。
在公共利益領域,商業秘密法的私權保護可能與社會需求發生沖突,尤其在醫療、司法和環境等關乎公共利益的領域。例如,AI診斷算法的保密性可能導致誤診或歧視性醫療服務,司法算法因訓練數據偏見破壞司法公平,氣候預測模型的不透明性可能阻礙全球應對氣候變化目標的實現。這些問題不僅損害社會整體利益,還可能引發公眾對AI技術的失信。
AI技術的“黑箱化”與商業秘密法的保密性疊加,加劇了透明性危機,破壞公眾信任,并掩蓋技術濫用的風險。
在經濟維度上,商業秘密法的保護機制可能強化少數AI巨頭的技術壟斷地位,導致市場壁壘提高和技術紅利集中化。少數公司控制AI核心技術,排斥中小企業和研究機構參與,損害市場競爭與創新動力。同時,AI技術紅利集中于少數科技公司和資本集團,普通公眾難以受益,進一步加劇了社會資源分配的不平等。
AI技術的快速迭代及其可能帶來的危機表明,商業秘密法的應用必須在保護AI技術創新與維護公共利益之間找到平衡點。通過規范保護范圍、增強技術透明性、促進技術開放與共享,并在涉及公共利益的領域優先考慮社會需求,才能緩解商業秘密法在保護AI上的局限性。同時,法律、倫理、經濟和社會治理需要協同推進,以確保AI技術既能推動社會進步,又能避免對人類社會的反噬。
商業秘密法與倫理治理協同
規避AI技術“反噬效應”的關鍵在于重新審視商業秘密法的適用邊界,并在法律與倫理協同治理框架下進行調整。通過引入透明性要求、限定保護范圍、實施強制許可制度以及推動法律與技術協同發展,可以在保護企業AI私權與維護公共利益之間尋求動態平衡,從而實現AI技術創新與社會發展的和諧共存。
在涉及公共利益的高風險AI系統(如醫療、司法、環境等領域)中,透明性是保障社會信任和技術倫理的核心。商業秘密法的保密性邏輯與AI透明性需求形成矛盾,必須通過算法透明性披露、獨立第三方審查和分級透明性機制來緩解這一沖突。透明性要求并非完全公開企業的核心敏感技術,而是通過限定披露范圍和程度,在高風險領域確保公共利益優先,同時維護社會信任和倫理秩序。
限定商業秘密法的保護范圍是防止其濫用與過度擴張的重要措施。將商業秘密限定于真正具有商業價值且無法合法獲取的技術信息(如排除通用算法和公共數據集),并動態調整保護期限以適應AI技術迭代速度,可以有效避免長期保護抑制競爭。同時,建立懲罰機制防止惡意訴訟,進一步維護AI技術生態的開放性和公平性。
強制許可制度的引入是優先保障公共利益的必要補充。在特定緊急情況下(如公共健康危機、全球氣候變化、自然災害),商業秘密的保密性可能與公共利益發生沖突。通過引入公共利益優先原則,賦予政府在重大領域強制使用受保護技術的權力,并建立明確的適用條件、程序和補償機制,可以確保關鍵AI技術服務于公眾,同時給予該技術提供方合理的經濟補償。這一制度體現了公共利益優先原則,是商業秘密法在特殊情況下不可或缺的平衡機制。
推動法律與技術協同發展是調整優化商業秘密法保護AI技術的必要路徑。通過跨學科合作,將透明性要求納入AI行業標準,開發算法可解釋性工具,可以促進商業秘密法與AI技術的深度融合。
小結:商業秘密法的邊界重塑
面對AI技術快速發展帶來的法律、倫理、經濟和社會挑戰,商業秘密法在AI領域的應用亟須重新界定邊界,以緩解技術創新與公共利益之間的張力,其中嚴禁使用保密信息訓練GenAI等公共AI工具已成為基本前提。
必須構建四重協同監管機制:首先合理限定商業秘密保護范圍,僅覆蓋具有實質商業價值的核心算法與數據集,排除通用技術及公共數據,并根據AI技術迭代速度動態調整保護期限;其次實施強制性透明披露要求,對高風險領域建立分級透明制度,要求披露算法決策邏輯框架并引入獨立第三方審計;同時確立公共利益優先原則,在緊急情況下啟動強制許可機制;最后推動技術與法律深度融合,開發可解釋性工具(如模型蒸餾技術)并將AI倫理標準納入認證體系。
這種系統性重構能使商業秘密法從封閉保護轉向包容性開放治理,既保障企業核心創新安全,又通過物理隔離公共AI(如本地化部署)和雙重脫敏處理非敏感數據來嚴守法律底線,最終在打破技術壟斷中實現AI紅利共享與社會信任重建,確保技術私權與公共利益的動態平衡。這種平衡不僅關乎商業秘密法的完善,更決定著AI技術的未來。只有在法律框架內實現技術透明與社會責任的統一,才能確保AI技術創新與社會發展和諧共進,避免因數據“饑餓”與“喂養”失衡而對社會造成“反噬效應”。
(作者系華中科技大學知識產權與競爭法中心主任、二級教授)
幫企客致力于為您提供最新最全的財經資訊,想了解更多行業動態,歡迎關注本站。鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。