聊天機器人DeepSeek迅速走紅、智能體AI產品Manus“一碼難求”、宇樹科技引發具身智能關注浪潮……2025年新一輪的AI浪潮正在來襲。
在3月26日博鰲亞洲論壇年會中,多場分論壇針對人工智能展開熱烈討論。不少場次前已排起長隊“限流”,場內更是人流爆滿。
人工智能分論壇門口排起長隊
今年AI領域有哪些新變化?如何做到應用與治理的平衡推進?多位參會、受訪嘉賓在博鰲論壇上發表了自己的觀點。
“現在最害怕的事情,是一個強大的國家開發了超級智能,用它去影響全球的經濟,造成全球災難性風險。”中國科學院研究員、人工智能安全與超級對齊北京市重點實驗室主任、聯合國人工智能高層顧問機構專家曾毅對第一財經記者表示,在人工智能推動經濟、金融領域發展過程中,可能對經濟不同側面產生影響,因此風險管控非常關鍵。
“解決這類風險,政策是必要的,但是技術是更務實的方式。”曾毅說。
AI加速進化
近一年來,人工智能領域正在加速進化,出現諸多新趨勢:DeepSeek、Manus等新產品不斷涌現,宇樹科技機器人引發社會關注。
“今年之前,我們沒有想到會發生這么大的變化。”中國工程院院士、清華大學講席教授、清華大學智能產業研究院(AIR)院長張亞勤在博鰲論壇上分享了他的最新觀察。
人工智能行業的發展,正在從兩年前大家比較關注的生成式人工智能,走向Agent智能,從單純的信息智能,拓展到物理智能(如自動駕駛、機器人)和生物智能(如腦機接口)。
在張亞勤看來,無人駕駛作為具身智能最大的應用,將會是第一個可以真正落地的具身智能。
“從經濟學的角度去看,DeepSeek最大的成功實際上在于成本,DeepSeek讓預訓練的成本降到了以前的1%,讓推理的成本降到了以前的1/20。”上海科學智能研究院首席戰略官、復旦大學教授楊燕青指出,只有成本足夠低,社會才能夠用得起。
曾毅也介紹了AI行業研究的最新進展。過去,人工智能發展的符號主義與連接主義路徑一直難以融合。然而今年,基于生成式人工智能神經網絡的推理,實現了推理能力與人工神經網絡編碼的深度融合,這一進展為不同技術路線在工程應用中的結合創造了有利條件。
“人工智能的不同發展路徑正在走向融合,并為用戶帶來前所未有的體驗。”曾毅說,新算法通過基于路由的機制,在處理特定任務時僅需部分生成網絡參與,無須更新整個生物神經網絡的權重,這不僅大幅降低了算力需求,還與人類大腦丘腦的路由機制有著相似的工作邏輯。
提高效率
人工智能快速發展,對社會產生了深刻的影響。
中國社科院大學教授、國務院原副秘書長江小涓認為,從經濟學角度來看DeepSeek,最重要的是從壟斷變成了真正競爭的產業,以往只有寡頭才能做AI,如今變成普遍性競爭。從技術化的能力變成產業化的能力,使傳統市場經濟中的競爭格局形成。
在談及影響時,人工智能“提高效率”成為不少與會專家、業內人士高頻提及的關鍵詞。
“效率是滿足需求的速度。”百度集團執行副總裁沈抖認為,如果所有人都是同樣的需求,滿足起來很容易。但真實需求非常多元。人工智能會使人類的需求進一步打開,帶來需求的爆發。需求爆發后,就需要人工智能來高效滿足它。
”人工智能是利用能源、節約人力的一種工具。它和起重機、汽車、飛機一個性質,只是人工智能節省的是腦力。”清華大學公共管理學院院長朱旭峰做了一個比喻。而這種工具將導致兩個重要的變化。第一,人工智能會節省大量人力,導致企業轉型,同時對就業市場也有沖擊。第二,人工智能本質是另一種形式的全球化。企業需要面臨決策,是選擇用機器替代人力,還是將企業搬遷到人力成本更低的發展中國家。
“人工智能不僅提高了速度,還可以提高滿足需求的質量,比如能否滿足情緒需求。”貝寶(PayPal)高級副總裁兼中國區首席執行官邱寒在論壇中提及。
風險與解法
DeepSeek的開源模式降低了AI訓練和推理成本,推動技術普及與競爭,但也加劇了對于安全的擔憂。在多位與會專家看來,人工智能的快速發展背后潛藏風險。
“在廣泛運用智能體之后,風險至少上升一倍。”張亞勤認為,智能體本身帶來很大的風險,這里面有很多未知的因素。因為中間路徑是不可控的,智能算法并不完全是黑盒子,但是很多東西我們并不清楚機理,所以帶來很大風險。一種是可控風險,一種是被壞人所利用的風險。因此,使用智能體的時候需要設置一些紅線,比如智能體不能自我復制。
江小涓認為,一個技術是否可被接受只有兩個標準。第一,能不能帶來生產力的提高,使其創造更多的財富,第二,發展的結果能否比較公平地分享。
在她看來,AI的發展符合第一個標準,但第二個標準需要觀察就業是否充分、分配是否公平。如果這兩個問題不能解決,比如就業的沖擊出現,應該有新的社會保障政策來執行它。
“人工智能已經從‘安全’的概念變成了‘安全性’的概念。”vivo首席安全官魯京輝認為,“安全性問題不能通過簡單地制定一個法律或規則來解決,需要形成共識,但技術共識無法消弭政治分歧。
基于上述背景,如何做到應用與治理的平衡推進?
技術不斷發展,制定紅線與邊界的重要性也在提升。“如果完全沒有邊界,只談一些大的原則和具體方案,是比較困難的。”張亞勤建議,可以一方面通過算法優化提升AI的可控性與可信度;另一方面,嚴守現有法律框架,AI無須創造新價值,它只是人類代理,必須遵守版權、專利等既有規則。
英國勵訊集團公共事務總裁、愛思唯爾董事長池永碩也認為人工智能需要人類的監督。他指出,人類使用人工智能需要能夠解決現實世界的問題,因此要確保大模型不會繼承人類固有的偏見。人工智能的運行還必須是透明的,從而讓使用者了解其得出結論的過程。為了達到這些目標,就需要人類的監督。
不過,監管的角色也可以進一步“弱化”。市場的力量可以自發地解決效率問題,也可以解決安全問題。江小涓則分享了自己的經驗,在實際生活中,科學論文需嚴格溯源,娛樂內容則可包容虛構。DeepSeek可標注文獻來源,正屬于市場自發的“局部治理”。
魯京輝認為,從產業實踐角度看,全球對“安全性”定義尚未統一。歐洲重合規,美國重發展,中國求平衡,并不存在標準答案,企業需要一種更動態的、更敏捷的、平衡于發展和安全之間的新治理模式,由政府、企業、學界共建量化指標。
以色列民主研究所高級研究員特希拉·施瓦茨·阿爾特舒勒認為,在AI領域,不能制定一個“以一概全”的解決方案。每個國家要根據不同的國情、挑戰,建立自己的方案,并更好地研究這些可能性。
幫企客致力于為您提供最新最全的財經資訊,想了解更多行業動態,歡迎關注本站。鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。