• <center id="4qmu8"></center>
  • <sup id="4qmu8"></sup>
    <bdo id="4qmu8"></bdo>
    <center id="4qmu8"><nav id="4qmu8"></nav></center>
    <center id="4qmu8"><nav id="4qmu8"></nav></center>
    <tbody id="4qmu8"><tbody id="4qmu8"></tbody></tbody>
    深圳熱線

    瞭望 | 我們能為人工智能超預期進化做些什么

    2025-02-18 17:53:40 來源:新華網

    當人類自己的發明成為一個難以理解的謎團,并且以超乎所有人想象的速度不斷演進時,我們能夠為此做些什么?

    文 |《瞭望》新聞周刊記者 梁姊 郭晨 董雪

    農歷春節期間,深度求索公司的DeepSeek大模型,因兼具低成本與高性能特征,大幅降低了AI大模型的部署成本,在全球范圍內引發熱議。

    技術狂歡的另一面,是技術焦慮。從AI換臉致詐騙頻發,到“AI聊天機器人致死第一案”,再到科幻小說中已泛濫的“AI取代人類”……隨著大模型能力不斷提升,人工智能似乎正走向一個關鍵的轉折點。作為極有可能超越人類智慧的終極智慧,人工智能的“奧本海默時刻”是否不斷逼近或是已經到來?

    “奧本海默時刻”源于核武器的發展歷程。1945年,物理學家奧本海默在目睹原子彈的巨大破壞力后,意識到科學技術的雙刃劍特性。他在《原子科學家公報》中寫道:“科學家們知道,他們已經改變了世界。他們失去了天真。”這種對科技潛在危害的深刻反思,成為科技發展史上一個重要警示。

    如今,人工智能的發展也面臨著類似境況。在受訪者看來,人工智能的“奧本海默時刻”指的是人工智能正在逼近通用人工智能階段,即人工智能向人類看齊,甚至可能超越人類智慧。

    當人類自己的發明成為一個難以理解的謎團,并且以超乎所有人想象的速度不斷演進時,我們能夠為此做些什么?

    人工智能會否失控

    擔憂AI系統失控并非杞人憂天。2023年5月,超過350名技術高管、研究人員和學者簽署了一份聲明,警告人工智能帶來的“存在風險”;此前,埃隆·馬斯克、蘋果公司聯合創始人史蒂夫·沃茲尼亞克等人簽署了一份公開信,認為人工智能開發人員“陷入了一場失控的競賽,開發和部署更強大的數字思維,沒有人——甚至是它們的創造者——能夠對其加以理解、預測或可靠地控制。”

    人工智能因其多領域能力快速突破、自主意識初步顯現和指數級增長速度讓越來越多人認真考慮向充滿競爭的世界釋放人工智能技術存在的危險。

    特定領域超越人類能力。從臨床診斷到數學證明,從病毒發現到藥物研發,在一些特定領域,人工智能已展現出超越人類的能力。

    斯坦福大學等機構的一項臨床試驗中,人類醫生在特定領域單獨做出診斷的準確率為74%,在ChatGPT的輔助之下,這一數字提升到了76%。如果完全讓ChatGPT“自由發揮”,準確率能達到90%。

    如今,這種特定領域優勢正在加速向跨領域的通用能力泛化。去年初,被稱為“物理世界模擬器”的Sora橫空出世,以場景媒介構筑了一個與人類認知感覺相似的真實場景,推動人工智能由二維邁向三維;工業機器人、自動駕駛、無人機等應用愈發廣泛,具身智能更是賦予了AI“身體”……人工智能的多模態能力正在向現實世界的感知與操縱能力進化。

    近一年來,受可用數據、芯片和能源等因素影響,AI技術的增長斜率有所放緩,業內對實現通用人工智能(AGI)的時間預測趨于謹慎,但仍有不少“技術樂觀派”對5到10年內實現AGI充滿期待。

    創造能力實現突破。創造能力在一定程度上被視為人與AI的區別之一,當前,人工智能正在從簡單的模仿向創造新知識、新認知的方向發展。

    例如,在科學研究領域,蛋白質結構預測的人工智能AlphaFold2能在幾分鐘內預測出一個典型蛋白質的結構,還能預測較大蛋白質的結構。2021年,AlphaFold2已完成人類所有蛋白質的結構預測,2022年7月,已完成了2億多種蛋白質的預測結構。其預測的大部分結構達到了空前的準確度,不僅與實驗方法不相上下,還遠超解析新蛋白質結構的其他方法,顯示出強大的蛋白質結構預測能力。

    這種人工智能生成的知識在質量、可靠性和原創性等方面仍有待提高,但已經對人類的創作方式產生了沖擊。

    自主性初步顯現。盡管AGI尚未實現,但當前人工智能系統已展現出一些類似自主意識的表現。

    最新研究表明,大語言模型(LLM)具備行為自我意識,能夠自發識別并描述自身行為。即,LLM可能會采取策略欺騙人類,以達成自身目的。還有一些AI模型表現出類似人類的創造性使用語言、分享感覺以及表達內省和想象的能力。例如,谷歌推出的LaMDA大模型能夠以前所未有的方式高效、創造性地使用語言,并且會表達對未來的擔憂和對過去的追憶。

    這種內生創造新智能的能力,正在推動AI(Artificial Intelligence,人工智能)向EI(Endogenous Intelligence,內生智能,智能創造智能)進化。

    有業內人士認為,這并不是數字生命體的自我意識,但已經顯示出了一定的自主性和意識的萌芽。在近期的公開采訪中,被稱為“AI教父”的2024年諾貝爾物理學獎得主杰弗里·E·辛頓多次暗示AI可能已經發展出某種形式的自主意識。

    一些聲音認為,未來的人工智能可能會制定自己的目標,并自主決策以實現這些目標。這將使AI的行為更加難以預測和控制。

    人形機器人在湖北“全省加快建成中部地區崛起重要戰略支點推進大會”上展示負重技能(2025年2月5日攝) 肖藝九攝 / 本刊

    潛在風險難預判

    快速發展的人工智能在就業結構、信息安全、社會倫理道德等諸多方面引發了令人擔憂的風險與挑戰。

    職業結構風險。與以往一項新技術的出現將會取代一類職業不同的是,作為一種全維度的生產效率提升工具,人工智能批量替代人工崗位的情況很有可能出現。這可能會帶來潛在財富加速集中和工作兩極化,引發結構風險。

    例如,ChatGPT的出現大幅降低了編程工作的專業性門檻,AI編程工具Cursor讓零基礎完成軟件開發成為可能。據美國計算機協會的統計數據,與五年前相比,軟件開發人員活躍職位發布數量下降了56%。

    該協會認為,在人工智能的助推下,招聘方對候選人的機會要求越來越高,企業正在尋找同時掌握編程和人工智能兩種技術的多面手,具備戰略思維和綜合技能的人才成為新寵。

    受訪人士認為,從技術演進史來看,顛覆性技術帶來的“技術鴻溝”客觀存在,其創造的新技術崗位難以覆蓋被替代的崗位缺口。高、低技能崗位之間差距不斷拉大引發的社會不平等現象加劇,可能會導致不穩定因素堆積,產生社會的結構性風險。

    信息安全風險。東南亞犯罪集團宣稱已將人工智能換臉工具加入其“殺豬盤工具箱”,相關工具對特定目標的模仿相似度能達到60%至95%并已在1000余個區域安裝;2024年11月,ChatGPT為一位美國現役軍人提供爆炸知識,后者成功將一輛特斯拉Cybertruck在酒店門口引爆。

    人工智能在各個領域的廣泛應用,大量個人數據被收集、存儲和處理后,引發信息安全風險。一旦這些數據被泄露或濫用,將對個人隱私和信息安全造成威脅。

    人工智能被用于制造虛假信息,干擾社會輿論的事件不在少數。一條“特朗普盛贊華為創新能力”的虛假視頻曾在網絡上風靡一時。

    當人工智能的視頻和語音生成能力再上新臺階,“虛假的真實”彌散的彼時,當人工智能被用于制造高度定制的、有針對性的錯誤信息而導致“眼見不再為實”時,我們又該如何認知、分辨我們所生活的世界?

    社會與倫理道德風險。2024年10月,全球首例人工智能致死命案發生,一位14歲美國少年在與人工智能聊天系統討論死亡后飲彈自盡,引發社會對AI情感陪伴功能可能帶來的倫理問題的反思。

    業內人士指出,人工智能系統的決策過程往往是基于大量數據和復雜算法得出的,這些決策可能與人類的倫理道德觀念相沖突。例如在醫療領域,當面臨資源有限的狀況時,人工智能如何決定優先救治哪位患者?決策背后如缺乏人類情感和倫理判斷的深度參與,可能導致違背基本倫理原則的結果。

    算法偏見引發的社會公平風險也不容忽視??拼笥嶏w研究院副院長李鑫認為,“互聯網語料來源駁雜,存在較多涉恐、涉暴力、涉黃等風險數據,同時可能包含種族、文化等方面的偏見,導致模型輸出內容可能帶有歧視、偏見等科技倫理風險。”算法偏見可能導致某些群體被不公正地排除在外,加劇社會的不平等現象。

    堅持人類命運共同體理念

    當下對于人工智能“奧本海默時刻”到來可能會產生的諸多風險的討論熱度不減,但AGI尚未實現,我們仍有時間尋求如何馴化這一關鍵技術的解法。

    香港大學計算與數據科學研究院院長馬毅認為,當前AI的發展更多是工程上的突破,而非科學原理的明晰。人工智能系統,特別是深度學習大多是“黑箱”模型,其內部機制不透明,難以理解和追溯,其結果可信度和可用性打了折扣。

    馬毅認為,找到破解人工智能“黑箱”的“鑰匙”,需要智能研究從“黑箱”轉向“白箱”,通過數學方法清晰定義和解釋智能系統的工作原理。“真正的智能系統必須具備自主學習和改進能力,而不僅僅是數據的存儲和處理。”他呼吁研究者們關注智能的科學原理和理論框架,以實現真正意義上的通用人工智能。

    “接下來的10到20年是科研院所、高校與企業聯動實現技術突破的黃金時期。”上海市科學學研究所學術委員會主任吳壽仁建議,從頂層設計上制定投融資、校企聯合實驗室或是聯合共建項目的具體激勵方案,面向人工智能在應用端的真實需求嘗試技術突破。

    此外,多位受訪對象建議,在重點項目分配上向常年身處科研一線、更加熟悉前沿技術、對人工智能認知更為理性客觀的中青年科學家傾斜。

    在技術之外,更重要的是,一旦人工智能迎來“奧本海默時刻”,人類應有怎樣的態度和責任?

    縱觀世界各個角落發生的事件,也許比起將人工智能投入戰場,或是被用于攫取更大的權力集中,人工智能更理想的應用該是為了促進人類的共同命運和共同利益而努力。

    作為AI技術和應用的重要參與者,中國以負責任的態度應對AI治理挑戰,提出包容和有效的治理理念。在國內,我國通過法律框架、技術標準和倫理指南的三元治理促進AI健康發展。在國際上,我國堅持人類命運共同體的理念立場,推動多邊合作治理,提出《全球人工智能治理倡議》,支持在聯合國框架內建立開放和包容的人工智能治理機制。

    中國國際經濟技術合作促進會副理事長邵春堡發文稱,聯合國大會雖然通過我國主提的加強人工智能能力建設國際合作決議,但是在國際合作的實踐中,仍然布滿曲折,需要共同堅持以人為本、智能向善、造福人類的原則,通過國際合作和實際行動幫助各國特別是發展中國家加強人工智能能力建設。

    李鑫認為,包括我國在內的全球首份針對人工智能的國際聲明《布萊切利宣言》發表是一個良好信號,今后我國也應更多參與大模型安全領域國際標準制定、全球人工智能安全評估和測試領域的交流合作。

    關鍵詞:

    熱門推薦

    天天狠天天透天天伊人,国产日韩欧美精品一区二区三区,国产在线观看成人,欧美另类在线视频
  • <center id="4qmu8"></center>
  • <sup id="4qmu8"></sup>
    <bdo id="4qmu8"></bdo>
    <center id="4qmu8"><nav id="4qmu8"></nav></center>
    <center id="4qmu8"><nav id="4qmu8"></nav></center>
    <tbody id="4qmu8"><tbody id="4qmu8"></tbody></tbody>
    主站蜘蛛池模板: 草莓视频丝瓜视频-丝瓜视18岁苹果免费网 | 久久精品乱子伦免费| 中文字幕一区二区日产乱码| 91成人免费观看在线观看| 菠萝蜜网站入口| 欧美伊人久久大香线蕉在观| 国产精品电影久久久久电影网| 啊轻点灬大巴太粗太长视频| 亚洲国产另类久久久精品黑人| 一区二区乱子伦在线播放| 黑人巨茎大战俄罗斯美女| 波多野结衣系列痴女| 日本人与黑人videos系列| 国产精品夜夜爽范冰冰| 人妻少妇精品久久| 99re在线精品视频免费| 精品国产v无码大片在线看| 日本成人在线播放| 国产一级大片在线观看| 乱人伦人妻精品一区二区| 99久久精品费精品国产一区二区| 激情欧美人xxxxx| 少妇厨房愉情理9仑片视频| 国产三级自拍视频| 久久精品电影院| 贱妇汤如丽全篇小说| 最近2018免费中文字幕视频| 国产综合视频在线观看一区| 偷窥无罪之诱人犯罪| 中国精品白嫩bbwbbw| 草莓视频在线观看18| 成人在线观看不卡| 国产乱理伦片在线观看大陆| 久久精品国产99久久久古代 | 天海翼一区二区三区高清视频| 午夜影院app| 丰满女邻居的嫩苞张开视频| 麻豆狠色伊人亚洲综合网站| 最近中文字幕免费mv在线视频 | 日韩精品极品视频在线观看免费| 国自产拍91大神精品|