三周年審視:ChatGPT為何難圓AGI夢?
2022年11月30日,ChatGPT正式發(fā)布,至今已經(jīng)三周年。它創(chuàng)造了前所未有的輝煌,成為歷史上增長最快的消費級產(chǎn)品之一,但客觀來說,ChatGPT并未達(dá)到人們期望的高度。
期望與現(xiàn)實:被打破的樂觀預(yù)言
中立者認(rèn)為,AGI是可以實現(xiàn)的,AI將為人類帶來巨大收益,但類似ChatGPT的大語言模型可能無法孕育AGI;從技術(shù)角度看,LLM存在天生頑疾,這是當(dāng)前人類很難克服的。之前許多大佬曾鼓吹,只要提供更多數(shù)據(jù)、添加更多GPU,就能催生出通用人工智能?,F(xiàn)在,人們對這種論調(diào)不再迷信,開始回歸冷靜。
OpenAI CEO奧特曼還曾宣稱,LLM將讓生產(chǎn)力提升10倍,很快我們就會看到,一家估值10億美元的企業(yè),可能只有一名員工。這些假設(shè)無一成真。在生產(chǎn)力方面,LLM的確在某些領(lǐng)域可以提升30%,但離宣揚的10倍相去甚遠(yuǎn)。甚至有研究證明,LLM對程序員產(chǎn)生了負(fù)面影響。
《經(jīng)濟學(xué)人》更是失望地表示:“生成式AI浪潮已持續(xù)三年,但其市場需求卻出人意料地疲軟?!卑讓m一位高級官員最近警告稱,如果生成式AI出現(xiàn)問題,可能引發(fā)經(jīng)濟衰退。投資者猜測,美國可能是想用政府資金補助AI。如果美國經(jīng)濟真的出現(xiàn)衰退,ChatGPT可能會成為風(fēng)暴中心。
核心困境:始終未解的技術(shù)頑疾
當(dāng)我們將時光拉回到2022年12月,那時的ChatGPT每周都會帶來新消息,雖然效果讓人驚嘆,但問題已經(jīng)出現(xiàn),例如,它被幻覺困擾,無法理解物理世界和心理世界,這些問題今天仍然沒有解決。一度被業(yè)界推崇的“縮放定律”被推翻,哪怕是擴大模型規(guī)模,也會犯一些低級錯誤。雖然AI吞噬了大量的互聯(lián)網(wǎng)信息,仍然無法提供可靠、全面的醫(yī)療建議。
AI無法可靠駕駛汽車,無法操控人形機器人,無法成為可靠的通用工具,無法輸出符合人類價值觀的信息。從2022年到2025年,美國在AI領(lǐng)域投資數(shù)萬億美元,我們不禁要問:“AI到底留下了什么?”從GPT-4.0、GPT-4.1、GPT-4.5到GPT-5,從Claude、Gemini、Grok、Llama、DeepSeek到所有變體模型,都未能解決最根本的問題,而且似乎看不到解決的希望。
對于任何秉持理智誠實的人來說,我們無法不承認(rèn):數(shù)百個主流模型始終存在相似的失效模式。如果模型真能解決真正的痛點,無疑將具有巨大價值,但它們沒有解決。當(dāng)前的AI模型強大嗎?當(dāng)然強大,但這種強大缺乏有效可控性。AI無法可靠推理,無法與工具協(xié)作,存在幻覺,無法解決“對齊”問題。一切都在證明,當(dāng)前的AI并非完美解決方案。
人工智能批評家休伯特·德雷福斯(Hubert Dreyfus)曾說:“深度學(xué)習(xí)(LLM 的底層技術(shù))是一架更好的梯子,但更好的梯子未必能帶你登上月球。”越來越多的人開始認(rèn)清真相,開始回歸理性,這是好事。事實上ChatGPT 并未真正成熟,它始終未能解決核心挑戰(zhàn)。在不借助神經(jīng)符號系統(tǒng)和世界模型的前提下,它可能永遠(yuǎn)無法解決這些問題。
泡沫退潮:從狂歡到理性的回歸
曾經(jīng),媒體跟著CEO們狂歡、搖擺,將ChatGPT吹捧為歷史上最偉大的互聯(lián)網(wǎng)產(chǎn)品,卻忽視了搜索引擎的巨大盈利能力以及更高的普及率。幾年前,那些宣稱AGI將在2-3年內(nèi)實現(xiàn)的預(yù)言家們,今天是否尷尬?
英偉達(dá)無疑是這場狂歡的最大明星,過去幾年,它的股價瘋漲,現(xiàn)在開始回調(diào)。11月,英偉達(dá)股價下跌16%。許多人都在說,AI泡沫已經(jīng)觸及頂峰。OpenAI沒有上市,如果它是上市公司,11月份也會大跌。除了受到大浪潮的影響,還有一個原因是OpenAI 缺乏護(hù)城河。
ChatGPT 技術(shù)很容易復(fù)制,沒有多少核心機密。因為復(fù)制者太多,ChatGPT 必然面臨價格戰(zhàn)。到今天,除了英偉達(dá)從LLM生態(tài)中賺到錢,其他企業(yè)幾乎都陷入虧損,無法自拔?,F(xiàn)在連OpenAI CEO奧特曼也承認(rèn),公司面臨階段性經(jīng)濟風(fēng)險。為什么OpenAI估值能飆升到5000億美元?不是因為它多能賺錢,而是因為預(yù)期。現(xiàn)在這種預(yù)期正面臨挑戰(zhàn),可能化為泡影。
幾乎所有人都承認(rèn),LLM只是聽起來合理,并非事實準(zhǔn)確。在我們的常識中,一件事情看起來多厲害,和實際多有用,二者之間有天壤之別。我們無數(shù)次看到新聞媒體鼓吹說:“人工智能模型在標(biāo)準(zhǔn)化智商測試中得分已超過120,接近人類天才的水平?!币苍S真是這樣,但誤導(dǎo)性極強。智商126分的模型,可能無法察覺連兒童都能發(fā)現(xiàn)的倫理問題,當(dāng)任務(wù)略微超出訓(xùn)練范圍時,模型就會遭遇災(zāi)難性失敗。這樣的智商得分,可信度有多高?真稱得上是天才嗎?
雖然現(xiàn)實充滿挑戰(zhàn),我們?nèi)皂毐3謽酚^。前1000天可能只是人工智能的奠基階段,未來1000天才是人工智能真正的爆發(fā)期,是價值變現(xiàn)時期,希望這樣的猜測能夠成真吧。(小刀)





