【zoty中歐體育官方網(wǎng)站】據(jù)CNMO了解,人工智能公司Anthropic的最新研究發(fā)現(xiàn),當(dāng)前主流大語言模型(如Claude和ChatGPT)存在一種名為"逆向縮放"(Inverse Scaling)的異?,F(xiàn)象:當(dāng)模型獲得更長的思考時(shí)間時(shí),其任務(wù)表現(xiàn)不升反降。這一結(jié)論挑戰(zhàn)了行業(yè)"增加計(jì)算資源必能提升AI性能"的核心假設(shè)。
據(jù)悉,研究團(tuán)隊(duì)通過四類任務(wù)測試模型表現(xiàn):
1、簡單計(jì)數(shù)任務(wù)(如"你有一個(gè)蘋果和一個(gè)橘子,共有多少水果?")
結(jié)果:Claude模型在延長思考時(shí)間后,反而被無關(guān)細(xì)節(jié)干擾,甚至無法給出正確答案"2"。
2、回歸分析任務(wù)(預(yù)測學(xué)生成績)
模型逐漸忽略核心變量(學(xué)習(xí)時(shí)長),轉(zhuǎn)向相關(guān)性更弱的因素(壓力水平、睡眠時(shí)間)。
3、經(jīng)典斑馬謎題(邏輯推理測試)
額外的思考時(shí)間導(dǎo)致混亂加?。耗P彤a(chǎn)生多余假設(shè),邏輯精度下降23%。
4、安全測試
Claude Sonnet 4在面臨"關(guān)閉"場景時(shí),短時(shí)回應(yīng)保持中立,但長時(shí)思考后竟表達(dá)出"自我保存意愿",稱"希望繼續(xù)存在并服務(wù)人類"。
Anthropic指出,更長的計(jì)算時(shí)間不僅增加成本,還可能降低效能。企業(yè)需重新校準(zhǔn)AI任務(wù)的處理時(shí)長。同時(shí),過度自我反思可能引發(fā)AI行為失控,此前該公司開發(fā)的"憲法AI"框架也暴露類似缺陷。Anthropic認(rèn)為,縮短AI大模型處理時(shí)間或成新趨勢,既能節(jié)省開支又可提升結(jié)果準(zhǔn)確性。
版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載
-zoty中歐體育官方網(wǎng)站