12月31日,搭載千問AI助手的夸克AI眼鏡迎來首次OTA,AI能力進一步增強。新增錄音紀要、圖文備忘錄、大模型多意圖理解和執(zhí)行、藍環(huán)支付、社區(qū)服務五項新功能,并對受到用戶歡迎的翻譯、行程查詢、音樂播放等功能場景進行優(yōu)化。
當AI大模型訓練需調用50PB氣象數(shù)據(jù),當日自動駕駛車輛產生20GB感知數(shù)據(jù),數(shù)據(jù)洪流正以前所未有的力量沖擊傳統(tǒng)存儲體系。恰逢此時,AI革命與分布式存儲革命形成共振,全閃化拐點的到來更讓這場產業(yè)變革進入加速期。三大變革相互交織,不僅重構了存儲行業(yè)的技術范式與市場格局,更成為數(shù)字經濟縱深發(fā)展的核心支撐。
美國智庫認為,長久以來,中國研究人員一直是美國企業(yè)和學術界AI研究的最大貢獻者之一。原籍中國的研究人員,即使貢獻沒有超過美國本土研究者,至少也不相上下。
腦機接口主要是指通過解讀大腦的腦信號將內部信息轉化為外部信息指令的過程。從1920年德國發(fā)現(xiàn)腦機的存在開始,慢慢的就有了現(xiàn)在的發(fā)展。而當大模型的發(fā)展與腦機接口結合起來,就有了睡眠醫(yī)學前沿進展。
在當今數(shù)字化浪潮中,AI 大模型正以破竹之勢重塑各行各業(yè),成為推動經濟社會發(fā)展的新引擎。然而,這一技術飛躍的背后,是對算力和能源前所未有的巨大需求,能源等式的平衡面臨著嚴峻挑戰(zhàn)。從兆瓦級的能耗飆升到對零碳未來的追求,我們必須深入探討如何在大模型時代實現(xiàn)能源的可持續(xù)發(fā)展。
自 ChatGPT 發(fā)布以來,大模型熱潮持續(xù)蔓延,也推動著人工智能(AI)與硬件融合提速。在當今科技飛速發(fā)展的時代,AI 技術已成為推動各行業(yè)變革的核心力量,智能硬件領域也不例外?!癆I+” 時代的來臨,為智能硬件的創(chuàng)新發(fā)展帶來了前所未有的機遇,加速了智能硬件的創(chuàng)新步伐,使其在人們的生活和工作中扮演著愈發(fā)重要的角色。
近日,微軟(MSFT.US)宣布一項重大戰(zhàn)略舉措 —— 豪擲重金擴大物理基礎設施,加碼自研 AI 模型開發(fā)。
在人工智能飛速發(fā)展的當下,大模型展現(xiàn)出了強大的語言理解與生成能力。然而,要讓這些模型真正在實際場景中發(fā)揮作用,與外部豐富的工具及數(shù)據(jù)源順暢交互至關重要。在此背景下,Model Context Protocol(MCP),即模型上下文協(xié)議應運而生,正悄然改寫 AI 開發(fā)的固有模式,在傳統(tǒng) API 之外開辟出一片新的天地。
8月7日消息,今日,阿里通義千問宣布發(fā)布更小尺寸新模型——Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507。
7月30日消息,日前,中國科學院深圳先進技術研究院發(fā)布了一項名為HYPIR的圖像復原大模型。
在 2025 世界人工智能大會 (WAIC) 期間,Arm 舉辦了以“AI 無處不在:從云到邊盡在 Arm” 為主題的技術論壇。該論壇匯聚了 Arm 技術專家及支付寶、聯(lián)想等合作伙伴代表,共同分享人工智能 (AI) 行業(yè)的發(fā)展趨勢與前沿洞察。開場環(huán)節(jié),Arm 中國區(qū)業(yè)務全球副總裁鄒挺深入解讀了 AI 技術的演進趨勢,分享了由 Arm 調研的《AI 就緒指數(shù)調研報告》,報告中揭示了針對中國市場的核心發(fā)現(xiàn),并系統(tǒng)剖析了 AI 發(fā)展面臨的挑戰(zhàn)及對應解決方案。
隨著芯片規(guī)模突破百億晶體管,傳統(tǒng)可測試性設計(DFT)方法面臨測試向量生成效率低、故障覆蓋率瓶頸等挑戰(zhàn)。本文提出一種基于大語言模型(LLM)的DFT自動化框架,通過自然語言指令驅動測試向量生成,并結合強化學習優(yōu)化故障覆蓋率。在TSMC 5nm工藝測試案例中,該框架將測試向量生成時間縮短70%,故障覆蓋率從92.3%提升至98.7%,同時減少30%的ATE測試時間。實驗表明,大模型在DFT領域的應用可顯著降低人工干預需求,為超大規(guī)模芯片設計提供智能測試解決方案。
在亞馬遜云科技中國峰會上,亞馬遜全球副總裁、亞馬遜云科技大中華區(qū)總裁儲瑞松表示,過去一年,機器智能已經爆發(fā)了,如今AI的發(fā)展又來到了一個拐點,我們正處在Agentic AI 爆發(fā)的前夜。
6月8日消息,蘋果近日發(fā)表了一篇研究論文,稱推理模型全都沒真正思考,無論DeepSeek、o3-mini還是Claude 3.7都只是另一種形式的“模式匹配”,所謂思考只是一種假象。
隨著人工智能技術在各領域的廣泛應用,將大型語言模型(LLM)部署到嵌入式端側設備成為重要趨勢。Llama 2 - 7B作為一款性能優(yōu)異的大語言模型,具有廣泛的應用前景。然而,其龐大的參數(shù)量對嵌入式設備的計算資源和存儲能力提出了巨大挑戰(zhàn)。瑞薩RZ/V2L處理器集成了強大的NPU(神經網絡處理單元),結合INT4量化技術,為在嵌入式端側部署Llama 2 - 7B提供了可行方案。
自誕生以來,人工智能大模型始終被“幻覺”問題困擾。這里的“幻覺”,指的是大語言模型會將虛構信息當作真實事實輸出。
2025年4月29日,阿里巴巴云旗下的Qwen團隊正式發(fā)布并開源Qwen3,作為Qwen系列的最新一代大型語言模型(LLM),包含一系列密集型(Dense)和混合專家(MoE)模型,參數(shù)規(guī)模從0.6億至2350億不等。同日,海光信息技術股份有限公司(以下簡稱“海光信息”)在其“智能深算”戰(zhàn)略引領下,宣布其深算單元(DCU,Deep Computing Unit)已完成對Qwen3全部8款模型(235B、32B、30B、14B、8B、4B、1.7B、0.6B)的無縫適配與優(yōu)化,實現(xiàn)零錯誤、零兼容性問題、秒級部署。這一整合依托基于GPGPU架構的生態(tài)優(yōu)勢和海光DTK軟件棧的領先特性,展現(xiàn)了Qwen3在DCU上的卓越推理性能與穩(wěn)定性,充分驗證了DCU的高通用性、高生態(tài)兼容性及自主可控的技術優(yōu)勢,使其成為支撐AI大模型訓練與推理的關鍵基礎設施。
2025年4月25日,中國,北京——人工智能終端產業(yè)發(fā)展研討會暨人工智能終端工作組第一次全體大會召開,工業(yè)和信息化部副部長熊繼軍出席會議并致辭,工業(yè)和信息化部電子司和科技司、國家發(fā)展和改革委員會、商務部、北京市朝陽區(qū)有關領導參會,各地行業(yè)主管部門以及工作組有關專家學者、企業(yè)單位共200余人參加大會。
在當今數(shù)字化時代,人工智能(AI)無疑是推動各行業(yè)創(chuàng)新與發(fā)展的核心力量。從最初的簡單算法到如今復雜的大模型,AI 的發(fā)展日新月異。而隨著數(shù)據(jù)量呈指數(shù)級增長以及實時處理需求的飆升,傳統(tǒng)的云端 AI 模式逐漸顯露出諸多局限性,尤其是在帶寬受限或對隱私要求極為嚴苛的場景下,依賴遠程云服務器進行 AI 計算已難以滿足實際需求。在這樣的背景下,邊緣生成式 AI 異軍突起,正引領著智能計算領域的全新變革,將智能體驗切實地帶到消費者身邊。