日本黄色一级经典视频|伊人久久精品视频|亚洲黄色色周成人视频九九九|av免费网址黄色小短片|黄色Av无码亚洲成年人|亚洲1区2区3区无码|真人黄片免费观看|无码一级小说欧美日免费三级|日韩中文字幕91在线看|精品久久久无码中文字幕边打电话

當(dāng)前位置:首頁(yè) > 廠(chǎng)商動(dòng)態(tài) > 米爾電子
[導(dǎo)讀]當(dāng) GPT-4o 用毫秒級(jí)響應(yīng)處理圖文混合指令、Gemini-1.5-Pro 以百萬(wàn) token 上下文 “消化” 長(zhǎng)文檔時(shí),行業(yè)的目光正從云端算力競(jìng)賽轉(zhuǎn)向一個(gè)更實(shí)際的命題:如何讓智能 “落地”?—— 擺脫網(wǎng)絡(luò)依賴(lài)、保護(hù)本地隱私、控制硬件成本,讓設(shè)備真正具備 “看見(jiàn)并對(duì)話(huà)” 的離線(xiàn)智能,成為邊緣 AI 突破的核心卡點(diǎn)。

當(dāng) GPT-4o 用毫秒級(jí)響應(yīng)處理圖文混合指令、Gemini-1.5-Pro 以百萬(wàn) token 上下文 “消化” 長(zhǎng)文檔時(shí),行業(yè)的目光正從云端算力競(jìng)賽轉(zhuǎn)向一個(gè)更實(shí)際的命題:如何讓智能 “落地”?—— 擺脫網(wǎng)絡(luò)依賴(lài)、保護(hù)本地隱私、控制硬件成本,讓設(shè)備真正具備 “看見(jiàn)并對(duì)話(huà)” 的離線(xiàn)智能,成為邊緣 AI 突破的核心卡點(diǎn)。

2024 年,隨著邊緣 SoC 算力正式邁入 6 TOPS 門(mén)檻,瑞芯微 RK3576 給出了首個(gè)可量產(chǎn)的答案:一套完整的多模態(tài)交互對(duì)話(huà)解決方案。

RK3576 多模態(tài)純文字:自我介紹

如今,“端側(cè)能否獨(dú)立運(yùn)行圖文多輪對(duì)話(huà)” 已不再是技術(shù)疑問(wèn),而是工程實(shí)現(xiàn)問(wèn)題。RK3576 通過(guò)硬件算力優(yōu)化與軟件棧協(xié)同,將視覺(jué)編碼、語(yǔ)言推理、對(duì)話(huà)管理三大核心能力封裝為可落地的工程方案,而本文將聚焦其多輪對(duì)話(huà)的部署全流程,拆解從模型加載到交互推理的每一個(gè)關(guān)鍵環(huán)節(jié)。

RK3576 多輪對(duì)話(huà):基于歷史回答圖中女孩頭發(fā)和衣服分別是什么顏色

上一次我們?cè)敿?xì)講解在RK3576上部署多模態(tài)模型的案例,這次將繼續(xù)講解多輪對(duì)話(huà)的部署流程。整體流程基于 rknn-llm 里的多輪對(duì)話(huà)案例[1]。

6TOPS算力驅(qū)動(dòng)30億參數(shù)LLM,米爾RK3576部署端側(cè)多模態(tài)多輪對(duì)話(huà)

RK3576 工作狀態(tài)

本文目錄

一、引言

1.1 什么是多輪對(duì)話(huà)?

1.2 多輪對(duì)話(huà)系統(tǒng)鳥(niǎo)瞰:三顆“核心”協(xié)同驅(qū)動(dòng)

1.3 核心邏輯:多輪對(duì)話(huà)的處理流程

二、工程化落地:從源碼到部署的全流程

2.1 依賴(lài)環(huán)境

2.2 一鍵編譯

2.3 端側(cè)部署步驟

三、效果展示:圖文多輪問(wèn)答

四、二次開(kāi)發(fā)與拓展方向

五、結(jié)論與未來(lái)發(fā)展方向

一、引言

1.1 什么是多輪對(duì)話(huà)?

多輪對(duì)話(huà)(Multi-Turn Dialogue)是指用戶(hù)與智能系統(tǒng)通過(guò)多輪交互逐步明確需求、解決問(wèn)題的對(duì)話(huà)形式。這種交互依賴(lài)對(duì)話(huà)歷史的上下文連貫性,要求系統(tǒng)能夠動(dòng)態(tài)理解用戶(hù)意圖、維護(hù)對(duì)話(huà)狀態(tài)并生成符合語(yǔ)境的回應(yīng)。

本質(zhì)是動(dòng)態(tài)語(yǔ)境下的交互推理,其核心在于通過(guò)多輪信息交換逐步明確用戶(hù)需求。例如,用戶(hù)可能先詢(xún)問(wèn) “附近有餐廳嗎?”,系統(tǒng)回應(yīng)后用戶(hù)補(bǔ)充 “要適合家庭聚餐的”,系統(tǒng)需結(jié)合歷史對(duì)話(huà)調(diào)整推薦策略。

這種交互模式與單輪問(wèn)答的區(qū)別在于:

· 上下文依賴(lài)性:每輪對(duì)話(huà)需關(guān)聯(lián)歷史信息(如用戶(hù)偏好、已確認(rèn)的細(xì)節(jié))。

· 狀態(tài)維護(hù):系統(tǒng)需跟蹤對(duì)話(huà)狀態(tài)(如未完成的信息補(bǔ)全),避免重復(fù)詢(xún)問(wèn)或信息遺漏。

· 動(dòng)態(tài)意圖調(diào)整:用戶(hù)可能在對(duì)話(huà)中修正或細(xì)化需求,系統(tǒng)需實(shí)時(shí)調(diào)整響應(yīng)策略

1.2 多輪對(duì)話(huà)系統(tǒng)鳥(niǎo)瞰:三顆“核心”協(xié)同驅(qū)動(dòng)

RK3576 多模態(tài)交互對(duì)話(huà)方案基于 RKLLM 的核心運(yùn)作,依賴(lài)于圖像視覺(jué)編碼器、大語(yǔ)言模型與對(duì)話(huà)管家這三大模塊的協(xié)同配合,三者各司其職、無(wú)縫銜接,共同構(gòu)建起完整的多模態(tài)對(duì)話(huà)能力。

多輪對(duì)話(huà)系統(tǒng)架構(gòu)

1. 圖像視覺(jué)編碼器(Vision Encoder)

· 模型選擇:采用 qwen2_5_vl_3b_vision_rk3576.rknn 模型(本文)。

· 核心作用:將輸入圖像壓縮為視覺(jué) token 如 256 個(gè)視覺(jué) token,直接輸入至大語(yǔ)言模型中,實(shí)現(xiàn)圖像信息向語(yǔ)言模型可理解格式的轉(zhuǎn)換。

2. 大語(yǔ)言模型(LLM Core)

· 模型選擇:搭載 qwen2.5-vl-3b-w4a16_level1_rk3576.rkllm 模型,采用 W4A16 量化方案(本文)。

· 模型規(guī)模:參數(shù)規(guī)模達(dá) 30 億,KV-Cache,為對(duì)話(huà)推理提供核心的語(yǔ)言理解與生成能力。

3. 對(duì)話(huà)管家(Dialogue Manager)

基于純 C++實(shí)現(xiàn),采用單線(xiàn)程事件循環(huán)機(jī)制,承擔(dān)著對(duì)話(huà)流程的統(tǒng)籌調(diào)度工作,具體職責(zé)包括:

· 多輪對(duì)話(huà)的 KV-Cache 維護(hù)與手動(dòng)清除;

· Prompt 模板的動(dòng)態(tài)渲染;

· 用戶(hù)輸入的解析處理與推理結(jié)果的回顯展示。

1.3 核心邏輯:多輪對(duì)話(huà)的處理流程

該方案的多模態(tài)多輪對(duì)話(huà) demo,整體遵循“模型加載 → 圖片預(yù)處理 → 用戶(hù)交互 → 推理輸出”的核心流程,支持圖文一體的多模態(tài)對(duì)話(huà),適配多輪問(wèn)答、視覺(jué)問(wèn)答等典型場(chǎng)景。

具體運(yùn)行機(jī)制可拆解為以下步驟:

1. 模型初始化

首先加載大語(yǔ)言模型(LLM),并配置模型路徑、max_new_tokens(生成內(nèi)容最大 token 數(shù))、max_context_len(最大上下文長(zhǎng)度)、top_k、特殊 token 等關(guān)鍵參數(shù);隨后加載視覺(jué)編碼模型(imgenc),為后續(xù)圖片處理做好準(zhǔn)備。

RK3576 平臺(tái)運(yùn)行多模態(tài)對(duì)話(huà) Demo 的終端日志,顯示視覺(jué)與語(yǔ)言模型成功加載,包含模型版本、硬件配置及張量信息,完成多模態(tài)交互前的初始化。

2. 圖片處理與特征提取

讀取輸入圖片后,先將其擴(kuò)展為正方形并填充背景色以統(tǒng)一尺寸,再調(diào)整至模型要求的 392x392 分辨率,最后送入視覺(jué)編碼模型進(jìn)行處理,生成圖片的 embedding 向量,完成圖像特征的提取。

3. 多輪交互機(jī)制

程序會(huì)提供預(yù)設(shè)問(wèn)題供用戶(hù)選擇(官方案例中也有輸入序號(hào),可以快速提問(wèn)),同時(shí)支持用戶(hù)自定義輸入,核心交互邏輯通過(guò)以下機(jī)制實(shí)現(xiàn):

· 上下文記憶

· 通過(guò)設(shè)置rkllm_infer_params.keep_history = 1,開(kāi)啟上下文記憶功能,KV-Cache 在顯存中持續(xù)追加存儲(chǔ),每輪對(duì)話(huà)僅計(jì)算新增 token,大幅提升推理效率。使模型能關(guān)聯(lián)多輪對(duì)話(huà)內(nèi)容;

· 若設(shè)為 0,則每輪對(duì)話(huà)獨(dú)立,不保留歷史信息,詳見(jiàn)src/main.cpp。

· 歷史緩存清空:當(dāng)用戶(hù)輸入“clear”時(shí),系統(tǒng)調(diào)用rkllm_clear_kv_cache(llmHandle, 1, nullptr, nullptr),清空模型的 KV 緩存,重置對(duì)話(huà)上下文。

· Prompt 工程:動(dòng)態(tài)定義模型“人設(shè)”:采用三段式 Prompt 模板,通過(guò)rkllm_set_chat_template()動(dòng)態(tài)注入模型,無(wú)需重新訓(xùn)練即可切換人設(shè),支持中英文雙語(yǔ)系統(tǒng)提示。

模板示例如下:

<|im_start|>system

You are a helpful assistant.<|im_end|>

<|im_start|>user

{用戶(hù)輸入}<|im_end|>

<|im_start|>assistant

4. 推理與輸出

用戶(hù)輸入后,系統(tǒng)先判斷輸入中是否包含INCLUDEPICTURE \d "D:\\編輯器\\編輯器\\lib\\" \* MERGEFORMATINET 標(biāo)簽:若包含,則將文本與圖片 embedding 結(jié)合,啟動(dòng)多模態(tài)推理;若不包含,則進(jìn)行純文本推理。組裝輸入結(jié)構(gòu)體并傳遞給模型后,推理結(jié)果將實(shí)時(shí)打印輸出。

5. 退出與資源釋放

支持用戶(hù)輸入“exit”退出程序,此時(shí)系統(tǒng)會(huì)自動(dòng)銷(xiāo)毀已加載的模型,并釋放占用的硬件資源,確保運(yùn)行環(huán)境的整潔。

二、工程化落地:從源碼到部署的全流程

由于先前我們已經(jīng)講過(guò)環(huán)境的部署,如刷機(jī)、文件準(zhǔn)備等,這里步驟只提出比較關(guān)鍵的。工程位于:rknn-llm/examples/Multimodal_Interactive_Dialogue_Demo,下面我們來(lái)逐步看下操作步驟。

2.1 依賴(lài)環(huán)境

方案的編譯與運(yùn)行需滿(mǎn)足以下依賴(lài)條件

· 圖像處理:OpenCV ≥ 4.5

· 視覺(jué)模型運(yùn)行:RKNNRT ≥ 1.6

· 語(yǔ)言模型運(yùn)行:RKLLMRT ≥ 0.9

2.2 一鍵編譯

針對(duì)不同操作系統(tǒng)提供便捷的編譯腳本,我們是 Linux 系統(tǒng)執(zhí)行./build-linux.sh,編譯結(jié)果如下:

產(chǎn)物目錄為:

install/demo_Linux_aarch64/

├─ demo # 主程序可執(zhí)行文件

└─ lib # 依賴(lài)動(dòng)態(tài)庫(kù)

2.3 端側(cè)部署步驟

通過(guò) U 盤(pán)或者手機(jī)將編譯好的產(chǎn)物文件、模型、圖片上傳到開(kāi)發(fā)板上,然后在多輪對(duì)話(huà)的實(shí)例的目錄下,執(zhí)行以下命令:

cd /data/demo_Linux_aarch64

export LD_LIBRARY_PATH=./lib

./demo demo.jpg vision.rknn llm.rkllm 128 512

其中,部署命令需傳入 5 個(gè)核心參數(shù),分別對(duì)應(yīng):

· image_path:輸入圖片路徑

· encoder_model_path:視覺(jué)編碼模型路徑

· llm_model_path:大語(yǔ)言模型路徑

· max_new_tokens:每輪生成的最大 token 數(shù)(控制回答長(zhǎng)度,避免溢出)

· max_context_len:最大上下文長(zhǎng)度(限制歷史對(duì)話(huà)+當(dāng)前輸入總長(zhǎng)度,防止顯存占用過(guò)高)

三、效果展示:圖文多輪問(wèn)答

以下面這張圖片作為測(cè)試圖片,選擇下面這張圖是因?yàn)?,有人物、文字、物體、背景等。

測(cè)試圖片2:圖片背景是賽博風(fēng)格

我們依次準(zhǔn)備的問(wèn)題如下:

1. 這張圖片上有哪些文字信息

2. 圖中電路板上的字是什么顏色

3. 圖中女孩頭發(fā)和衣服分別是什么顏色

4. 圖中動(dòng)漫角色看起來(lái)多大年齡

5. 圖中背景顏色和女孩眼睛顏色一樣嘛

每輪對(duì)話(huà)我都有截動(dòng)態(tài)圖,可以感受下體感速度。

rkllm 模型加載 6.7 秒

視覺(jué)編碼 rknn 模型進(jìn)行處理,生成圖片的 embedding 向量,完成圖像特征的提取,4.5 秒

可以明顯感受到這兩個(gè)過(guò)程是串行的,如果異步處理可以更快。

多輪對(duì)話(huà)1:這張圖片上有哪些文字信息

感受一下第一次出詞的耗時(shí)

多輪對(duì)話(huà)1:這張圖片上有哪些文字信息

多輪對(duì)話(huà)2:圖中電路板上的字是什么顏色

第二次回答就非??欤幸粋€(gè)很短暫的等待時(shí)間

多輪對(duì)話(huà)2:圖中電路板上的字是什么顏色

多輪對(duì)話(huà)3:圖中女孩頭發(fā)和衣服分別是什么顏色

多輪對(duì)話(huà)3:圖中女孩頭發(fā)和衣服分別是什么顏色,問(wèn)題基本回答正確,速度和正常閱讀速度差不多

多輪對(duì)話(huà)3:圖中女孩頭發(fā)和衣服分別是什么顏色

多輪對(duì)話(huà)4:圖中動(dòng)漫角色看起來(lái)多大年齡

多輪對(duì)話(huà)4:圖中動(dòng)漫角色看起來(lái)多大年齡

多輪對(duì)話(huà)4:圖中動(dòng)漫角色看起來(lái)多大年齡

多輪對(duì)話(huà)5:圖中背景顏色和女孩眼睛顏色一樣嘛

記不住了,因?yàn)槲覀冊(cè)O(shè)置的rkllm_infer_params.keep_history = 1

代碼中keep_history = 1是開(kāi)啟上下文記憶功能,即模型應(yīng)記住前序?qū)υ?huà)中的關(guān)鍵信息,如 “女孩眼睛顏色”“背景顏色”,而 “記不住” 是記憶功能未生效的表現(xiàn),原因可能除了超過(guò)歷史上下文預(yù)設(shè)的閾值,有時(shí)還有可能是因?yàn)樯舷挛拈L(zhǎng)度超限(max_context_len=512),或者KV-Cache 清理機(jī)制誤觸發(fā)等。

多輪對(duì)話(huà)5:圖中背景顏色和女孩眼睛顏色一樣嘛

四、二次開(kāi)發(fā)與拓展方向

方案具備良好的可擴(kuò)展性,便于開(kāi)發(fā)者根據(jù)需求進(jìn)行二次開(kāi)發(fā):

1. 替換視覺(jué)骨干:修改image_enc.cc文件,將輸入分辨率調(diào)整為與模型匹配的大小,原因是這些參數(shù)與模型的固有結(jié)構(gòu)設(shè)計(jì)和輸入處理邏輯強(qiáng)綁定,直接影響特征提取的正確性和數(shù)據(jù)傳遞的一致性。不同的 Qwen2-VL 模型(2B 和 7B)需要代碼中指定IMAGE_HEIGHT、IMAGE_WIDTH及EMBED_SIZE;

2. 微調(diào) LLM 模型:借助 RKLLM 工具鏈的 LoRA-INT4 量化支持,在 24 GB 顯存的 PC 上,30 分鐘內(nèi)可完成 2 億參數(shù)模型的增量訓(xùn)練;

3. 接入語(yǔ)音能力:在main.cpp中集成 VAD(語(yǔ)音活動(dòng)檢測(cè))+ ASR(語(yǔ)音識(shí)別,如 Whisper-Tiny INT8)模塊,將語(yǔ)音轉(zhuǎn)換為文本后接入現(xiàn)有推理流水線(xiàn),實(shí)現(xiàn)“看圖說(shuō)話(huà)+語(yǔ)音問(wèn)答”的融合交互。

五、結(jié)論與未來(lái)發(fā)展方向

如果說(shuō) “大模型上云” 是 AI 的 “星辰大?!保敲?“多模態(tài)落地端側(cè)” 就是 AI 的 “柴米油鹽”—— 后者決定了智能技術(shù)能否真正滲透到智能家居、工業(yè)質(zhì)檢、穿戴設(shè)備等千萬(wàn)級(jí)場(chǎng)景中。RK3576 的多模態(tài)交互對(duì)話(huà)方案,其價(jià)值遠(yuǎn)不止 “實(shí)現(xiàn)了一項(xiàng)技術(shù)”,更在于提供了一套 “算力適配 - 工程封裝 - 二次拓展” 的端側(cè) AI 落地范式。

從技術(shù)內(nèi)核看,它通過(guò) “視覺(jué)編碼器 + LLM + 對(duì)話(huà)管家” 的模塊化設(shè)計(jì),平衡了推理性能與開(kāi)發(fā)靈活性:W4A16 量化方案讓 30 億參數(shù)模型適配 6 TOPS 算力,KV-Cache 動(dòng)態(tài)維護(hù)實(shí)現(xiàn)多輪對(duì)話(huà)效率躍升,單線(xiàn)程事件循環(huán)降低了資源占用 —— 這些細(xì)節(jié)不是技術(shù)炫技,而是直擊端側(cè) “算力有限、場(chǎng)景碎片化” 的痛點(diǎn)。從工程落地看,一鍵編譯腳本、清晰的參數(shù)配置、可復(fù)現(xiàn)的部署流程,讓開(kāi)發(fā)者無(wú)需深耕底層優(yōu)化即可快速驗(yàn)證場(chǎng)景,大幅縮短了從技術(shù)原型到產(chǎn)品的周期。

展望未來(lái),這套方案的演進(jìn)將圍繞三個(gè)方向深化:

· 其一,算力效率再突破—— 通過(guò)異步模型加載、NPU 與 CPU 協(xié)同調(diào)度,進(jìn)一步壓縮首輪推理延遲,適配對(duì)響應(yīng)速度敏感的車(chē)載、醫(yī)療等場(chǎng)景;

· 其二,多模態(tài)融合再升級(jí)—— 在圖文基礎(chǔ)上集成語(yǔ)音、傳感器數(shù)據(jù),實(shí)現(xiàn) “看 + 聽(tīng) + 感知” 的跨模態(tài)對(duì)話(huà);

· 其三,生態(tài)適配再拓展—— 支持更多開(kāi)源多模態(tài)模型的快速移植,形成 “芯片 - 工具鏈 - 模型” 的協(xié)同生態(tài)。

當(dāng) RK3576 證明 “端側(cè)能跑好轉(zhuǎn)好多模態(tài)對(duì)話(huà)” 時(shí),邊緣 AI 的競(jìng)爭(zhēng)已從 “能否實(shí)現(xiàn)” 轉(zhuǎn)向 “如何更優(yōu)”。而這套方案的真正意義,在于為行業(yè)提供了一塊 “可復(fù)用的基石”—— 讓更多開(kāi)發(fā)者無(wú)需重復(fù)造輪子,只需聚焦場(chǎng)景創(chuàng)新,就能讓 “離線(xiàn)智能” 從實(shí)驗(yàn)室走向量產(chǎn)貨架,最終讓 “AI 就在身邊” 成為無(wú)需網(wǎng)絡(luò)支撐的常態(tài)。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀(guān)點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專(zhuān)欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除( 郵箱:macysun@21ic.com )。
換一批
延伸閱讀

特朗普集團(tuán)近日取消了其新推出的T1智能手機(jī)“將在美國(guó)制造”的宣傳標(biāo)語(yǔ),此舉源于外界對(duì)這款手機(jī)能否以當(dāng)前定價(jià)在美國(guó)本土生產(chǎn)的質(zhì)疑。

關(guān)鍵字: 特朗普 蘋(píng)果 AI

美國(guó)總統(tǒng)特朗普在公開(kāi)場(chǎng)合表示,他已要求蘋(píng)果公司CEO蒂姆·庫(kù)克停止在印度建廠(chǎng),矛頭直指該公司生產(chǎn)多元化的計(jì)劃。

關(guān)鍵字: 特朗普 蘋(píng)果 AI

4月10日消息,據(jù)媒體報(bào)道,美國(guó)總統(tǒng)特朗普宣布,美國(guó)對(duì)部分貿(mào)易伙伴暫停90天執(zhí)行新關(guān)稅政策,同時(shí)對(duì)中國(guó)的關(guān)稅提高到125%,該消息公布后蘋(píng)果股價(jià)飆升了15%。這次反彈使蘋(píng)果市值增加了4000多億美元,目前蘋(píng)果市值接近3萬(wàn)...

關(guān)鍵字: 特朗普 AI 人工智能 特斯拉

3月25日消息,據(jù)報(bào)道,當(dāng)?shù)貢r(shí)間3月20日,美國(guó)總統(tǒng)特朗普在社交媒體平臺(tái)“真實(shí)社交”上發(fā)文寫(xiě)道:“那些被抓到破壞特斯拉的人,將有很大可能被判入獄長(zhǎng)達(dá)20年,這包括資助(破壞特斯拉汽車(chē))者,我們正在尋找你?!?/p> 關(guān)鍵字: 特朗普 AI 人工智能 特斯拉

1月22日消息,剛剛,新任美國(guó)總統(tǒng)特朗普放出重磅消息,將全力支持美國(guó)AI發(fā)展。

關(guān)鍵字: 特朗普 AI 人工智能

特朗普先生有兩件事一定會(huì)載入史冊(cè),一個(gè)是筑墻,一個(gè)是挖坑。在美墨邊境筑墻的口號(hào)確保邊境安全,降低因非法移民引起的犯罪率過(guò)高問(wèn)題;在中美科技產(chǎn)業(yè)之間挖坑的口號(hào)也是安全,美國(guó)企業(yè)不得使用對(duì)美國(guó)國(guó)家安全構(gòu)成威脅的電信設(shè)備,總統(tǒng)...

關(guān)鍵字: 特朗普 孤立主義 科技產(chǎn)業(yè)

據(jù)路透社1月17日消息顯示,知情人士透露,特朗普已通知英特爾、鎧俠在內(nèi)的幾家華為供應(yīng)商,將要撤銷(xiāo)其對(duì)華為的出貨的部分許可證,同時(shí)將拒絕其他數(shù)十個(gè)向華為供貨的申請(qǐng)。據(jù)透露,共有4家公司的8份許可被撤銷(xiāo)。另外,相關(guān)公司收到撤...

關(guān)鍵字: 華為 芯片 特朗普

曾在2018年時(shí)被美國(guó)總統(tǒng)特朗普稱(chēng)作“世界第八奇跡”的富士康集團(tuán)在美國(guó)威斯康星州投資建設(shè)的LCD顯示屏工廠(chǎng)項(xiàng)目,如今卻因?yàn)楦皇靠祵㈨?xiàng)目大幅縮水并拒絕簽訂新的合同而陷入了僵局。這也導(dǎo)致富士康無(wú)法從當(dāng)?shù)卣抢铽@得約40億美...

關(guān)鍵字: 特朗普 富士康

今年5月,因自己發(fā)布的推文被貼上“無(wú)確鑿依據(jù)”標(biāo)簽而與推特發(fā)生激烈爭(zhēng)執(zhí)后,美國(guó)總統(tǒng)特朗普簽署了一項(xiàng)行政令,下令要求重審《通信規(guī)范法》第230條。

關(guān)鍵字: 谷歌 facebook 特朗普

眾所周知,寄往白宮的所有郵件在到達(dá)白宮之前都會(huì)在他地進(jìn)行分類(lèi)和篩選。9月19日,根據(jù)美國(guó)相關(guān)執(zhí)法官員的通報(bào),本周早些時(shí)候,執(zhí)法人員截獲了一個(gè)寄給特朗普總統(tǒng)的包裹,該包裹內(nèi)包含蓖麻毒蛋白。

關(guān)鍵字: 美國(guó) 白宮 特朗普
關(guān)閉