日本黄色一级经典视频|伊人久久精品视频|亚洲黄色色周成人视频九九九|av免费网址黄色小短片|黄色Av无码亚洲成年人|亚洲1区2区3区无码|真人黄片免费观看|无码一级小说欧美日免费三级|日韩中文字幕91在线看|精品久久久无码中文字幕边打电话

當(dāng)前位置:首頁(yè) > 單片機(jī) > 架構(gòu)師社區(qū)
[導(dǎo)讀]作者:風(fēng)樹(shù)種子來(lái)源:blog.csdn.net/u014513883/article/details/49365987本文主要通過(guò)批量與非批量對(duì)比操作的方式介紹MongoDB的bulkWrite()方法的使用。順帶與關(guān)系型數(shù)據(jù)庫(kù)MySQL進(jìn)行對(duì)比,比較這兩種不同類型數(shù)據(jù)庫(kù)的效率。...

作者:風(fēng)樹(shù)種子


來(lái)源:blog.csdn.net/u014513883/article/details/49365987


本文主要通過(guò)批量與非批量對(duì)比操作的方式介紹MongoDB的bulkWrite()方法的使用。順帶與關(guān)系型數(shù)據(jù)庫(kù)MySQL進(jìn)行對(duì)比,比較這兩種不同類型數(shù)據(jù)庫(kù)的效率。如果只是想學(xué)習(xí)bulkWrite()的使用的看第一部分就行。


測(cè)試環(huán)境:win7旗艦版、16G內(nèi)存、i3處理器、MongoDB3.0.2、mysql5.0


一、MongoDB批量操作

MongoDB對(duì)數(shù)據(jù)的操作分為Read Operations和Write Operations,Read Operations包含查詢操作,Write Operations包含刪除、插入、替換、更新幾種操作。MongoDB提供客戶端用bulk方式執(zhí)行Write Operations,也就是批量寫操作。在java driver中,對(duì)應(yīng)MongoCollection的bulkWrite()方法,先來(lái)看下這個(gè)方法簽名:


BulkWriteResult  com.mongodb.client.MongoCollection.bulkWrite(List> requests)
這個(gè)方法要求傳入一個(gè)List集合,集合中的元素類型為WriteModel,它表示一個(gè)可用于批量寫操作的基類模型,它有以下幾個(gè)子類DeleteManyModel、DeleteOneModel、 InsertOneModel、ReplaceOneModel、 UpdateManyModel、UpdateOneModel,從名字可以看出來(lái)它對(duì)應(yīng)了刪除、插入、替換、更新幾種操作。該方法返回一個(gè)BulkWriteResult對(duì)象,代表一個(gè)成功的批量寫操作結(jié)果,封裝了操作結(jié)果的狀態(tài)信息,如插入、更新、刪除記錄數(shù)等。


1、插入操作

(1)、批量插入


代碼如下,該方法接收一個(gè)包含要進(jìn)行插入的Document對(duì)象的集合參數(shù),遍歷集合,使用Document構(gòu)造InsertOneModel對(duì)象,每個(gè)InsertOneModel實(shí)例代表一個(gè)插入單個(gè)Document的操作,然后將該實(shí)例添加List集合中,調(diào)用bulkWrite()方法,傳入存儲(chǔ)所有插入操作的List集合完成批量插入。


public void bulkWriteInsert(Listdocuments){
List requests = new ArrayList();
for (Document document : documents) {
//構(gòu)造插入單個(gè)文檔的操作模型
InsertOneModeliom = new InsertOneModel(document);
requests.add(iom);
}
BulkWriteResult  bulkWriteResult = collection.bulkWrite(requests);
System.out.println(bulkWriteResult.toString());
}
測(cè)試:下面通過(guò)一個(gè)main函數(shù)測(cè)試下。首先構(gòu)造10萬(wàn)個(gè)Product實(shí)體對(duì)象,使用一個(gè)工具類將其轉(zhuǎn)換成json字符串,然后解析成Document對(duì)象,保存到一個(gè)list集合中,然后調(diào)用上面編寫的方法測(cè)試10萬(wàn)個(gè)對(duì)象插入時(shí)間。


TestMongoDB instance = TestMongoDB.getInstance();
ArrayListdocuments = new ArrayList();
for (int i = 0; i < 100000; i ) {
Product product = new Product(i,"書籍","追風(fēng)箏的人",22.5);
//將java對(duì)象轉(zhuǎn)換成json字符串
String jsonProduct = JsonParseUtil.getJsonString4JavaPOJO(product);
//將json字符串解析成Document對(duì)象
Document docProduct = Document.parse(jsonProduct);
documents.add(docProduct);
}

System.out.println("開(kāi)始插入數(shù)據(jù)。。。");
long startInsert = System.currentTimeMillis();
instance.bulkWriteInsert(documents);
System.out.println("插入數(shù)據(jù)完成,共耗時(shí):" (System.currentTimeMillis() - startInsert) "毫秒");
結(jié)果:1560毫秒,多次測(cè)試基本在1.5秒左右


(2)、逐條插入


下面再通過(guò)非批量插入10萬(wàn)個(gè)數(shù)據(jù)對(duì)比下,方法如下:


public void insertOneByOne(Listdocuments) throws ParseException{
for (Document document : documents){
collection.insertOne(document);
}
}
測(cè)試:10萬(wàn)條數(shù)據(jù)


System.out.println("開(kāi)始插入數(shù)據(jù)。。。");
long startInsert = System.currentTimeMillis();
instance.insertOneByOne(documents);
System.out.println("插入數(shù)據(jù)完成,共耗時(shí):" (System.currentTimeMillis() - startInsert) "毫秒");
結(jié)果:12068毫秒,差距非常大。由此可見(jiàn),MongoDB批量插入比逐條數(shù)據(jù)插入效率提高了非常多。


補(bǔ)充:


MongoCollection的insertMany()方法和bulkWrite()方法是等價(jià)的,測(cè)試時(shí)間差不多,不再貼圖。


public void insertMany(Listdocuments) throws ParseException{
//和bulkWrite()方法等價(jià)
collection.insertMany(documents);
}

2、刪除操作

(1)、批量刪除


掌握了批量插入,批量刪除就是依葫蘆畫瓢了。構(gòu)造DeleteOneModel需要一個(gè)Bson類型參數(shù),代表一個(gè)刪除操作,這里使用了Bson類的子類Document。重點(diǎn)來(lái)了,這里的刪除條件使用文檔的_id字段,該字段在文檔插入數(shù)據(jù)庫(kù)后自動(dòng)生成,沒(méi)插入數(shù)據(jù)庫(kù)前document.get("_id")為null,如果使用其他條件比如productId,那么要在文檔插入到collection后在productId字段上添加索引


collection.createIndex(new Document("productId", 1));
因?yàn)殡S著collection數(shù)據(jù)量的增大,查找將越耗時(shí),添加索引是為了提高查找效率,進(jìn)而加快刪除效率。另外,值得一提的是DeleteOneModel表示至多刪除一條匹配條件的記錄,DeleteManyModel表示刪除匹配條件的所有記錄。為了防止一次刪除多條記錄,這里使用DeleteOneModel,保證一個(gè)操作只刪除一條記錄。當(dāng)然這里不可能匹配多條記錄,因?yàn)開(kāi)id是唯一的。


public void bulkWriteDelete(Listdocuments){
List requests = new ArrayList();
for (Document document : documents) {
//刪除條件
Document queryDocument = new Document("_id",document.get("_id"));
//構(gòu)造刪除單個(gè)文檔的操作模型,
DeleteOneModeldom = new DeleteOneModel(queryDocument);
requests.add(dom);
}
BulkWriteResult bulkWriteResult = collection.bulkWrite(requests);
System.out.println(bulkWriteResult.toString());
}
測(cè)試:10萬(wàn)條數(shù)據(jù)


System.out.println("開(kāi)始刪除數(shù)據(jù)。。。");
long startDelete = System.currentTimeMillis();
instance.bulkWriteDelete(documents);
System.out.println("刪除數(shù)據(jù)完成,共耗時(shí):" (System.currentTimeMillis() - startDelete) "毫秒");
結(jié)果:2251毫秒


(2)、逐條刪除


來(lái)看看在非批量下的刪除


public void deleteOneByOne(Listdocuments){
for (Document document : documents) {
Document queryDocument = new Document("_id",document.get("_id"));
DeleteResult deleteResult = collection.deleteOne(queryDocument);
}
}
測(cè)試:10萬(wàn)條數(shù)據(jù)


System.out.println("開(kāi)始刪除數(shù)據(jù)。。。");
long startDelete = System.currentTimeMillis();
instance.deleteOneByOne(documents);
System.out.println("刪除數(shù)據(jù)完成,共耗時(shí):" (System.currentTimeMillis() - startDelete) "毫秒");
結(jié)果:12765毫秒,比批量刪除效率低很多



3、更新操作

(1)、批量更新


再來(lái)看看批量更新,分UpdateOneModel和UpdateManyModel兩種,區(qū)別是前者更新匹配條件的一條記錄,后者更新匹配條件的所有記錄。對(duì)于ReplaceOneModel,表示替換操作,這里也歸為更新,現(xiàn)在以UpdateOneModel為例進(jìn)行講解。UpdateOneModel構(gòu)造方法接收3個(gè)參數(shù),第一個(gè)是查詢條件,第二個(gè)參數(shù)是要更新的內(nèi)容,第三個(gè)參數(shù)是可選的UpdateOptions,不填也會(huì)自動(dòng)幫你new一個(gè),代表批量更新操作未匹配到查詢條件時(shí)的動(dòng)作,它的upser屬性值默認(rèn)false,什么都不干,true時(shí)表示將一個(gè)新的Document插入數(shù)據(jù)庫(kù),這個(gè)新的Document是查詢Document和更新Document的結(jié)合,但如果是替換操作,這個(gè)新的Document就是這個(gè)替換Document。


這里會(huì)有個(gè)疑惑:這和匹配到查詢條件后執(zhí)行替換操作結(jié)果不一樣嗎?區(qū)別在于_id字段,未匹配查詢條件時(shí)插入的新的Document的_id是新的,而成功執(zhí)行替換操作,_id是原先舊的。


public void bulkWriteUpdate(Listdocuments){
List requests = new ArrayList();
for (Document document : documents) {
//更新條件
Document queryDocument = new Document("_id",document.get("_id"));
//更新內(nèi)容,改下書的價(jià)格
Document updateDocument = new Document("$set",new Document("price","30.6"));
//構(gòu)造更新單個(gè)文檔的操作模型
UpdateOneModeluom = new UpdateOneModel(queryDocument,updateDocument,new UpdateOptions().upsert(false));
//UpdateOptions代表批量更新操作未匹配到查詢條件時(shí)的動(dòng)作,默認(rèn)false,什么都不干,true時(shí)表示將一個(gè)新的Document插入數(shù)據(jù)庫(kù),他是查詢部分和更新部分的結(jié)合
requests.add(uom);
}
BulkWriteResult bulkWriteResult = collection.bulkWrite(requests);
System.out.println(bulkWriteResult.toString());
}
測(cè)試:10萬(wàn)條數(shù)據(jù)


System.out.println("開(kāi)始更新數(shù)據(jù)。。。");
long startUpdate = System.currentTimeMillis();
instance.bulkWriteUpdate(documents);
System.out.println("更新數(shù)據(jù)完成,共耗時(shí):" (System.currentTimeMillis() - startUpdate) "毫秒");
結(jié)果:3198毫秒


(2)、逐條更新


對(duì)比非批量下的更新


public void updateOneByOne(Listdocuments){
for (Document document : documents) {
Document queryDocument = new Document("_id",document.get("_id"));
Document updateDocument = new Document("$set",new Document("price","30.6"));
UpdateResult UpdateResult = collection.updateOne(queryDocument, updateDocument);
}
}
測(cè)試:10萬(wàn)條數(shù)據(jù)


System.out.println("開(kāi)始更新數(shù)據(jù)。。。");
long startUpdate = System.currentTimeMillis();
instance.updateOneByOne(documents);
System.out.println("更新數(shù)據(jù)完成,共耗時(shí):" (System.currentTimeMillis() - startUpdate) "毫秒");
結(jié)果:13979毫秒,比批量更新效率低很多



4、混合批量操作

bulkWrite()方法可以對(duì)不同類型的寫操作進(jìn)行批量處理,代碼如下:


public void bulkWriteMix(){
List requests = new ArrayList();
InsertOneModeliom = new InsertOneModel(new Document("name","kobe"));
UpdateManyModelumm = new UpdateManyModel(new Document("name","kobe"),
new Document("$set",new Document("name","James")),new UpdateOptions().upsert(true));
DeleteManyModeldmm = new DeleteManyModel(new Document("name","James"));
requests.add(iom);
requests.add(umm);
requests.add(dmm);
BulkWriteResult bulkWriteResult = collection.bulkWrite(requests);
System.out.println(bulkWriteResult.toString());
}
注意:updateMany()、deleteMany()兩個(gè)方法和insertMany()不同,它倆不是批量操作,而是代表更新(刪除)匹配條件的所有數(shù)據(jù)。


二、與MySQL性能對(duì)比

1、插入操作

(1)、批處理插入


與MongoDB一樣,也是插入Product實(shí)體對(duì)象,代碼如下


public void insertBatch(ArrayListlist) throws Exception{
Connection conn = DBUtil.getConnection();
try {
PreparedStatement pst = conn.prepareStatement("insert into t_product value(?,?,?,?)");
int count = 1;
for (Product product : list) {
pst.setInt(1, product.getProductId());
pst.setString(2, product.getCategory());
pst.setString(3, product.getName());
pst.setDouble(4, product.getPrice());
pst.addBatch();
if(count % 1000 == 0){
pst.executeBatch();
pst.clearBatch();//每1000條sql批處理一次,然后置空PreparedStatement中的參數(shù),這樣也能提高效率,防止參數(shù)積累過(guò)多事務(wù)超時(shí),但實(shí)際測(cè)試效果不明顯
}
count ;
}
conn.commit();
} catch (SQLException e) {
e.printStackTrace();
}
DBUtil.closeConnection(conn);
}
JDBC默認(rèn)自動(dòng)提交事務(wù),切記在獲取連接后添加下面一行代碼,關(guān)閉事務(wù)自動(dòng)提交。


connection.setAutoCommit(false);
測(cè)試:10萬(wàn)條數(shù)據(jù)


public static void main(String[] args) throws Exception {
TestMysql test = new TestMysql();
ArrayListlist = new ArrayList();
for (int i = 0; i < 1000; i ) {
Product product = new Product(i, "書籍", "追風(fēng)箏的人", 20.5);
list.add(product);
}

System.out.println("MYSQL開(kāi)始插入數(shù)據(jù)。。。");
long insertStart = System.currentTimeMillis();
test.insertBatch(list);
System.out.println("MYSQL插入數(shù)據(jù)完成,共耗時(shí):" (System.currentTimeMillis() - insertStart) "毫秒");
}
結(jié)果:7389毫秒,多次測(cè)試基本7秒左右


(2)、逐條插入


再來(lái)看看mysql逐條插入,代碼如下:


public void insertOneByOne(ArrayListlist) throws Exception{
Connection conn = DBUtil.getConnection();
try {
for (Product product : list) {
PreparedStatement pst = conn.prepareStatement("insert into t_product value(?,?,?,?)");
pst.setInt(1, product.getProductId());
pst.setString(2, product.getCategory());
pst.setString(3, product.getName());
pst.setDouble(4, product.getPrice());
pst.executeUpdate();
//conn.commit();//加上這句每次插入都提交事務(wù),結(jié)果將是非常耗時(shí)
}
conn.commit();
} catch (SQLException e) {
e.printStackTrace();
}
DBUtil.closeConnection(conn);
}
測(cè)試:10萬(wàn)條記錄


System.out.println("MYSQL開(kāi)始插入數(shù)據(jù)。。。");
long insertStart = System.currentTimeMillis();
test.insertOneByOne(list);
System.out.println("MYSQL插入數(shù)據(jù)完成,共耗時(shí):" (System.currentTimeMillis() - insertStart) "毫秒");
結(jié)果:8921毫秒,基本比批量慢1秒多。



2、刪除操作

(1)、批處理刪除


刪除的where條件是productId,這里在建表的時(shí)候沒(méi)有添加主鍵,刪除異常的慢,查了半天不知道什么原因。切記添加主鍵,主鍵默認(rèn)有索引,所有能更快匹配到記錄。


public void deleteBatch(ArrayListlist) throws Exception{
Connection conn = DBUtil.getConnection();
try {
PreparedStatement pst = conn.prepareStatement("delete from t_product where id = ?");//按主鍵查,否則全表遍歷很慢
int count = 1;
for (Product product : list) {
pst.setInt(1, product.getProductId());
pst.addBatch();
if(count % 1000 == 0){
pst.executeBatch();
pst.clearBatch();
}
count ;
}
conn.commit();
} catch (SQLException e) {
e.printStackTrace();
}
DBUtil.closeConnection(conn);
}
測(cè)試:10萬(wàn)條數(shù)據(jù)


System.out.println("MYSQL開(kāi)始刪除數(shù)據(jù)。。。");
long deleteStart = System.currentTimeMillis();
test.deleteBatch(list);
System.out.println("MYSQL刪除數(shù)據(jù)完成,共耗時(shí):" (System.currentTimeMillis() - deleteStart) "毫秒");
結(jié)果:7936毫秒


(2)、逐條刪除


代碼如下


public void deleteOneByOne(ArrayListlist) throws Exception{
Connection conn = DBUtil.getConnection();
PreparedStatement pst = null;
try {
for (Product product : list) {
pst = conn.prepareStatement("delete from t_product where id = ?");
pst.setInt(1, product.getProductId());
pst.executeUpdate();
//conn.commit();//加上這句每次插入都提交事務(wù),結(jié)果將是非常耗時(shí)
}

conn.commit();
} catch (SQLException e) {
e.printStackTrace();
}
DBUtil.closeConnection(conn);
}
測(cè)試:10萬(wàn)條數(shù)據(jù)


System.out.println("MYSQL開(kāi)始刪除數(shù)據(jù)。。。");
long deleteStart = System.currentTimeMillis();
test.deleteOneByOne(list);
System.out.println("MYSQL刪除數(shù)據(jù)完成,共耗時(shí):" (System.currentTimeMillis() - deleteStart) "毫秒");
結(jié)果:8752毫秒,比批處理刪除慢一秒左右



3、更新操作

(1)、批處理更新


代碼如下


public void updateBatch(ArrayListlist) throws Exception{
Connection conn = DBUtil.getConnection();
try {
PreparedStatement pst = conn.prepareStatement("update t_product set price=31.5 where id=?");
int count = 1;
for (Product product : list) {
pst.setInt(1, product.getProductId());
pst.addBatch();
if(count % 1000 == 0){
pst.executeBatch();
pst.clearBatch();//每1000條sql批處理一次,然后置空PreparedStatement中的參數(shù),這樣也能提高效率,防止參數(shù)積累過(guò)多事務(wù)超時(shí),但實(shí)際測(cè)試效果不明顯
}
count ;
}
conn.commit();
} catch (SQLException e) {
e.printStackTrace();
}
DBUtil.closeConnection(conn);
}
測(cè)試:10萬(wàn)條數(shù)據(jù)


System.out.println("MYSQL開(kāi)始更新數(shù)據(jù)。。。");
long updateStart = System.currentTimeMillis();
test.updateBatch(list);
System.out.println("MYSQL更新數(shù)據(jù)完成,共耗時(shí):" (System.currentTimeMillis() - updateStart) "毫秒");
結(jié)果:8611毫秒


(2)、逐條更新


代碼如下


public void updateOneByOne(ArrayListlist) throws Exception{
Connection conn = DBUtil.getConnection();
try {
for (Product product : list) {
PreparedStatement pst = conn.prepareStatement("update t_product set price=30.5 where id=?");
pst.setInt(1, product.getProductId());
pst.executeUpdate();
//conn.commit();//加上這句每次插入都提交事務(wù),結(jié)果將是非常耗時(shí)
}
conn.commit();
} catch (SQLException e) {
e.printStackTrace();
}
DBUtil.closeConnection(conn);
}
測(cè)試:10萬(wàn)條數(shù)據(jù)


System.out.println("MYSQL開(kāi)始更新數(shù)據(jù)。。。");
long updateStart = System.currentTimeMillis();
test.updateOneByOne(list);
System.out.println("MYSQL更新數(shù)據(jù)完成,共耗時(shí):" (System.currentTimeMillis() - updateStart) "毫秒");
結(jié)果:9430毫秒,比批處理更新慢了1秒左右



三、總結(jié)

本文主要是為了介紹bulkWrite()方法的使用,也就是MongoDB的批量寫操作,通過(guò)實(shí)驗(yàn)可以看出MongoDB使用bulkWrite()方法進(jìn)行大量數(shù)據(jù)的寫操作比使用常規(guī)的方法進(jìn)行寫操作效率要高很多。文章也介紹了mysql幾種寫操作下批量和非批量的對(duì)比,可以看出他們批處理方式比非批處理快點(diǎn),但沒(méi)有MongoDB那么明顯。


對(duì)于MongoDB與mysql的比較,批量操作下,MongoDB插入、刪除、更新都比mysql快,非批量操作下,MongoDB插入、刪除、更新都比mysql慢。當(dāng)然只是一個(gè)初略的結(jié)論,文中并沒(méi)有進(jìn)行100條、1000條、10000條或更大的這樣不同的數(shù)據(jù)對(duì)比,以及CPU內(nèi)存使用情況進(jìn)行監(jiān)測(cè),有興趣的可以嘗試下。


本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

特朗普集團(tuán)近日取消了其新推出的T1智能手機(jī)“將在美國(guó)制造”的宣傳標(biāo)語(yǔ),此舉源于外界對(duì)這款手機(jī)能否以當(dāng)前定價(jià)在美國(guó)本土生產(chǎn)的質(zhì)疑。

關(guān)鍵字: 特朗普 蘋果 AI

美國(guó)總統(tǒng)特朗普在公開(kāi)場(chǎng)合表示,他已要求蘋果公司CEO蒂姆·庫(kù)克停止在印度建廠,矛頭直指該公司生產(chǎn)多元化的計(jì)劃。

關(guān)鍵字: 特朗普 蘋果 AI

4月10日消息,據(jù)媒體報(bào)道,美國(guó)總統(tǒng)特朗普宣布,美國(guó)對(duì)部分貿(mào)易伙伴暫停90天執(zhí)行新關(guān)稅政策,同時(shí)對(duì)中國(guó)的關(guān)稅提高到125%,該消息公布后蘋果股價(jià)飆升了15%。這次反彈使蘋果市值增加了4000多億美元,目前蘋果市值接近3萬(wàn)...

關(guān)鍵字: 特朗普 AI 人工智能 特斯拉

3月25日消息,據(jù)報(bào)道,當(dāng)?shù)貢r(shí)間3月20日,美國(guó)總統(tǒng)特朗普在社交媒體平臺(tái)“真實(shí)社交”上發(fā)文寫道:“那些被抓到破壞特斯拉的人,將有很大可能被判入獄長(zhǎng)達(dá)20年,這包括資助(破壞特斯拉汽車)者,我們正在尋找你。”

關(guān)鍵字: 特朗普 AI 人工智能 特斯拉

1月22日消息,剛剛,新任美國(guó)總統(tǒng)特朗普放出重磅消息,將全力支持美國(guó)AI發(fā)展。

關(guān)鍵字: 特朗普 AI 人工智能

特朗普先生有兩件事一定會(huì)載入史冊(cè),一個(gè)是筑墻,一個(gè)是挖坑。在美墨邊境筑墻的口號(hào)確保邊境安全,降低因非法移民引起的犯罪率過(guò)高問(wèn)題;在中美科技產(chǎn)業(yè)之間挖坑的口號(hào)也是安全,美國(guó)企業(yè)不得使用對(duì)美國(guó)國(guó)家安全構(gòu)成威脅的電信設(shè)備,總統(tǒng)...

關(guān)鍵字: 特朗普 孤立主義 科技產(chǎn)業(yè)

據(jù)路透社1月17日消息顯示,知情人士透露,特朗普已通知英特爾、鎧俠在內(nèi)的幾家華為供應(yīng)商,將要撤銷其對(duì)華為的出貨的部分許可證,同時(shí)將拒絕其他數(shù)十個(gè)向華為供貨的申請(qǐng)。據(jù)透露,共有4家公司的8份許可被撤銷。另外,相關(guān)公司收到撤...

關(guān)鍵字: 華為 芯片 特朗普

曾在2018年時(shí)被美國(guó)總統(tǒng)特朗普稱作“世界第八奇跡”的富士康集團(tuán)在美國(guó)威斯康星州投資建設(shè)的LCD顯示屏工廠項(xiàng)目,如今卻因?yàn)楦皇靠祵㈨?xiàng)目大幅縮水并拒絕簽訂新的合同而陷入了僵局。這也導(dǎo)致富士康無(wú)法從當(dāng)?shù)卣抢铽@得約40億美...

關(guān)鍵字: 特朗普 富士康

今年5月,因自己發(fā)布的推文被貼上“無(wú)確鑿依據(jù)”標(biāo)簽而與推特發(fā)生激烈爭(zhēng)執(zhí)后,美國(guó)總統(tǒng)特朗普簽署了一項(xiàng)行政令,下令要求重審《通信規(guī)范法》第230條。

關(guān)鍵字: 谷歌 facebook 特朗普

眾所周知,寄往白宮的所有郵件在到達(dá)白宮之前都會(huì)在他地進(jìn)行分類和篩選。9月19日,根據(jù)美國(guó)相關(guān)執(zhí)法官員的通報(bào),本周早些時(shí)候,執(zhí)法人員截獲了一個(gè)寄給特朗普總統(tǒng)的包裹,該包裹內(nèi)包含蓖麻毒蛋白。

關(guān)鍵字: 美國(guó) 白宮 特朗普
關(guān)閉