日本黄色一级经典视频|伊人久久精品视频|亚洲黄色色周成人视频九九九|av免费网址黄色小短片|黄色Av无码亚洲成年人|亚洲1区2区3区无码|真人黄片免费观看|无码一级小说欧美日免费三级|日韩中文字幕91在线看|精品久久久无码中文字幕边打电话

當(dāng)前位置:首頁 > 物聯(lián)網(wǎng) > 智能應(yīng)用
[導(dǎo)讀]在人工智能 (AI) 的動態(tài)格局中,兩項突破性技術(shù)—— 大型語言模型 (LLM)和檢索增強(qiáng)生成 (RAG) ——因其在理解和生成類人文本方面的變革潛力而脫穎而出。本文對 LLM 和 RAG 進(jìn)行了比較,闡明了它們的機(jī)制、應(yīng)用以及它們?yōu)槿斯ぶ悄茴I(lǐng)域提供的獨(dú)特優(yōu)勢。

人工智能 (AI) 的動態(tài)格局中,兩項突破性技術(shù)—— 大型語言模型 (LLM)和檢索增強(qiáng)生成 (RAG) ——因其在理解和生成類人文本方面的變革潛力而脫穎而出。本文對 LLM 和 RAG 進(jìn)行了比較,闡明了它們的機(jī)制、應(yīng)用以及它們?yōu)槿斯ぶ悄茴I(lǐng)域提供的獨(dú)特優(yōu)勢。

大型語言模型(LLM):基礎(chǔ)和應(yīng)用

法學(xué)碩士,例如 GPT(生成式預(yù)訓(xùn)練變壓器),能夠在廣泛的主題中生成連貫且上下文相關(guān)的文本,從而徹底改變了人工智能場景。從本質(zhì)上講,法學(xué)碩士依賴于大量的文本數(shù)據(jù)和復(fù)雜的神經(jīng)網(wǎng)絡(luò)架構(gòu),從他們接受過訓(xùn)練的文本內(nèi)容中學(xué)習(xí)語言模式、語法和知識。

法學(xué)碩士的優(yōu)勢在于其泛化能力:他們無需特定任務(wù)的培訓(xùn)即可執(zhí)行各種與語言相關(guān)的任務(wù)。這包括翻譯語言、回答問題,甚至撰寫文章。然而,法學(xué)碩士并非沒有挑戰(zhàn)。它們有時會產(chǎn)生聽起來合理但不正確或無意義的答案,這種現(xiàn)象被稱為“幻覺”。此外,他們的輸出質(zhì)量在很大程度上取決于訓(xùn)練數(shù)據(jù)的質(zhì)量和廣度。

核心方面

· 規(guī)模:法學(xué)碩士的標(biāo)志是其龐大的參數(shù)數(shù)量,達(dá)到數(shù)十億,涵蓋了廣泛的語言范圍。

· 培訓(xùn)制度:他們對不同的文本數(shù)據(jù)進(jìn)行預(yù)培訓(xùn),隨后針對定制任務(wù)進(jìn)行微調(diào),加深對語言細(xì)微差別的理解。

· 實用范圍:法學(xué)碩士在各個領(lǐng)域都有用途,從幫助內(nèi)容創(chuàng)作到促進(jìn)語言翻譯。

示例:使用 LLM 生成文本

為了進(jìn)行說明,請考慮以下使用 LLM 生成文本示例的Python代碼片段:

Python

1

從 變壓器 導(dǎo)入 GPT2Tokenizer,GPT2LMHeadModel

2


3

# 輸入

4

提示= “澳大利亞保留骨灰多久了?”

5

6

# 使用 GPT2 Tokenizer 對輸入進(jìn)行編碼

7

分詞器= GPT2Tokenizer。from_pretrained ( 'gpt2' )

8

輸入=分詞器。編碼( prompt , return_tensors = 'pt' ) ## 使用 pyTorch ('tf' 使用 TensorFlow)

9


10

# 使用 gpt2 模型生成輸出

11

模型= GPT2LMHeadModel。from_pretrained ( 'gpt2' )

12

outputs = model.generate(inputs, max_length=25)

13


14

# Decode and print the result

15

result = tokenizer.decode(outputs[0], skip_special_tokens=True)

16

print("Generated text:", result)

此代碼使用流行的 LLM GPT-2 初始化文本生成管道,并根據(jù)給定的提示生成文本。

檢索增強(qiáng)生成 (RAG):概述和用例

RAG 通過將 GPT 等模型的生成能力與檢索機(jī)制相結(jié)合,引入了一種新穎的方法。該機(jī)制實時搜索文本數(shù)據(jù)庫(例如維基百科)以查找可用于通知模型響應(yīng)的相關(guān)信息。這種檢索和生成的結(jié)合使得 RAG 能夠生成不僅與上下文相關(guān)而且基于事實信息的答案。

與傳統(tǒng)法學(xué)碩士相比,RAG 的主要優(yōu)勢之一是它能夠通過引用最新來源提供更準(zhǔn)確和具體的信息。這使得 RAG 對于信息準(zhǔn)確性和及時性至關(guān)重要的應(yīng)用特別有用,例如新聞報道或?qū)W術(shù)研究協(xié)助。

然而,對外部數(shù)據(jù)庫的依賴意味著如果數(shù)據(jù)庫不全面或檢索過程效率低下,RAG 的性能可能會受到影響。此外,將檢索機(jī)制集成到生成過程中會增加模型的復(fù)雜性,從而可能增加所需的計算資源。

核心方面

· 混合性質(zhì):RAG 模型首先檢索相關(guān)文檔,然后利用此上下文進(jìn)行知情生成。

· 動態(tài)知識訪問:與法學(xué)碩士不同,RAG 模型可以利用最新或特定領(lǐng)域的數(shù)據(jù),從而提供增強(qiáng)的多功能性。

· 應(yīng)用領(lǐng)域:RAG在需要外部知識的場景中表現(xiàn)出色,例如深度問答和事實內(nèi)容生成。

示例:實施 RAG 進(jìn)行信息檢索

下面是如何實現(xiàn)用于檢索和生成文本的基本 RAG 系統(tǒng)的簡化示例:

Python

1

from transformers import RagTokenizer, RagRetriever, RagSequenceForGeneration

2

3

# A sample query to ask the model

4

query = "How long have Australia held on to the Ashes?"

5


6

tokenizer = RagTokenizer.from_pretrained("facebook/rag-sequence-nq") ## Get the tokenizer from the pretrained model

7

tokenized_text = tokenizer(query, return_tensors='pt', max_length=100, truncation=True) ## Encode/Tokenize the query

8


9

# Find results with RAG-Sequence model (uncased model) using wiki_dpr dataset

10

retriever = RagRetriever.from_pretrained("facebook/rag-sequence-nq", index_name="exact", use_dummy_dataset=True) ## Uses a pretrained DPR dataset (wiki_dpr) https://huggingface.co/datasets/wiki_dpr

11

model = RagSequenceForGeneration.from_pretrained("facebook/rag-sequence-nq", retriever=retriever)

12

model_ generated_tokens =模型. generate ( input_ids = tokenized_text [ "input_ids" ], max_new_tokens = 1000 ) ## 從數(shù)據(jù)集中查找相關(guān)信息(tokens)

13


14

print ( tokenizer .batch_decode ( model_ generated_tokens , skip_special_tokens = True ) [ 0 ]) ## 解碼數(shù)據(jù)以找到答案

該代碼利用 Facebook 的 RAG 模型來回答查詢,首先對輸入進(jìn)行標(biāo)記,然后根據(jù)實時檢索的信息生成響應(yīng)。

比較見解:LLM 與 RAG

LLM 和 RAG 之間的選擇取決于具體的任務(wù)要求。以下是它們的疊加方式:

知識可及性

法學(xué)碩士依賴于他們的預(yù)訓(xùn)練語料庫,這可能會導(dǎo)致信息過時。RAG 具有檢索功能,可確保訪問最新數(shù)據(jù)。

實施復(fù)雜性

RAG 模型由于其雙步驟性質(zhì),比 LLM 具有更高的復(fù)雜性并且需要更多的資源。

靈活性和應(yīng)用

兩種模型類型都提供了廣泛的應(yīng)用潛力。LLM 為各種NLP任務(wù)奠定了堅實的基礎(chǔ),而 RAG 模型在即時訪問外部詳細(xì)數(shù)據(jù)至關(guān)重要的情況下表現(xiàn)出色。

結(jié)論:了解 LLM 和 RAG 前景

LLM 和 RAG 都代表了人工智能在理解和生成類人文本的能力方面的重大進(jìn)步。在 LLM 和 RAG 模型之間進(jìn)行選擇需要權(quán)衡 NLP 項目的獨(dú)特需求。法學(xué)碩士具有多功能性和通用性,使其適用于廣泛的應(yīng)用程序,并且是各種語言任務(wù)的首選。相比之下,RAG 的優(yōu)勢在于它能夠提供準(zhǔn)確、信息豐富的響應(yīng),這在知識密集型任務(wù)中特別有價值,并且非常適合需要合并最新或特定詳細(xì)信息的情況。

隨著人工智能的不斷發(fā)展,LLM 和 RAG 的比較分析強(qiáng)調(diào)了為正確的任務(wù)選擇正確的工具的重要性。鼓勵開發(fā)人員和研究人員根據(jù)其特定需求權(quán)衡這些技術(shù)的優(yōu)點(diǎn)和局限性,旨在充分利用人工智能在創(chuàng)建智能、響應(yīng)式和上下文感知應(yīng)用程序方面的全部潛力。


本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

LED驅(qū)動電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關(guān)鍵字: 驅(qū)動電源

在工業(yè)自動化蓬勃發(fā)展的當(dāng)下,工業(yè)電機(jī)作為核心動力設(shè)備,其驅(qū)動電源的性能直接關(guān)系到整個系統(tǒng)的穩(wěn)定性和可靠性。其中,反電動勢抑制與過流保護(hù)是驅(qū)動電源設(shè)計中至關(guān)重要的兩個環(huán)節(jié),集成化方案的設(shè)計成為提升電機(jī)驅(qū)動性能的關(guān)鍵。

關(guān)鍵字: 工業(yè)電機(jī) 驅(qū)動電源

LED 驅(qū)動電源作為 LED 照明系統(tǒng)的 “心臟”,其穩(wěn)定性直接決定了整個照明設(shè)備的使用壽命。然而,在實際應(yīng)用中,LED 驅(qū)動電源易損壞的問題卻十分常見,不僅增加了維護(hù)成本,還影響了用戶體驗。要解決這一問題,需從設(shè)計、生...

關(guān)鍵字: 驅(qū)動電源 照明系統(tǒng) 散熱

根據(jù)LED驅(qū)動電源的公式,電感內(nèi)電流波動大小和電感值成反比,輸出紋波和輸出電容值成反比。所以加大電感值和輸出電容值可以減小紋波。

關(guān)鍵字: LED 設(shè)計 驅(qū)動電源

電動汽車(EV)作為新能源汽車的重要代表,正逐漸成為全球汽車產(chǎn)業(yè)的重要發(fā)展方向。電動汽車的核心技術(shù)之一是電機(jī)驅(qū)動控制系統(tǒng),而絕緣柵雙極型晶體管(IGBT)作為電機(jī)驅(qū)動系統(tǒng)中的關(guān)鍵元件,其性能直接影響到電動汽車的動力性能和...

關(guān)鍵字: 電動汽車 新能源 驅(qū)動電源

在現(xiàn)代城市建設(shè)中,街道及停車場照明作為基礎(chǔ)設(shè)施的重要組成部分,其質(zhì)量和效率直接關(guān)系到城市的公共安全、居民生活質(zhì)量和能源利用效率。隨著科技的進(jìn)步,高亮度白光發(fā)光二極管(LED)因其獨(dú)特的優(yōu)勢逐漸取代傳統(tǒng)光源,成為大功率區(qū)域...

關(guān)鍵字: 發(fā)光二極管 驅(qū)動電源 LED

LED通用照明設(shè)計工程師會遇到許多挑戰(zhàn),如功率密度、功率因數(shù)校正(PFC)、空間受限和可靠性等。

關(guān)鍵字: LED 驅(qū)動電源 功率因數(shù)校正

在LED照明技術(shù)日益普及的今天,LED驅(qū)動電源的電磁干擾(EMI)問題成為了一個不可忽視的挑戰(zhàn)。電磁干擾不僅會影響LED燈具的正常工作,還可能對周圍電子設(shè)備造成不利影響,甚至引發(fā)系統(tǒng)故障。因此,采取有效的硬件措施來解決L...

關(guān)鍵字: LED照明技術(shù) 電磁干擾 驅(qū)動電源

開關(guān)電源具有效率高的特性,而且開關(guān)電源的變壓器體積比串聯(lián)穩(wěn)壓型電源的要小得多,電源電路比較整潔,整機(jī)重量也有所下降,所以,現(xiàn)在的LED驅(qū)動電源

關(guān)鍵字: LED 驅(qū)動電源 開關(guān)電源

LED驅(qū)動電源是把電源供應(yīng)轉(zhuǎn)換為特定的電壓電流以驅(qū)動LED發(fā)光的電壓轉(zhuǎn)換器,通常情況下:LED驅(qū)動電源的輸入包括高壓工頻交流(即市電)、低壓直流、高壓直流、低壓高頻交流(如電子變壓器的輸出)等。

關(guān)鍵字: LED 隧道燈 驅(qū)動電源
關(guān)閉