[導(dǎo)讀]作者|小白來源?|?小白學(xué)視覺導(dǎo)讀人工智能領(lǐng)域中增長最快的子領(lǐng)域之一是自然語言處理(NLP),它處理計(jì)算機(jī)與人類(自然)語言之間的交互,特別是如何編程計(jì)算機(jī)以處理和理解大量自然語言數(shù)據(jù)。自然語言處理通常涉及語音識別、自然語言理解和自然語言生成等。其中,命名實(shí)體識別(NER)等信息...
作者 | 小白
來源 | 小白學(xué)視覺
導(dǎo)讀
人工智能領(lǐng)域中增長最快的子領(lǐng)域之一是自然語言處理(NLP),它處理計(jì)算機(jī)與人類(自然)語言之間的交互,特別是如何編程計(jì)算機(jī)以處理和理解大量自然語言數(shù)據(jù)。
自然語言處理通常涉及語音識別、自然語言理解和自然語言生成等。其中,命名實(shí)體識別(NER)等信息提取問題正迅速成為NLP的基礎(chǔ)應(yīng)用之一。在這篇文章中,我們將分享一個解決執(zhí)行NER時出現(xiàn)的最棘手問題之一的解決方案。
深度學(xué)習(xí)的最新發(fā)展導(dǎo)致了可用于實(shí)體提取和其他NLP相關(guān)任務(wù)的復(fù)雜技術(shù)的迅速發(fā)展。通常,企業(yè)級OCR軟件(ABBY、ADLIB等)用于將大量非結(jié)構(gòu)化和基于圖像的文檔轉(zhuǎn)換為完全可搜索的PDF和PDF/A,人們可以使用最先進(jìn)的算法(BERT、ELMo等)創(chuàng)建高度上下文化的語言模型來推斷提取的信息并實(shí)現(xiàn)NLP目標(biāo)。
但實(shí)際上,并非所有文檔都僅由基于語言的數(shù)據(jù)組成。文檔可以具有許多其他非語言元素,例如單選按鈕、簽名塊或某些其他幾何形狀,這些元素可能包含有用的信息,但無法通過OCR或上述任何算法輕松處理。因此,需要設(shè)計(jì)一個專門的解決方案來識別和處理這些元素。
操作步驟
步驟1:將文檔(PDF等)轉(zhuǎn)換為圖像文件。編寫一個基于OpenCV API的啟發(fā)式代碼來提取所有可能的圖像片段,此代碼應(yīng)針對覆蓋率而不是準(zhǔn)確性進(jìn)行優(yōu)化。
步驟2:相應(yīng)地標(biāo)記步驟1中提取的圖像。創(chuàng)建一個基于CNN的深度學(xué)習(xí)網(wǎng)絡(luò),并根據(jù)標(biāo)記的圖像對其進(jìn)行培訓(xùn),這一步將保證準(zhǔn)確性。
步驟3:創(chuàng)建一個Sklearn pipeline,集成上述兩個步驟,以便在接收文檔時,提取所有潛在圖像,然后使用經(jīng)過訓(xùn)練的CNN模型預(yù)測所需形狀的圖像。
設(shè)計(jì)細(xì)節(jié)
需要注意的是,OpenCV代碼盡可能多的識別所需形狀的圖像段。本質(zhì)上,我們需要有一個寬的檢測范圍,不必?fù)?dān)心誤報(bào),它們將由后續(xù)的ConvNet模型處理。之所以選擇CNN進(jìn)行圖像分類,是因?yàn)樗子诮:涂焖俳?,但只要性能和精度在可接受的范圍?nèi),就可以使用任何其他選擇的算法。Pipelining 在構(gòu)造ML代碼中起著關(guān)鍵作用,它有助于簡化工作流程和強(qiáng)制執(zhí)行步驟的順序。
實(shí)踐操作
第1步:OpenCV
此代碼具有雙重用途:
1)創(chuàng)建訓(xùn)練/測試數(shù)據(jù)
2)在集成到管道中時提取圖像段
提取代碼目前可以檢測2種類型(單選按鈕和復(fù)選框),但通過在ShapeFinder類下添加新方法,可以輕松支持其他對象,下面是用于識別正方形/矩形(也稱為復(fù)選框)的代碼片段。
#detect checkbox/squaredef extract_quads(self,image_arr,name_arr):
if len(image_arr) > 0:
for index,original_image in enumerate(image_arr):
#to store extracted images extracted_quad = [] image = original_image.copy()
#grayscale only if its not already if len(image.shape) > 2: gray = cv2.cvtColor(image.copy(), cv2.COLOR_BGR2GRAY) else: gray = image.copy()
#image preprocessing for quadrilaterals img_dilate = self.do_quad_imageprocessing(gray,self.blocksize,self.thresh_const,self.kernelsize)
if len(img_dilate) > 0:
try: #detect contours cnts = cv2.findContours(img_dilate.copy(), cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE) cnts = imutils.grab_contours(cnts)
#loop through detected contours for c in cnts: peri = cv2.arcLength(c, True) approx = cv2.approxPolyDP(c, (self.epsilon)* peri, True)
#bounding rec cordinates (x, y, w, h) = cv2.boundingRect(approx)
#get the aspect ratio aspectratio = float(w/h) area = cv2.contourArea(c) if area < self.rec_max_area and area > self.rec_min_area and (aspectratio >= self.aspect_ratio[0] and aspectratio <= self.aspect_ratio[1]):
#check if there are 4 corners in the polygon if len(approx) == 4: cv2.drawContours(original_image,[c], 0, (0,255,0), 2) roi = original_image[y:y h, x:x w] extracted_quad.append(roi)
except Exception as e: print('The following exception occured during quad shape detection: ',e)
self.extracted_img_data.append([original_image,extracted_quad,name_arr[index]])
else: print('No image is found during the extraction process')
使用pdf2image將pdf轉(zhuǎn)換為圖像:
def Img2Pdf(dirname):
images = []
#get the pdf file for x in os.listdir(dirname): if (dirname.split('.')[1]) == 'pdf': pdf_filename = x images_from_path = convert_from_path(os.path.join(dirname),dpi=300, poppler_path = r'C:\Program Files (x86)\poppler-0.68.0_x86\poppler-0.68.0\bin')for image in images_from_path: images.append(np.array(image))
return images
第二步:卷積神經(jīng)網(wǎng)絡(luò)
由于提取的圖像片段將具有相對較小的尺寸,簡單的3層CNN將為我們提供幫助,但我們?nèi)匀恍枰尤胍恍┱齽t化和Adam來優(yōu)化輸出。
網(wǎng)絡(luò)應(yīng)針對每種類型的圖像樣本分別進(jìn)行訓(xùn)練,以獲得更好的精度。如果添加了新的圖像形狀,可以創(chuàng)建一個新的網(wǎng)絡(luò),但現(xiàn)在我們對復(fù)選框和單選按鈕都使用了相同的網(wǎng)絡(luò)。它目前只是一個二進(jìn)制分類,但進(jìn)一步的分類也可以這樣做:
#keras thingsfrom keras.utils import to_categoricalfrom keras import layersfrom keras import modelsfrom keras.regularizers import l2
Y_test_orig = to_categorical(Y_test_orig, num_classes=2) Y_train_orig = to_categorical(Y_train_orig, num_classes=2)
# 3 layer ConvNetmodel = models.Sequential()model.add(layers.Conv2D(32, (3, 3), activation='relu',input_shape=(32,32,1)))model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(128, (3, 3), activation='relu'))model.add(layers.MaxPooling2D((2, 2)))
#dense layermodel.add(layers.Flatten())
#add the regulizermodel.add(layers.Dense(128, activation='linear', activity_regularizer=l2(0.0003)))model.add(layers.Dense(128, activation='relu'))model.add(layers.Dense(2, activation='sigmoid'))
model.summary()
from keras.optimizers import Adamopt = Adam(lr=0.001)model.compile(optimizer=opt, loss=keras.losses.categorical_crossentropy, metrics=['accuracy'])
ntrain = len(X_train_orig)nval = len(X_test_orig)X_train_orig = X_train_orig.reshape((len(X_train_orig),32,32,1)) X_test_orig = X_test_orig.reshape((len(X_test_orig),32,32,1))
train_datagen = ImageDataGenerator(rescale = 1./255,rotation_range = 40, width_shift_range = .2, height_shift_range = .2, shear_range = .2, zoom_range = .2, horizontal_flip = True)
val_datagen = ImageDataGenerator(rescale = 1./255)
train_generator = train_datagen.flow(X_train_orig,Y_train_orig,batch_size=32)val_generator = val_datagen.flow(X_test_orig,Y_test_orig,batch_size = 32)
#X_train_orig, X_test_orig, Y_train_orig,Y_test_orighistory = model.fit_generator(train_generator,steps_per_epoch = ntrain/32, epochs = 64, validation_data = val_generator, validation_steps = nval/32 )
第3步中,我們將把所有內(nèi)容整合在一個Sklearn pipeline中,并通過predict函數(shù)將其公開。我們沒有介紹的一個重要功能是將復(fù)選框或單選按鈕與文檔中相應(yīng)的文本相關(guān)聯(lián)。在實(shí)際應(yīng)用中,僅僅檢測沒有關(guān)聯(lián)的元素是毫無用處的。
GITHUB代碼鏈接:
https://github.com/nebuchadnezzar26/Shape-Detector
本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
(全球TMT2022年4月18日訊)4月15日, 首屆OpenHarmony生態(tài)使能簽約儀式在深圳舉辦。在OpenHarmony工作委員會的指導(dǎo)下,軟通動力旗下全資子公司鴻湖萬聯(lián)(江蘇)科技發(fā)展有限公司(簡稱“鴻湖萬聯(lián)...
關(guān)鍵字:
華為
pen
支持最先進(jìn)的4G和5G寬帶通信和新應(yīng)用
美國新罕不什爾州納舒厄2022年4月14日 /美通社/...
關(guān)鍵字:
AN
pen
TI
(全球TMT2022年4月15日訊)Parallel Wireless, Inc.是總部位于美國的Open RAN領(lǐng)域企業(yè),該公司與巴西國家電信研究所、電信基礎(chǔ)設(shè)施項(xiàng)目(TIP)、Brisanet、Claro、TIM和...
關(guān)鍵字:
AN
pen
Wireless
北京2022年4月8日 /美通社/ -- 近日,軟通動力“揚(yáng)帆”富設(shè)備開發(fā)板成功通過OpenAtom OpenHarmony(簡稱OpenHarmony)兼容性測試并取得兼容性證書,標(biāo)志著公司在OpenHarmony領(lǐng)域...
關(guān)鍵字:
pen
(全球TMT2022年4月8日訊)近日,軟通動力“揚(yáng)帆”富設(shè)備開發(fā)板成功通過OpenAtom OpenHarmony(簡稱OpenHarmony)兼容性測試并取得兼容性證書。目前,軟通動力通過兼容性認(rèn)證的生態(tài)產(chǎn)品已達(dá)三...
關(guān)鍵字:
pen
(全球TMT2022年3月25日訊)近日,軟通動力自主研發(fā)的OpenHarmony“揚(yáng)帆”富設(shè)備開發(fā)板(簡稱:“揚(yáng)帆”)正式發(fā)布。這也是繼“啟航KS”、“啟航KP”之后,軟通動力發(fā)布的第三款OpenHarmony開發(fā)套...
關(guān)鍵字:
開發(fā)板
pen
北京2022年3月7日 /美通社/ -- 近日,軟通動力自主研發(fā)的OpenHarmony“揚(yáng)帆”富設(shè)備開發(fā)板(以下簡稱:“揚(yáng)帆”)正式發(fā)布,這也是繼“啟航KS”、“啟航KP”之后,軟通動力發(fā)布的第三款OpenH...
關(guān)鍵字:
pen
(全球TMT2022年3月7日訊)近日,軟通動力自主研發(fā)的OpenHarmony“揚(yáng)帆”富設(shè)備開發(fā)板(以下簡稱:“揚(yáng)帆”)正式發(fā)布,這也是繼“啟航KS”、“啟航KP”之后,軟通動力發(fā)布的第三款OpenHarmony開發(fā)...
關(guān)鍵字:
開發(fā)板
pen
價(jià)值9.02億美元的OpenSpace在建筑和房地產(chǎn)領(lǐng)域繼續(xù)得到對其技術(shù)的廣泛采用,現(xiàn)已獲取了1萬多個工地現(xiàn)場超過6.5億平米面積的影像...
關(guān)鍵字:
pen
ce
(全球TMT2022年2月23日訊)部位于美國并提供全球領(lǐng)先的“全G”(2G、3G、4G和5G)云原生Open RAN解決方案的Open RAN公司Parallel Wireless, Inc.宣布,公司與Türk T...
關(guān)鍵字:
pen
AN
(全球TMT2021年12月23日訊)作為澳大利亞的一家上市公司,澳鵬自1996年創(chuàng)建至今,始終專注于人工智能訓(xùn)練數(shù)據(jù)的領(lǐng)域,目前在語音、文字、圖像和視頻等標(biāo)注領(lǐng)域已積累了25+年的經(jīng)驗(yàn)。服務(wù)范圍覆蓋170多個國家,2...
關(guān)鍵字:
App
自動駕駛
pen
本文內(nèi)容來源于openEuleropenEulerDeveloperDay2021是由openEuler社區(qū)發(fā)起,面向社區(qū)開發(fā)者的一場技術(shù)盛會。旨在推動openEuler社區(qū)在多樣性計(jì)算、云原生全棧、全場景協(xié)同等技術(shù)發(fā)展...
關(guān)鍵字:
Developer
pen
整理?|禾木木出品|?AI科技大本營(ID:rgznai100)OpenAI,這次真的要Open了。OpenAI在2020年6月開放了GPT-3API接口,但只是開放商用,隨即吸引了大量的公司:客服、視頻游戲、輔導(dǎo)服務(wù)和...
關(guān)鍵字:
pen
AI
北京2021年11月30日 /美通社/ -- 為了構(gòu)建更為完整的物聯(lián)網(wǎng)大數(shù)據(jù)處理生態(tài),支持簡單高效地從其他時序數(shù)據(jù)庫遷移到TDengine,濤思數(shù)據(jù)研發(fā)并正式發(fā)布了taosAdapter。 TDengine是濤思數(shù)據(jù)專...
關(guān)鍵字:
os
pen
engine
本月初,華為宣布將自己研發(fā)的openEuler歐拉系統(tǒng)捐贈給開放原子開源基金會,此后已經(jīng)有多家CPU廠商加入該社區(qū),Intel也于11月22日簽署了CLA(ContributorLicenseAgreement貢獻(xiàn)者許可...
關(guān)鍵字:
CPU
華為
pen
整理?|禾木木出品|?AI科技大本營(ID:rgznai100)OpenAI,這次真的要Open了。OpenAI在2020年6月開放了GPT-3API接口,但只是開放商用,隨即吸引了大量的公司:客服、視頻游戲、輔導(dǎo)服務(wù)和...
關(guān)鍵字:
pen
AI
北京2021年11月12日 /美通社/ -- 11月9日-10日,操作系統(tǒng)產(chǎn)業(yè)峰會2021 & openEuler Summit 2021在北京國家會議中心舉辦。本屆操作系統(tǒng)產(chǎn)業(yè)峰會由開放原子開源基金會、中國電子...
關(guān)鍵字:
操作系統(tǒng)
pen
(全球TMT2021年11月12日訊)11月9日-10日,操作系統(tǒng)產(chǎn)業(yè)峰會2021 & openEuler Summit 2021在北京國家會議中心舉辦。本屆操作系統(tǒng)產(chǎn)業(yè)峰會由開放原子開源基金會、中國電子技術(shù)標(biāo)...
關(guān)鍵字:
操作系統(tǒng)
pen
作者|小白來源?|?小白學(xué)視覺導(dǎo)讀人工智能領(lǐng)域中增長最快的子領(lǐng)域之一是自然語言處理(NLP),它處理計(jì)算機(jī)與人類(自然)語言之間的交互,特別是如何編程計(jì)算機(jī)以處理和理解大量自然語言數(shù)據(jù)。自然語言處理通常涉及語音識別、自然...
關(guān)鍵字:
pen
加速建筑的可持續(xù)轉(zhuǎn)型,助力實(shí)現(xiàn)建筑領(lǐng)域的“碳中和”目標(biāo)
上海2021年11月8日 /美通社/ -- 全球智慧、健康、可持續(xù)建筑領(lǐng)軍企業(yè)江森自控...
關(guān)鍵字:
pen