DoNews7月3日消息,在辦公場景中,文檔類型圖像被廣泛使用,比如證件、發(fā)票、合同、保險(xiǎn)單、掃描書籍、拍攝的表格等,這類圖像包含了大量的純文本信息,還包含有表格、圖片、印章、手寫、公式等復(fù)雜的版面布局和結(jié)構(gòu)信息。
早前這些信息均采用人工來處理,需要耗費(fèi)大量人力,很大程度上阻礙了企業(yè)的辦公效率 。其圖像文檔識別與內(nèi)容理解業(yè)務(wù)就是為了解決此類用戶痛點(diǎn)。
自 2017 年以來的不斷耕耘,金山辦公在圖像文檔識別與理解領(lǐng)域已達(dá)到了國內(nèi)領(lǐng)先水平。其主要使用了 CV(Computer Vision)與 VIE(Visual Information Extraction 視覺信息抽?。?等相關(guān)深度學(xué)習(xí)技術(shù),例如通過 CV 技術(shù)識別發(fā)票和 PDF 大綱并獲取其中的數(shù)據(jù)關(guān)系,其日請求次數(shù)已達(dá)上億次。
圖像識別與理解是一個(gè)很復(fù)雜的過程,一個(gè)任務(wù)的 pipeline 用到的深度學(xué)習(xí)模型多達(dá) 20+ 個(gè),且日請求量級較大(上億級別)需要大量的計(jì)算資源。當(dāng)業(yè)務(wù)落地時(shí),團(tuán)隊(duì)主要面臨以下兩個(gè)挑戰(zhàn):任務(wù)的絕對耗時(shí)不能過長,以及成本問題。
為了解決上訴的兩個(gè)挑戰(zhàn),金山辦公采用了英偉達(dá) T4 Tensor Core GPU 進(jìn)行推理、英偉達(dá) TensorRT 8.2.4 進(jìn)行模型加速、英偉達(dá) Triton 推理服務(wù)器 22.04 在 K8S 上進(jìn)行模型部署與編排。
長鏈路(多達(dá) 20+ 個(gè)模型的 pipeline)意味著長耗時(shí),若基于 CPU 推理的話,pipeline 耗時(shí)會(huì)長達(dá) 15 秒左右,通過 GPU 推理和 TensorRT 加速,成功將耗時(shí)降低到了 2.4 秒左右。
模型部署的時(shí)候,常見的做法是推理與業(yè)務(wù)代碼(前后處理)放在一個(gè)進(jìn)程空間里,每個(gè)模型需要在每個(gè)進(jìn)程中加載一次,由于顯存的限制,很多時(shí)候難以得到較高的單卡 GPU 使用率。
就算采用了進(jìn)程池的方式提高了單卡的 GPU 利用率,也會(huì)因 CPU 的限制,出現(xiàn)機(jī)器整體的 GPU 利用率不高。而在引入了 Triton 推理服務(wù)器進(jìn)行推理部署后,將推理與業(yè)務(wù)代碼解耦,初步實(shí)現(xiàn)將 GPU 資源池化調(diào)度。最終在同等業(yè)務(wù)規(guī)模情況下,部署成本節(jié)省了 23%。

金山辦公圖像文檔識別與理解業(yè)務(wù),通過采用英偉達(dá) T4 Tensor Core GPU 及 TensorRT加速,相比于 CPU 其 pipeline 耗時(shí)共下降 84%;而采用英偉達(dá) Triton 推理服務(wù)器部署,其部署成本節(jié)省了 23% 。