近日,合合信息在WAIC 2024上發(fā)布了用于大模型語料訓練的“加速器”產(chǎn)品——TextIn智能文檔處理平臺。合合信息的思路是,從“煉丹”源頭的燃料出發(fā),通過標準化平臺進行語料結(jié)構(gòu)化,提高數(shù)據(jù)預訓練效率,幫助大模型廠商達成有效的模型性能提升和迭代。 國內(nèi)的大模型產(chǎn)業(yè)處于高速發(fā)展時期,面向各個細分領域的大模型如雨后春筍辦涌現(xiàn),例如處理文檔的kimi、豆包,用于制作ppt的天工、萬知,但做到與chatgpt媲美確非常困難。業(yè)內(nèi)人士對這個現(xiàn)象的解釋是,高質(zhì)量的中文數(shù)據(jù)集實在緊缺,訓模型時只能直接購買外文標注數(shù)據(jù)集或者直接采集開源的國外語料庫作為外援。一旦“進口語料”加入的訓練參數(shù)量多了,就會出現(xiàn)跟ChatGPT相似的回答方式。 國內(nèi)外大模型數(shù)據(jù)集主要為英文,均源于許多開源數(shù)據(jù)集進行訓練,如Common Crawl、RedPajama、BooksCorpus、The Pile、ROOT等。這部分數(shù)據(jù)雖然量多,但質(zhì)量上卻良莠不齊。一大優(yōu)質(zhì)的中文語料數(shù)據(jù),沉睡在報告、論文、報紙等文檔里。 為緩解語料荒困境,合合信息推出了用于大模型語料訓練的“加速器”產(chǎn)品——TextIn智能文檔處理平臺。在訓練前期階段,使用“加速器”文檔解析引擎,破解書籍、論文、研報等文檔中的版面解析障礙,為模型訓練與應用輸送純凈的“燃料”;同時,“加速器”搭載了文本向量化模型,以解決大模型“已讀亂回”的幻覺問題。 合合信息此次發(fā)布的大模型“加速器TextIn智能文檔處理平臺,由TextIn文檔解析、TextIn Embedding(文本向量數(shù)據(jù)模型)以及OpenKIE三大工具組成。從獲得海量數(shù)據(jù)到高價值數(shù)據(jù),預訓練階段的語料處理十分關(guān)鍵。這意味著,作為一個平臺型產(chǎn)品,向大模型廠商和開發(fā)者“遞鏟子”,其基礎的工具能力是否足夠扎實,關(guān)系到種子用戶的購買意愿。 基于這一思路,合合信息在產(chǎn)品設計階段提前做了幾件事。首先是場景前置,在未個性化階段提前給模型補充大量優(yōu)質(zhì)的垂直領域Know-how,比如金融、法律、教育等,關(guān)注特定行業(yè)中的普遍痛點,基于用戶訴求在產(chǎn)品設計時提供解決方案,進而提高大模型加速器在核心應用場景中表現(xiàn)能力。二是專注產(chǎn)品化,不只對客戶提供通用場景的API,而是提供更多工具型產(chǎn)品,降低應用門檻,做到開箱即用,這對技術(shù)資源較為薄弱的傳統(tǒng)企業(yè)、中小創(chuàng)業(yè)公司或個人開發(fā)者來說非常友好。 大模型變革的浪潮里,以數(shù)據(jù)為中心,成為行業(yè)人士從事大模型研發(fā)和應用的共識。具體到實踐層面,大模型上游階段在文本解析、邏輯版面、文檔問答等方面,仍有很多的提升工作可以做。 未來,合合信息將繼續(xù)依托技術(shù)優(yōu)勢,面向人工智能產(chǎn)業(yè)的不足提出解決辦法,助力大模型產(chǎn)業(yè)持續(xù)健康發(fā)展。 |