夕小瑤科技說 分享 隨著大語言模型不斷調優,大模型擁有了更優越的理解人類話語、指令并且生成類似人類語言文本的能力。機器和人類終歸不同,如何最快速地判斷機器是否能正確理解人類的知識和語言,成為我們共同關注的問題。 由此,甲骨易AI研究院推出了中文大語言模型成熟度評測——LucyEval,能夠通過對模型各方面能力的客觀測試,找到模型的不足,幫助設計者和工程師更加精準地調整、訓練模型,助力大模型不斷邁向更智能的未來。
Lucy的每一個字母背后都代表了不同的意義,包含著甲骨易AI研究院設計LucyEval時所考量的維度和堅持的理念。
"Lucy" 包含以下含義: Linguistic Fundamentals (基礎理解能力) :描述模型對基礎語法、詞匯和句子結構的理解程度。 Cognitive Reasoning (推理能力):評價模型是否能從給定的信息中進行邏輯推斷或解決復雜問題。 Yield of Specialized Outputs (特殊生成能力):測試模型在生成特定類型或風格的文本(例如詩歌、代碼或專業文章)時的效能。 目前,LucyEval已發布如下兩項測試集。 大規模多任務中文理解能力測試 Massive Multitask Chinese Understanding2023年4月25日,針對中文大模型理解能力測試缺失且推出高質量中文評測數據集迫在眉睫這一現狀,甲骨易AI研究院率先發布(首發)了一套大規模多任務中文大模型理解能力測試。 中文大模型多學科生成能力自動化評測基準 Chinese Generation Evaluation 目前領域內的評測大多都只針對模型的中文理解能力,通過選擇題由模型直接生成答案,或者提取模型對各個答案選項的輸出概率。從評測大模型的生成能力的角度,這些評測基準就存在很大的局限性。 在率先發布國內首個中文大模型理解能力測試后,甲骨易AI研究院于8月9日正式發布一套自動測評中文大模型多學科生成能力的評測基準。 基準包含11000道題目,涵蓋科技工程、人文與社會科學、數學計算、醫師資格考試、司法考試、注冊會計師考試等科目下的55個子科目。題型分為名詞解釋、簡答題和計算題三種類型。同時,甲骨易AI研究院還設計了一套復合打分方式Gscore,使評分過程更加合理、科學。 甲骨易AI研究院使用本評測基準對以下模型進行了zero-shot測試,包括GPT-4、ChatGLM-Std、訊飛星火Spark Desk、文心一言ERNIE Bot等。
本次受測中文大語言模型 從所有模型在六大類科目的平均分來看,GPT-4取得最高分41.12,比最低分32.28高出8.84分。
本次受測中文大語言模型平均得分 受測模型在其他學科的表現詳見評測地址:
未來,甲骨易AI研究院將矢志不移地為提升中文大語言模型能力為目標,持續研究適應其發展的測試集,期待與同樣關注大語言模型發展的業界同仁攜手共建。
|