標(biāo)題: 飛凌嵌入式 基于NXP i.MX8MMini 運(yùn)行tengine [打印本頁(yè)] 作者: 哦哈喲 時(shí)間: 2021-8-24 17:28 標(biāo)題: 飛凌嵌入式 基于NXP i.MX8MMini 運(yùn)行tengine Tengine 是 OPEN AI LAB 一款輕量級(jí)神經(jīng)網(wǎng)絡(luò)推理引擎,它針對(duì) Arm 嵌入式平臺(tái)進(jìn)行了專(zhuān)門(mén)優(yōu)化,對(duì) Android、Linux 系統(tǒng)都提供了很好的支持。
而且更加難能可貴的是 Tengine 并不依賴(lài)于專(zhuān)用 AI 芯片(即 Tengine 可以利用 GPU、NPU 這些具有專(zhuān)門(mén) AI 加速功能的模塊進(jìn)行 AI 運(yùn)算,也可以利用通用的 CPU 進(jìn)行 AI 運(yùn)算),很多 Arm 平臺(tái)都可以通過(guò) Tengine 框架對(duì)算力進(jìn)行深度挖掘,從而高效的運(yùn)行一些 AI 應(yīng)用。
本文就是想描述如何在OKMX8MM-C這一 Arm64 平臺(tái)上搭建 Tengine AI 推理框架,并運(yùn)行圖像識(shí)別相關(guān)應(yīng)用。首先在OKMX8MM-C上面移植了基于 Armbian 的 Debian 10 系統(tǒng),運(yùn)行的 u-boot 和 linux kernel 都是mainline的。
編譯 Tengine
OPEN AI LAB 在 Github 上提供了開(kāi)源的 Tengine 版本,并提供了比較詳細(xì)的參考文檔,所以可以直接下載源碼,根據(jù)文檔進(jìn)行編譯。
得益于 i.MX8MMini 強(qiáng)大的性能,我們可以直接在 i.MX8MMini 上下載代碼,進(jìn)行編譯,免去交叉編譯的諸多不便。