Edge Impulse解決方案之Continuous motion recognition教學實作

接續前面文章,接下來進行Continuous motion recognition教學實作,過程中請同步閱讀官方教學文章。本文為了方便說明,就直接使用Prebuilt dataset : Continuous gestures資料集,若想自行製作資料集請參考官方教學文章之說明。首先,下載資料集並解壓縮,在Node.js command prompt中使用以下命令將資料集上傳至Edge Impulse平台:

edge-impulse-uploader --clean

edge-impulse-uploader --category training training/*.cbor

edge-impulse-uploader --category testing testing/*.cbor

完成後進入Create impulse,依照以下設定:

  • the window size to 2000
  • the window increase to 80
  • add the ‘Spectral Analysis’ block
  • add the ‘Neural Network (Keras)’ block

完成後按下”Save impulse”鈕保存impulse。接著在Spectral features的Parameters分頁按下”Save parameters”鈕保存參數與Generate features分頁按下”Generate features”鈕以進行特徵的產生:

NN Classifier中按下”Start training”鈕進行模型訓練:

Model testing,選擇所有測試資料後按下”Classify selected”進行模型測試:

至此,在Edge Impulse平台上完成深度學習開發流程中的上傳資料、特徵生成、模型建構、模型訓練與模型測試等相關工作。接下來要將模型發佈到裝置上,於Deployment,在Inferencing engine選擇TensorFlow Lite(官方教學是選uTensor,但我跟原廠那邊針對一些問題討論後,建議我先選擇使用TensorFlow Lite),在Output format選擇Binary (DISCO-L475VG-IOT01A),完成後按下”Build”鈕開始進行建構程序:

正常完成後,將產生出來的執行檔(Binary File)拷貝到開發板Mbed磁碟區進行軔體更新:

最後,用Tera Term發送以下命令以執行impulse:

AT+RUNIMPULSE

並觀察執行結果:

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *