Azure Percept DKを触ってみる③ - サンプルモデルデプロイ編

はじめに

前記事でカメラモジュールの動作確認が完了しました。 今回はAzure Percept Studioで事前に学習が完了しているサンプルモデルをAzure Percept DKにデプロイしてみようと思います。

こちらを参考に進めていきます。

docs.microsoft.com

サンプルモデルをデプロイする

Azure Percept Studioを開き、サイドメニューのデバイスを選択します。

https://portal.azure.com/#blade/AzureEdgeDevices/Main/overview

https://i.gyazo.com/7e4443c1e60048546dc072641d1df883.png

セットアップしたデバイスを選択します。

https://i.gyazo.com/a29fb25b3b511957b66c3105552053c5.png

Viewsタブを開き、サンプルモデルのデプロイを選択します。

https://i.gyazo.com/4318c33a29e6d67ed35fefff7691befb.png

https://i.gyazo.com/10f1eabfd049e523d5f7577f58221a91.png

好きなモデルを選択し、デバイスへのデプロイをクリックします。

  • 一般的なオブジェクトの検出
    • 人やペン、車など一般的なオブジェクトの検出ができます。
    • デフォルトでデプロイされているモデルはこれっぽい。
  • 人物検出
    • 人を検出します。
  • 棚の製品
    • お店の商品管理などで利用されるものと思われます。
  • 車検出
    • 車を検出します。

今回は人物検出を行ってみます。

デプロイは数秒〜数十秒で完了します。
完了するとポップアップが表示されるので、ストリームを表示します。

https://i.gyazo.com/45acafa65ca4fb4a1cbf53d253d36c37.png

https://i.gyazo.com/f262ec834a7e40999ff42efbbb7f6a9e.png

人の検出ができました。

https://i.gyazo.com/dfc664f6ae1a7b1ba99a5d87d425f2e8.gif