11月17日(土)に以下のハンズオンに参加しました。
ハンズオン概要
内容としては、Webからスピーカーの情報を得て一覧で表示するというものです。
また、Microsoft AzureのFace APIをいうサービスを使用してそれぞれのスピーカー表情を分析するという体験もしました。
使用したハンズオンの資料はこちらです。
dev-days-labs-ja/hands-on at master · jxug/dev-days-labs-ja · GitHub
また、Face APIの公式ドキュメントはこちらです。
Quickstart: Detect faces in an image with the Azure Face .NET SDK - Azure Cognitive Services | Microsoft Docs
学んだこと
・今回はMac + Android(実機デバッグ用)を使用しました。Androidは実機デバッグが簡単なのでいいですね。Xamarinを始めたばかりの頃の自分に教えてあげたいと思いました。(Androidシミュレータのエラーで結構苦労したので)
・コードビハインドではなく、ViewModelにクリック時の処理を書くとメンテナンスが楽になったり開発時の分担がしやすいなどのメリットがあるそうです。ただ、ViewModelについてはまだ理解が曖昧なのできちんと勉強して理解したいと思いました。
・XamarinとFlutterの違いは画面の違いにあるそうです。Flutterの場合はAndroidもiOSも同じ画面になりますが、Xamarinの場合はAndroidはAndroidらしく、iOSはiOSらしい画面になるとのことです。
ハンズオンの感想
XamarinとAzureを組み合わせることで、出来ることが一気に広がるなと思いました。今回は顔認識を使いましたが、Azureの他のサービスも勉強してXamarinと組み合わせて色々試していきたいと思いました。
Xamarinに興味ある方はハンズオン資料などを参考に是非触ってみてください!