若是你們對HMS ML Kit 人臉檢測功能有所瞭解,相信已經動手調用咱們提供的接口編寫本身的APP啦。目前就有小夥伴在調用接口的過程當中反饋,不太清楚HMS ML Kit 文檔中的MLMaxSizeFaceTransactor這個接口的使用方法。爲了讓你們更加深入的瞭解咱們的接口,方便在場景中使用,在這篇文章中小編準備拋磚引玉,你們能夠打開思路,多多嘗試。若是有小夥伴想要深刻的瞭解更加全面具體的功能,請你們移步https://developer.huawei.com/consumer/cn/hms/huawei-mlkit。html
相信你們都有在五1、十一出去遊玩的經歷,是否是都是這樣的people mountain people sea.java
好不容易找我的少的地方,結果拍出來的照片是這樣的。android
這樣的網絡
還有這樣的app
不看不知道,原來個人面部表情這麼豐富。。是否是很心累?每次想要發個出去浪的朋友圈,都要在白天拍的成百上千張相似款的照片裏,花上一小時才能找到一張能看的照片。。。機器學習
爲了解決相似問題,HMS ML Kit 提供了追蹤識別畫面中最大臉的接口,可以識別圖像中的最大臉,方便對跟蹤圖像中的」重點目標「作相關操做和處理。本文中就簡單的調用MLMaxSizeFaceTransactor這個接口,實現最大臉微笑抓拍的功能。maven
很簡單,下載安裝便可。具體下載連接:
Android studio 官網下載連接:https://developer.android.com/studio
Android studio安裝流程參考連接:http://www.javashuo.com/article/p-wamzpmfl-bo.html ide
打開AndroidStudio項目級build.gradle文件學習
增量添加以下maven地址:gradle
buildscript { { maven {url 'http://developer.huawei.com/repo/'} } } allprojects { repositories { maven { url 'http://developer.huawei.com/repo/'} } }
要使應用程序可以在用戶從華爲應用市場安裝您的應用程序後,自動將最新的機器學習模型更新到用戶設備,請將如下語句添加到該應用程序的AndroidManifest.xml文件中:
<manifest ... <meta-data android:name="com.huawei.hms.ml.DEPENDENCY" android:value= " face"/> ... </manifest>
<!--相機權限--> <uses-feature android:name="android.hardware.camera" /> <uses-permission android:name="android.permission.CAMERA" /> <!--寫權限--> <uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" />
@Override public void onCreate(Bundle savedInstanceState) { …… if (!allPermissionsGranted()) { getRuntimePermissions(); }
能夠經過人臉識別檢測配置器「MLFaceAnalyzerSetting」建立人臉識別檢測器。
MLFaceAnalyzerSetting setting = new MLFaceAnalyzerSetting.Factory() .setFeatureType(MLFaceAnalyzerSetting.TYPE_FEATURES) .setKeyPointType(MLFaceAnalyzerSetting.TYPE_UNSUPPORT_KEYPOINTS) .setMinFaceProportion(0.1f) .setTracingAllowed(true) .create();
經過MLMaxSizeFaceTransactor.Creator建立「MLMaxSizeFaceTransactor」對象用於處理檢測到的最大臉,其中objectCreateCallback()方法是在檢測到對象的時候調用的,objectUpdateCallback()方法是在對象更新了的時候調用的,在方法裏經過Overlay在識別到的最大人臉上標記了一個方塊,並經過檢測結果獲取MLFaceEmotion來識別微笑表情觸發拍照。
MLMaxSizeFaceTransactor transactor = new MLMaxSizeFaceTransactor.Creator(analyzer, new MLResultTrailer<MLFace>() { @Override public void objectCreateCallback(int itemId, MLFace obj) { LiveFaceAnalyseActivity.this.overlay.clear(); if (obj == null) { return; } LocalFaceGraphic faceGraphic = new LocalFaceGraphic(LiveFaceAnalyseActivity.this.overlay, obj, LiveFaceAnalyseActivity.this); LiveFaceAnalyseActivity.this.overlay.addGraphic(faceGraphic); MLFaceEmotion emotion = obj.getEmotions(); if (emotion.getSmilingProbability() > smilingPossibility) { safeToTakePicture = false; mHandler.sendEmptyMessage(TAKE_PHOTO); } } @Override public void objectUpdateCallback(MLAnalyzer.Result<MLFace> var1, MLFace obj) { LiveFaceAnalyseActivity.this.overlay.clear(); if (obj == null) { return; } LocalFaceGraphic faceGraphic = new LocalFaceGraphic(LiveFaceAnalyseActivity.this.overlay, obj, LiveFaceAnalyseActivity.this); LiveFaceAnalyseActivity.this.overlay.addGraphic(faceGraphic); MLFaceEmotion emotion = obj.getEmotions(); if (emotion.getSmilingProbability() > smilingPossibility && safeToTakePicture) { safeToTakePicture = false; mHandler.sendEmptyMessage(TAKE_PHOTO); } } @Override public void lostCallback(MLAnalyzer.Result<MLFace> result) { LiveFaceAnalyseActivity.this.overlay.clear(); } @Override public void completeCallback() { LiveFaceAnalyseActivity.this.overlay.clear(); } }).create(); this.analyzer.setTransactor(transactor);
this.mLensEngine = new LensEngine.Creator(context, this.analyzer).setLensType(this.lensType) .applyDisplayDimension(640, 480) .applyFps(25.0f) .enableAutomaticFocus(true) .create();
this.mPreview.start(this.mLensEngine, this.overlay);
往期連接:快服務常見TOP3審覈雷區,再不過審就要崩潰啦!
內容來源:https://developer.huawei.com/consumer/cn/forum/topicview?tid=0201256372685820478&fid=18原做者:littlewhite