91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Android API如何實現人臉檢測

發布時間:2021-12-14 10:34:21 來源:億速云 閱讀:157 作者:小新 欄目:移動開發

這篇文章主要介紹Android API如何實現人臉檢測,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

圖片來源:Wikipedia

所謂人臉檢測就是指從一副圖片或者一幀視頻中標定出所有人臉的位置和尺寸。人臉檢測是人臉識別系統中的一個重要環節,也可以獨立應用于視頻監控。在數字媒體日益普及的今天,利用人臉檢測技術還可以幫助我們從海量圖片數據中快速篩選出包含人臉的圖片。 在目前的數碼相機中,人臉檢測可以用來完成自動對焦,即“臉部對焦”。“臉部對焦”是在自動曝光和自動對焦發明后,二十年來最重要的一次攝影技術革新。家用數碼相機,占絕大多數的照片是以人為拍攝主體的,這就要求相機的自動曝光和對焦以人物為基準。

via cdstm.cn

構建一個人臉檢測的Android Activity

你可以構建一個通用的Android Activity,我們擴展了基類ImageView,成為MyImageView,而我們需要進行檢測的包含人臉的位圖文件必須是565格式,API才能正常工作。被檢測出來的人臉需要一個置信測度(confidence measure),這個措施定義在android.media.FaceDetector.Face.CONFIDENCE_THRESHOLD。

最重要的方法實現在setFace(),它將FaceDetector對象實例化,同時調用findFaces,結果存放在faces里,人臉的中點轉移到MyImageView。代碼如下:

public class TutorialOnFaceDetect1 extends Activity {    private MyImageView mIV;    private Bitmap mFaceBitmap;    private int mFaceWidth = 200;    private int mFaceHeight = 200;    private static final int MAX_FACES = 1;    private static String TAG = "TutorialOnFaceDetect";      @Override   public void onCreate(Bundle savedInstanceState) {   super.onCreate(savedInstanceState);      mIV = new MyImageView(this);   setContentView(mIV, new LayoutParams(LayoutParams.WRAP_CONTENT, LayoutParams.WRAP_CONTENT));      // load the photo   Bitmap b = BitmapFactory.decodeResource(getResources(), R.drawable.face3);   mFaceBitmap = b.copy(Bitmap.Config.RGB_565, true);   b.recycle();      mFaceWidth = mFaceBitmap.getWidth();   mFaceHeight = mFaceBitmap.getHeight();   mIV.setImageBitmap(mFaceBitmap);      // perform face detection and set the feature points setFace();      mIV.invalidate();   }      public void setFace() {   FaceDetector fd;   FaceDetector.Face [] faces = new FaceDetector.Face[MAX_FACES];   PointF midpoint = new PointF();   int [] fpx = null;   int [] fpy = null;   int count = 0;      try {   fd = new FaceDetector(mFaceWidth, mFaceHeight, MAX_FACES);   count = fd.findFaces(mFaceBitmap, faces);   } catch (Exception e) {   Log.e(TAG, "setFace(): " + e.toString());   return;   }      // check if we detect any faces   if (count > 0) {   fpx = new int[count];   fpy = new int[count];      for (int i = 0; i < count; i++) {   try {   faces[i].getMidPoint(midpoint);      fpx[i] = (int)midpoint.x;   fpy[i] = (int)midpoint.y;   } catch (Exception e) {   Log.e(TAG, "setFace(): face " + i + ": " + e.toString());   }   }   }      mIV.setDisplayPoints(fpx, fpy, count, 0);   }   }

接下來的代碼中,我們在MyImageView中添加setDisplayPoints() ,用來在被檢測出的人臉上標記渲染。圖1展示了一個標記在被檢測處的人臉上處于中心位置。

// set up detected face features for display   public void setDisplayPoints(int [] xx, int [] yy, int total, int style) {    mDisplayStyle = style;    mPX = null;    mPY = null;      if (xx != null && yy != null && total > 0) {   mPX = new int[total];   mPY = new int[total];      for (int i = 0; i < total; i++) {   mPX[i] = xx[i];   mPY[i] = yy[i];   }   }   }
Android API如何實現人臉檢測

圖1:單一人臉檢測

多人臉檢測

通過FaceDetector可以設定檢測到人臉數目的上限。比如設置最多只檢測10張臉:

private static final int MAX_FACES = 10;

圖2展示檢測到多張人臉的情況。

Android API如何實現人臉檢測

圖2:多人人臉檢測

定位眼睛中心位置

Android人臉檢測返回其他有用的信息,例同時會返回如eyesDistance,pose,以及confidence。我們可以通過eyesDistance來定位眼睛的中心位置。

下面的代碼中,我們將setFace()放在doLengthyCalc()中。同時圖3展示了定位眼睛中心位置的效果。

public class TutorialOnFaceDetect extends Activity {    private MyImageView mIV;    private Bitmap mFaceBitmap;    private int mFaceWidth = 200;    private int mFaceHeight = 200;    private static final int MAX_FACES = 10;    private static String TAG = "TutorialOnFaceDetect";   private static boolean DEBUG = false;      protected static final int GUIUPDATE_SETFACE = 999;   protected Handler mHandler = new Handler(){   // @Override   public void handleMessage(Message msg) {   mIV.invalidate();      super.handleMessage(msg);   }   };      @Override   public void onCreate(Bundle savedInstanceState) {   super.onCreate(savedInstanceState);      mIV = new MyImageView(this);   setContentView(mIV, new LayoutParams(LayoutParams.WRAP_CONTENT, LayoutParams.WRAP_CONTENT));      // load the photo   Bitmap b = BitmapFactory.decodeResource(getResources(), R.drawable.face3);   mFaceBitmap = b.copy(Bitmap.Config.RGB_565, true);   b.recycle();      mFaceWidth = mFaceBitmap.getWidth();   mFaceHeight = mFaceBitmap.getHeight();   mIV.setImageBitmap(mFaceBitmap);   mIV.invalidate();      // perform face detection in setFace() in a background thread   doLengthyCalc();   }      public void setFace() {   FaceDetector fd;   FaceDetector.Face [] faces = new FaceDetector.Face[MAX_FACES];   PointF eyescenter = new PointF();   float eyesdist = 0.0f;   int [] fpx = null;   int [] fpy = null;   int count = 0;      try {   fd = new FaceDetector(mFaceWidth, mFaceHeight, MAX_FACES);   count = fd.findFaces(mFaceBitmap, faces);   } catch (Exception e) {   Log.e(TAG, "setFace(): " + e.toString());   return;   }      // check if we detect any faces   if (count > 0) {   fpx = new int[count * 2];   fpy = new int[count * 2];      for (int i = 0; i < count; i++) {   try {   faces[i].getMidPoint(eyescenter);   eyesdist = faces[i].eyesDistance();      // set up left eye location   fpx[2 * i] = (int)(eyescenter.x - eyesdist / 2);   fpy[2 * i] = (int)eyescenter.y;      // set up right eye location   fpx[2 * i + 1] = (int)(eyescenter.x + eyesdist / 2);   fpy[2 * i + 1] = (int)eyescenter.y;      if (DEBUG) {   Log.e(TAG, "setFace(): face " + i + ": confidence = " + faces[i].confidence()   + ", eyes distance = " + faces[i].eyesDistance()   + ", pose = ("+ faces[i].pose(FaceDetector.Face.EULER_X) + ","   + faces[i].pose(FaceDetector.Face.EULER_Y) + ","   + faces[i].pose(FaceDetector.Face.EULER_Z) + ")"   + ", eyes midpoint = (" + eyescenter.x + "," + eyescenter.y +")");   }   } catch (Exception e) {   Log.e(TAG, "setFace(): face " + i + ": " + e.toString());   }   }   }      mIV.setDisplayPoints(fpx, fpy, count * 2, 1);   }      private void doLengthyCalc() {   Thread t = new Thread() {   Message m = new Message();      public void run() {   try {   setFace();   m.what = TutorialOnFaceDetect.GUIUPDATE_SETFACE;   TutorialOnFaceDetect.this.mHandler.sendMessage(m);   } catch (Exception e) {   Log.e(TAG, "doLengthyCalc(): " + e.toString());   }   }   };      t.start();   }   }
Android API如何實現人臉檢測

以上是“Android API如何實現人臉檢測”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

宜城市| 正阳县| 进贤县| 合阳县| 中超| 鹿泉市| 富锦市| 仁布县| 嘉兴市| 蒙自县| 凤冈县| 渝中区| 云南省| 泾阳县| 井冈山市| 喀什市| 大石桥市| 盈江县| 将乐县| 商南县| 泰顺县| 称多县| 临汾市| 田林县| 威远县| 荔浦县| 湖南省| 枣强县| 紫阳县| 筠连县| 延长县| 弥渡县| 衡山县| 玉环县| 慈溪市| 尚志市| 深水埗区| 北辰区| 南部县| 贡山| 石城县|