91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

C#實現基于ffmpeg加虹軟的人臉識別的示例

發布時間:2020-09-15 02:01:03 來源:腳本之家 閱讀:182 作者:sweetwxh 欄目:編程語言

關于人臉識別

目前的人臉識別已經相對成熟,有各種收費免費的商業方案和開源方案,其中OpenCV很早就支持了人臉識別,在我選擇人臉識別開發庫時,也橫向對比了三種庫,包括在線識別的百度、開源的OpenCV和商業庫虹軟(中小型規模免費)。

百度的人臉識別,才上線不久,文檔不太完善,之前聯系百度,官方也給了我基于Android的Example,但是不太符合我的需求,一是照片需要上傳至百度服務器(這個是最大的問題),其次,人臉的定位需要自行去實現(捕獲到人臉后上傳進行識別)。

OpenCV很早以前就用過,當時做人臉+車牌識別時,最先考慮的就是OpenCV,但是識別率在當時不算很高,后來是采用了一個電子科大的老師自行開發的識別庫(相對易用,識別率也還不錯),所以這次準備做時,沒有選擇OpenCV。

虹軟其實在無意間發現的,當時正在尋找開發庫,正在測試Python的一個方案,就發現有新聞說虹軟的識別庫全面開放并且可以免費使用,而且是離線識別,所以就下載嘗試了一下,發現識別率還不錯,所以就暫定了采用虹軟的識別方案。這里主要就給大家分享一下開發過程當中的一些坑和使用心得,順便開源識別庫的C# Wrapper。

SDK的C# Wrapper

由于虹軟的庫是采用C++開發的,而我的應用程序采用的是C#,所以,需要對庫進行包裝,便于C#的調用,包裝的主要需求是可以在C#中快速方便的調用,無需考慮內存、指針等問題,并且具備一定的容錯性。Wrapper庫目前已經開源,大家可以到Github上進行下載,地址點擊這里。Wrapper庫基本上沒有什么可以說的,無非是對PInvoke的包裝,只是里面做了比較多的細節處理,屏蔽了調用細節,提供了相對高層的函數。有興趣的可以看看源代碼。

Wrapper庫的使用例子

基本使用

人臉檢測(靜態圖片):

using (var detection = LocatorFactory.GetDetectionLocator("appId", "sdkKey"))
{
  var image = Image.FromFile("test.jpg");
  var bitmap = new Bitmap(image);

  var result = detection.Detect(bitmap, out var locateResult);
  //檢測到位置信息在使用完畢后,需要釋放資源,避免內存泄露
  using (locateResult)
  {
    if (result == ErrorCode.Ok && locateResult.FaceCount > 0)
    {
      using (var g = Graphics.FromImage(bitmap))
      {
        var face = locateResult.Faces[0].ToRectangle();
        g.DrawRectangle(new Pen(Color.Chartreuse), face.X, face.Y, face.Width, face.Height);
      }

      bitmap.Save("output.jpg", ImageFormat.Jpeg);
    }
  }
}

人臉跟蹤(人臉跟蹤一般用于視頻的連續幀識別,相較于檢測,又更高的執行效率,這里用靜態圖片做例子,實際使用和檢測沒啥區別):

using (var detection = LocatorFactory.GetTrackingLocator("appId", "sdkKey"))
{
  var image = Image.FromFile("test.jpg");
  var bitmap = new Bitmap(image);

  var result = detection.Detect(bitmap, out var locateResult);
  using (locateResult)
  {
    if (result == ErrorCode.Ok && locateResult.FaceCount > 0)
    {
      using (var g = Graphics.FromImage(bitmap))
      {
        var face = locateResult.Faces[0].ToRectangle();
        g.DrawRectangle(new Pen(Color.Chartreuse), face.X, face.Y, face.Width, face.Height);
      }

      bitmap.Save("output.jpg", ImageFormat.Jpeg);
    }
  }
}

人臉對比:

using (var proccesor = new FaceProcessor("appid",
        "locatorKey", "recognizeKey", true))
{
  var image1 = Image.FromFile("test2.jpg");
  var image2 = Image.FromFile("test.jpg");

  var result1 = proccesor.LocateExtract(new Bitmap(image1));
  var result2 = proccesor.LocateExtract(new Bitmap(image2));
  
  //FaceProcessor是個整合包裝類,集成了檢測和識別,如果要單獨使用識別,可以使用FaceRecognize類
  //這里做演示,假設圖片都只有一張臉
  //可以將FeatureData持久化保存,這個即是人臉特征數據,用于后續的人臉匹配
  //File.WriteAllBytes("XXX.data", feature.FeatureData);FeatureData會自動轉型為byte數組

  if ((result1 != null) & (result2 != null))
    Console.WriteLine(proccesor.Match(result1[0].FeatureData, result2[0].FeatureData, true));
}

使用注意事項

LocateResult(檢測結果)和Feature(人臉特征)都包含需要釋放的內存資源,在使用完畢后,記得需要釋放,否則會引起內存泄露。FaceProcessor和FaceRecognize的Match函數,在完成比較后,可以自動釋放,只需要最后兩個參數指定為true即可,如果是用于人臉匹配(1:N),則可以采用默認參數,這種情況下,第一個參數指定的特征數據不會自動釋放,用于循環和特征庫的特征進行比對。

整合的完整例子

在Github上,有完整的FaceDemo例子,里面主要實現了通過ffmpeg采集RTSP協議的圖像(使用海康的攝像機),然后進行人臉匹配。在開發過程中遇到不少的坑。

人臉識別的首要工作就是捕獲攝像機視頻幀,這一塊上是坑的最久的,因為最開始采用的是OpenCV的包裝庫,Emgu.CV,在開發過程中,捕獲USB攝像頭時,倒是問題不大,沒有出現過異常。在捕獲RTSP視頻流時,會不定時的出現AccessviolationException異常,短則幾十分鐘,長則幾個小時,總之就是不穩定。在官方Github地址上,也提了Issue,他們給出的答復是屏蔽的我業務邏輯,僅捕獲視頻流試試,結果問題依然,所以,我基本坑定了試Emgu.CV上面的問題。后來經過反復的實驗,最終確定了選擇ffmpeg。

ffmepg主要采用ProcessStartInfo進行調用,我采用的是NReco.VideoConverter(一個ffmpeg調用的包裝,可以通過nuget搜索安裝),雖然ffmpeg解決了穩定性問題,但是實際開發時,也遇到了不少坑,其中,最主要的是NReco.VideoConverter沒有任何文檔和例子(實際有,需要75刀購買),所以,自己研究了半天,如何捕獲視頻流并轉換為Bitmap對象。只要實現這一步,后續就是調用Wrapper就行了。

FaceDemo詳解

上面說到了,通過ffmpeg捕獲視頻流并轉換Bitmap是重點,所以,這里也主要介紹這一塊。

首先是ffmpeg的調用參數:

var setting =
new ConvertSettings
{
  CustomOutputArgs = "-an -r 15 -pix_fmt bgr24 -updatefirst 1"
}; //-s 1920x1080 -q:v 2 -b:v 64k

task = ffmpeg.ConvertLiveMedia("rtsp://admin:12qwaszxA@192.168.1.64:554/h364/ch2/main/av_stream", null,
outputStream, Format.raw_video, setting);
task.OutputDataReceived += DataReceived;
task.Start();

-an表示不捕獲音頻流,-r表示幀率,根據需求和實際設備調整此參數,-pix_fmt比較重要,一般情況下,指定為bgr24不會有太大問題(還是看具體設備),之前就是用成了rgb24,結果捕獲出來的圖像,人都變成阿凡達了,顏色是反的。最后一個參數,坑的我差點放棄這個方案。本身,ffmpeg在調用時,需要指定一個文件名模板,捕獲到的輸出會按照模板生成文件,如果要將數據輸出到控制臺,則最后傳入一個-即可,最開始沒有指定updatefirst,ffmpeg在捕獲了第一幀后就拋出了異常,最后查了半天ffmpeg說明(完整參數說明非常多,輸出到文本有1319KB),發現了這個參數,表示持續更新第一個文件。最后,在調用視頻捕獲是,需要指定輸出格式,必須指定為Format.raw_video,實際上這個格式名稱有些誤導人,按道理將應該叫做raw_image,因為最終輸出的是每幀原始的位圖數據。

到此為止,還并沒有解決視頻流數據的捕獲,因為又來一個坑,ProcessStartInfo的控制臺緩沖區大小只有32768 bytes,即,每一次的輸出,實際上并不是一個完整的位圖數據。

//完整代碼參加Github源代碼
//代碼片段1
private Bitmap _image;
private IntPtr _pImage;

{
  _pImage = Marshal.AllocHGlobal(1920 * 1080 * 3);
  _image = new Bitmap(1920, 1080, 1920 * 3, PixelFormat.Format24bppRgb, _pImage);
}

//代碼片段2
private MemoryStream outputStream;

private void DataReceived(object sender, EventArgs e)
{
  if (outputStream.Position == 6220800)
    lock (_imageLock)
    {
      var data = outputStream.ToArray();

      Marshal.Copy(data, 0, _pImage, data.Length);

      outputStream.Seek(0, SeekOrigin.Begin);
    }
}

花了不少時間摸索(不要看只有幾行,人都整崩潰了),得出了上述代碼。首先,我捕獲的圖像數據是24位的,并且圖像大小是1080p的,所以,實際上,一個原始位圖數據的大小為stride * height,即width * 3 * height,大小為6220800 bytes。所以,在判斷了捕獲數據到達這個大小后,就進行Bitmap轉換處理,然后將MemoryStream的位置移動到最開始。需要注意的時,由于捕獲到的是原始數據(不包含bmp的HeaderInfo),所以注意看Bitmap的構造方式,是通過一個指向原始數據位置的指針就行構造的,更新該圖像時,也僅需要更新指針指向的位置數據即可,無需在建立新的Bitmap實例。

位圖數據獲取到了,就可以進行識別處理了,高高興興的加上了識別邏輯,但是現實總是充滿了意外和驚喜,沒錯,坑又來了。沒有加入識別邏輯的時候,捕獲到的圖像在PictureBox上顯示非常正常,清晰、流暢,加上識別邏輯后,開始出現花屏(捕獲到的圖像花屏)、拖影、顯示延遲(至少會延遲10-20秒以上)、程序卡頓,總之就是各種問題。最開始,我的識別邏輯寫到DataReceived方法里面的,這個方法是運行于主線程外的另一個線程中的,其實按道理將,捕獲、識別、顯示位于一個線程中,應該是不會出現問題,我估計(不確定,沒有去深入研究,如果誰知道實際原因,可以留言告訴我),是因為ffmpeg的原因,因為ffmpeg是單獨的一個進程在跑,他的數據捕獲是持續在進行的,而識別模塊的處理時間大于每一幀的采集時間,所以,緩沖區中的數據沒有得到及時處理,ffmpeg接收到的部分圖像數據(大于32768的數據)被丟棄了,然后就出現了各種問題。最后,又是一次耗時不短的探索之旅。

private void Render()
{
  while (_renderRunning)
  {
    if (_image == null)
      continue;

    Bitmap image;

    lock (_imageLock)
    {
      image = (Bitmap) _image.Clone();
    }

    if (_shouldShot){
      WriteFeature(image);
      _shouldShot = false;
    }

    Verify(image);

    if (videoImage.InvokeRequired)
      videoImage.Invoke(new Action(() => { videoImage.Image = image; }));
    else
      videoImage.Image = image;
  }
}

如上代碼所述,我單獨開了一個線程,用于圖像的識別處理和顯示,每次都從已捕獲到的圖像中克隆出新的Bitmap實例進行處理。這種方式的缺點在于,有可能會導致丟幀的現象,因為上面說到了,識別時間(如果檢測到新的人臉,那么加上匹配,大約需要130ms左右)大于每幀時間,但是并不影響識別效果和需求的實現,基本丟棄的幀可以忽律。最后,運行,穩定了、完美了,實際也感覺不到丟幀。

Demo程序,我運行了大約4天左右,中間沒有出現過任何異常和識別錯誤。

寫在最后

雖然虹軟官方表示,免費識別庫適用于1000人臉庫以下的識別,實際上,做一定的工作(工作量其實也不小),也是可以實現較大規模的人臉搜索滴。例如,采用多線程進行匹配,如果人臉庫人臉數量大于1000,則可以考慮每個線程分別進行處理,人臉特征數據做緩存(一個人臉的特征數據是22KB,對內存要求較高),以提升程序的識別搜索效率。或者人臉庫特別大的情況下,可以采用分布式處理,人臉特征加載到Redis數據庫當中,多個進程多個線程讀取處理,每個線程上傳自己的識別結果,然后主進程做結果合并判斷工作,主要的挑戰就在于多線程的工作分配一致性和對單點故障的容錯性。

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持億速云。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

克山县| 轮台县| 和硕县| 宣城市| 宜昌市| 泌阳县| 德安县| 永城市| 沧州市| 吉木萨尔县| 古浪县| 剑川县| 南昌市| 丰台区| 邻水| 大同县| 崇左市| 正阳县| 师宗县| 泗洪县| 特克斯县| 鸡西市| 瑞昌市| 丽江市| 绥德县| 阿拉善左旗| 澄城县| 包头市| 宝山区| 萝北县| 仪征市| 潢川县| 通化县| 财经| 若羌县| 茶陵县| 海盐县| 莆田市| 综艺| 喀什市| 潮州市|