91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

web前端怎么實現圖片選擇題特效

發布時間:2023-02-01 10:38:01 來源:億速云 閱讀:115 作者:iii 欄目:web開發

這篇文章主要介紹“web前端怎么實現圖片選擇題特效”的相關知識,小編通過實際案例向大家展示操作過程,操作方法簡單快捷,實用性強,希望這篇“web前端怎么實現圖片選擇題特效”文章能幫助大家解決問題。

架構和概念

抽象整體的實現思路如下

web前端怎么實現圖片選擇題特效

MediaPipe Face Mesh是一個解決方案,即使在移動設備上也能實時估計468個3D面部地標。它使用機器學習(ML)來推斷3D面部表面,只需要一個攝像頭輸入,而無需專用的深度傳感器。該解決方案利用輕量級模型架構以及整個管道中的GPU加速,為實時體驗提供了至關重要的實時性能。

引入

import '@mediapipe/face_mesh';
import '@tensorflow/tfjs-core';
import '@tensorflow/tfjs-backend-webgl';
import * as faceLandmarksDetection from '@tensorflow-models/face-landmarks-detection';

創建人臉模型

引入tensorflow訓練好的人臉特征點檢測模型,預測 486 個 3D 人臉特征點,推斷出人臉的近似面部幾何圖形。

  • maxFaces 默認為1。模型將檢測到的最大人臉數量。返回的面孔數量可以小于最大值(例如,當輸入中沒有人臉時)。強烈建議將此值設置為預期的最大人臉數量,否則模型將繼續搜索缺失的面孔,這可能會減慢性能。

  • refineLandmarks 默認為false。如果設置為真,則細化眼睛和嘴唇周圍的地標坐標,并在虹膜周圍輸出其他地標。(這里我可以設置false,因為我們沒有用到眼部坐標)

  • solutionPath 通往am二進制文件和模型文件所在位置的路徑。(強烈建議將模型放到國內的對象存儲里面,首次加載可以節省大量時間,大小大概10M)

async createDetector(){
    const model = faceLandmarksDetection.SupportedModels.MediaPipeFaceMesh;
    const detectorConfig = {
        maxFaces:1, //檢測到的最大面部數量
        refineLandmarks:false, //可以完善眼睛和嘴唇周圍的地標坐標,并在虹膜周圍輸出其他地標
        runtime: 'mediapipe',
        solutionPath: 'https://cdn.jsdelivr.net/npm/@mediapipe/face_mesh', //WASM二進制文件和模型文件所在的路徑
    };
    this.detector = await faceLandmarksDetection.createDetector(model, detectorConfig);
}

web前端怎么實現圖片選擇題特效

人臉識別

返回的面孔列表包含圖像中每個面孔的檢測面。如果模型無法檢測到任何面孔,列表將是空的。 對于每個面,它包含一個檢測到的面孔的邊界框,以及一個關鍵點數組。MediaPipeFaceMesh返回468個關鍵點。每個關鍵點都包含x和y,以及一個名稱。

現在,您可以使用探測器來檢測人臉。estimateFaces方法接受多種格式的圖像和視頻,包括:HTMLVideoElementHTMLImageElementHTMLCanvasElementTensor3D

  • flipHorizontal 可選。默認為false。當圖像數據來自相機時,結果必須水平翻轉。

async renderPrediction() {
    var video = this.$refs['video'];
    var canvas = this.$refs['canvas'];
    var context = canvas.getContext('2d');
    context.clearRect(0, 0, canvas.width, canvas.height);
    const Faces = await this.detector.estimateFaces(video, {
        flipHorizontal:false, //鏡像
    });
    if (Faces.length > 0) {
        this.log(`檢測到人臉`);
    } else {
        this.log(`沒有檢測到人臉`);
    }
}

web前端怎么實現圖片選擇題特效

該框表示圖像像素空間中面部的邊界框,xMin、xMax表示x-bounds、yMin、yMax表示y-bounds,寬度、高度表示邊界框的尺寸。 對于關鍵點,x和y表示圖像像素空間中的實際關鍵點位置。z表示頭部中心為原點的深度,值越小,鍵點離相機越近。Z的大小使用與x大致相同的比例。 這個名字為一些關鍵點提供了一個標簽,例如“嘴唇”、“左眼”等。請注意,并非每個關鍵點都有標簽。

如何判斷

找到人臉上的兩個兩個點

第一個點 額頭中心位置第二個點 下巴中心位置

const place1 = (face.keypoints || []).find((e,i)=>i===10); //額頭位置
const place2 = (face.keypoints || []).find((e,i)=>i===152); //下巴位置
/*
              x1,y1
                |
                |
                |
  x2,y2  -------|------- x4,y4
              x3,y3
 */
 const [x1,y1,x2,y2,x3,y3,x4,y4] = [
      place1.x,place1.y,
      0,place2.y,
      place2.x,place2.y,
      this.canvas.width, place2.y
 ];

通過canvas.width 額頭中心位置下巴中心位置計算出 x1,y1,x2,y2,x3,y3,x4,y4

web前端怎么實現圖片選擇題特效

getAngle({ x: x1, y: y1 }, { x: x2, y: y2 }){
    const dot = x1 * x2 + y1 * y2
    const det = x1 * y2 - y1 * x2
    const angle = Math.atan2(det, dot) / Math.PI * 180
    return Math.round(angle + 360) % 360
}
const angle = this.getAngle({
        x: x1 - x3,
        y: y1 - y3,
    }, {
        x: x2 - x3,
        y: y2 - y3,
    });
console.log('角度',angle)

web前端怎么實現圖片選擇題特效

通過獲取角度,通過角度的大小來判斷左右擺頭。

關于“web前端怎么實現圖片選擇題特效”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識,可以關注億速云行業資訊頻道,小編每天都會為大家更新不同的知識點。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

安仁县| 莱阳市| 景德镇市| 太仆寺旗| 海晏县| 富顺县| 泰州市| 吉林市| 正宁县| 安图县| 洛隆县| 宁陵县| 韩城市| 凌源市| 黄冈市| 黄大仙区| 德化县| 大关县| 白水县| 德格县| 基隆市| 元阳县| 荥经县| 松潘县| 信丰县| 佳木斯市| 锡林浩特市| 乌苏市| 华坪县| 铜陵市| 顺义区| 宜州市| 屏南县| 淳化县| 松原市| 澄江县| 和龙市| 类乌齐县| 漯河市| 周至县| 长岭县|