目录

起点

将HTML5网络摄像头API与TensorFlow.js结合使用

检测脸部触摸

技术脚注

终点线

下一步是什么?我们是否可以在未经培训的情况下检测到面部触摸?


  • 下载TensorFlowJS示例-6.1 MB

TensorFlow + JavaScript。现在,最流行,最先进的AI框架支持地球上使用最广泛的编程语言,因此,让我们在我们的web浏览器中通过深度学习实现奇迹,通过TensorFlow.js的WebGL GPU加速!

这是我们六个系列的第四篇文章:

  1. 使用TensorFlow.js在浏览器中进行深度学习入门
  2. 狗和披萨:使用TensorFlow.js在浏览器中实现计算机视觉
  3. 绒毛动物探测器:通过TensorFlow.js中的迁移学习识别浏览器中的自定义对象
  4. 使用TensorFlow.js进行人脸触摸检测第1部分:将实时网络摄像头数据与深度学习配合使用
  5. 使用TensorFlow.js进行人脸触摸检测第2部分:使用BodyPix
  6. 使用TensorFlow.js进行AI在网络摄像头中翻译手势和手语

关于支持HTML5的现代Web浏览器的最佳部分之一就是可以轻松访问各种API,例如网络摄像头和音频。随着最近影响公共卫生的COVID-19问题,一堆非常有创造力的开发人员使用它来构建一个名为donottouchyourface.com的应用程序,该应用程序可以帮助人们通过学会戒除接触面部的方法来降低患病的风险。在本文中,我们将使用到目前为止在TensorFlow.js中通过计算机视觉学到的所有知识来尝试自己构建此应用程序的版本。

起点

我们将在对象识别模型代码中添加网络摄像头功能,然后将实时捕获帧,以训练和预测面部触摸动作。如果您跟随上一篇文章,将对这段代码感到熟悉。这是结果代码将执行的操作:

  • 导入TensorFlow.js和TensorFlow的tf-data.js
  • 定义触摸与非触摸类别标签
  • 为网络摄像头添加视频元素
  • 首次训练后,每200毫秒运行一次模型预测
  • 显示预测结果
  • 加载预先训练的MobileNet模型并为迁移学习做准备
  • 训练和分类图像中的自定义对象
  • 在训练过程中跳过图像和目标样本的处理,以保持它们进行多次训练

在添加实时网络摄像头功能之前,这将是该项目的起点:

<html><head><title>Face Touch Detection with TensorFlow.js Part 1: Using Real-Time Webcam Data with Deep Learning</title><script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs@2.0.0/dist/tf.min.js"></script><script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs-data@2.0.0/dist/tf-data.min.js"></script><style>img, video {object-fit: cover;}</style></head><body><video autoplay playsinline muted id="webcam" width="224" height="224"></video><h1 id="status">Loading...</h1><script>let touch = [];let notouch = [];const labels = ["Touch!","No Touch"];function setText( text ) {document.getElementById( "status" ).innerText = text;}async function predictImage() {if( !hasTrained ) { return; } // Skip prediction until trainedconst img = await getWebcamImage();let result = tf.tidy( () => {const input = img.reshape( [ 1, 224, 224, 3 ] );return model.predict( input );});img.dispose();let prediction = await result.data();result.dispose();// Get the index of the highest value in the predictionlet id = prediction.indexOf( Math.max( ...prediction ) );setText( labels[ id ] );}function createTransferModel( model ) {// Create the truncated base model (remove the "top" layers, classification + bottleneck layers)const bottleneck = model.getLayer( "dropout" ); // This is the final layer before the conv_pred pre-trained classification layerconst baseModel = tf.model({inputs: model.inputs,outputs: bottleneck.output});// Freeze the convolutional basefor( const layer of baseModel.layers ) {layer.trainable = false;}// Add a classification headconst newHead = tf.sequential();newHead.add( tf.layers.flatten( {inputShape: baseModel.outputs[ 0 ].shape.slice( 1 )} ) );newHead.add( tf.layers.dense( { units: 100, activation: 'relu' } ) );newHead.add( tf.layers.dense( { units: 100, activation: 'relu' } ) );newHead.add( tf.layers.dense( { units: 10, activation: 'relu' } ) );newHead.add( tf.layers.dense( {units: 2,kernelInitializer: 'varianceScaling',useBias: false,activation: 'softmax'} ) );// Build the new modelconst newOutput = newHead.apply( baseModel.outputs[ 0 ] );const newModel = tf.model( { inputs: baseModel.inputs, outputs: newOutput } );return newModel;}async function trainModel() {hasTrained = false;setText( "Training..." );// Setup training dataconst imageSamples = [];const targetSamples = [];for( let i = 0; i < touch.length; i++ ) {let result = touch[ i ];imageSamples.push( result );targetSamples.push( tf.tensor1d( [ 1, 0 ] ) );}for( let i = 0; i < notouch.length; i++ ) {let result = notouch[ i ];imageSamples.push( result );targetSamples.push( tf.tensor1d( [ 0, 1 ] ) );}const xs = tf.stack( imageSamples );const ys = tf.stack( targetSamples );// Train the model on new image samplesmodel.compile( { loss: "meanSquaredError", optimizer: "adam", metrics: [ "acc" ] } );await model.fit( xs, ys, {epochs: 30,shuffle: true,callbacks: {onEpochEnd: ( epoch, logs ) => {console.log( "Epoch #", epoch, logs );}}});hasTrained = true;}// Mobilenet v1 0.25 224x224 modelconst mobilenet = "https://storage.googleapis.com/tfjs-models/tfjs/mobilenet_v1_0.25_224/model.json";let model = null;let hasTrained = false;(async () => {// Load the modelmodel = await tf.loadLayersModel( mobilenet );model = createTransferModel( model );// Your Code Goes Here// Setup prediction every 200 mssetInterval( predictImage, 200 );})();</script></body>
</html>

将HTML5网络摄像头API与TensorFlow.js结合使用

有了代码段后,使用JavaScript启动网络摄像头非常简单。这是一个实用程序功能,您可以启动它并请求用户访问:

async function setupWebcam() {return new Promise( ( resolve, reject ) => {const webcamElement = document.getElementById( "webcam" );const navigatorAny = navigator;navigator.getUserMedia = navigator.getUserMedia ||navigatorAny.webkitGetUserMedia || navigatorAny.mozGetUserMedia ||navigatorAny.msGetUserMedia;if( navigator.getUserMedia ) {navigator.getUserMedia( { video: true },stream => {webcamElement.srcObject = stream;webcamElement.addEventListener( "loadeddata", resolve, false );},error => reject());}else {reject();}});
}

现在,在创建模型之后,在代码中调用setupWebcam()函数,它将开始在网页上工作。让我们使用该tf-data库初始化全局摄像头,以便我们可以使用其辅助函数并轻松地从摄像头框架创建张量。

let webcam = null;(async () => {// Load the modelmodel = await tf.loadLayersModel( mobilenet );model = createTransferModel( model );await setupWebcam();webcam = await tf.data.webcam( document.getElementById( "webcam" ) );// Setup prediction every 200 mssetInterval( predictImage, 200 );
})();

使用TensorFlow网络摄像头帮助程序捕获框架并标准化像素可以通过以下功能完成:

async function getWebcamImage() {const img = ( await webcam.capture() ).toFloat();const normalized = img.div( 127 ).sub( 1 );return normalized;
}

然后,让我们使用此功能来捕获图像以在另一个功能中训练数据:

async function getWebcamImage() {const img = ( await webcam.capture() ).toFloat();const normalized = img.div( 127 ).sub( 1 );return normalized;
}

最后,让我们在页面上的网络摄像头视频元素下方添加三个按钮,以激活示例图像捕获和模型训练:

<video autoplay playsinline muted id="webcam" width="224" height="224"></video>
<button onclick="captureSample(0)">Touch</button>
<button onclick="captureSample(1)">No Touch</button>
<button onclick="trainModel()">Train</button>
<h1 id="status">Loading...</h1>

检测脸部触摸

添加了网络摄像头功能后,我们就可以尝试进行面部触摸检测了。

在摄像头视图中打开网页并使用“触摸和“不触摸按钮捕获不同的样本图像。似乎每个“触摸”和“非触摸”捕获大约10-15个样本就足以开始很好地检测。

技术脚注

  • 因为我们可能只在很小的样本上训练我们的模型,而没有拍摄很多不同的人的照片,所以当其他人尝试您的应用程序时,受过训练的AI的准确性将会很低
  • AI可能无法很好地区分深度,并且其行为可能比人脸触摸检测更像人脸检测
  • 我们可能已经将按钮和相应的类别命名为“Touch vs. No Touch”,但是模型无法识别含义。可以对捕获的照片的任意两种变化进行训练,例如Dog vs Cat或Circle vs Rectangle

终点线

供您参考,下面是完整的代码:

<html><head><title>Face Touch Detection with TensorFlow.js Part 1: Using Real-Time Webcam Data with Deep Learning</title><script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs@2.0.0/dist/tf.min.js"></script><script src="https://cdn.jsdelivr.net/npm/@tensorflow/tfjs-data@2.0.0/dist/tf-data.min.js"></script><style>img, video {object-fit: cover;}</style></head><body><video autoplay playsinline muted id="webcam" width="224" height="224"></video><button onclick="captureSample(0)">Touch</button><button onclick="captureSample(1)">No Touch</button><button onclick="trainModel()">Train</button><h1 id="status">Loading...</h1><script>let touch = [];let notouch = [];const labels = ["Touch!","No Touch"];function setText( text ) {document.getElementById( "status" ).innerText = text;}async function predictImage() {if( !hasTrained ) { return; } // Skip prediction until trainedconst img = await getWebcamImage();let result = tf.tidy( () => {const input = img.reshape( [ 1, 224, 224, 3 ] );return model.predict( input );});img.dispose();let prediction = await result.data();result.dispose();// Get the index of the highest value in the predictionlet id = prediction.indexOf( Math.max( ...prediction ) );setText( labels[ id ] );}function createTransferModel( model ) {// Create the truncated base model (remove the "top" layers, classification + bottleneck layers)// const bottleneck = model.getLayer( "conv_pw_13_relu" ); // Intercepting at the convolution layer might give better resultsconst bottleneck = model.getLayer( "dropout" ); // This is the final layer before the conv_pred pre-trained classification layerconst baseModel = tf.model({inputs: model.inputs,outputs: bottleneck.output});// Freeze the convolutional basefor( const layer of baseModel.layers ) {layer.trainable = false;}// Add a classification headconst newHead = tf.sequential();newHead.add( tf.layers.flatten( {inputShape: baseModel.outputs[ 0 ].shape.slice( 1 )} ) );newHead.add( tf.layers.dense( { units: 100, activation: 'relu' } ) );newHead.add( tf.layers.dense( { units: 100, activation: 'relu' } ) );newHead.add( tf.layers.dense( { units: 10, activation: 'relu' } ) );newHead.add( tf.layers.dense( {units: 2,kernelInitializer: 'varianceScaling',useBias: false,activation: 'softmax'} ) );// Build the new modelconst newOutput = newHead.apply( baseModel.outputs[ 0 ] );const newModel = tf.model( { inputs: baseModel.inputs, outputs: newOutput } );return newModel;}async function trainModel() {hasTrained = false;setText( "Training..." );// Setup training dataconst imageSamples = [];const targetSamples = [];for( let i = 0; i < touch.length; i++ ) {let result = touch[ i ];imageSamples.push( result );targetSamples.push( tf.tensor1d( [ 1, 0 ] ) );}for( let i = 0; i < notouch.length; i++ ) {let result = notouch[ i ];imageSamples.push( result );targetSamples.push( tf.tensor1d( [ 0, 1 ] ) );}const xs = tf.stack( imageSamples );const ys = tf.stack( targetSamples );// Train the model on new image samplesmodel.compile( { loss: "meanSquaredError", optimizer: "adam", metrics: [ "acc" ] } );await model.fit( xs, ys, {epochs: 30,shuffle: true,callbacks: {onEpochEnd: ( epoch, logs ) => {console.log( "Epoch #", epoch, logs );}}});hasTrained = true;}// Mobilenet v1 0.25 224x224 modelconst mobilenet = "https://storage.googleapis.com/tfjs-models/tfjs/mobilenet_v1_0.25_224/model.json";let model = null;let hasTrained = false;async function setupWebcam() {return new Promise( ( resolve, reject ) => {const webcamElement = document.getElementById( "webcam" );const navigatorAny = navigator;navigator.getUserMedia = navigator.getUserMedia ||navigatorAny.webkitGetUserMedia || navigatorAny.mozGetUserMedia ||navigatorAny.msGetUserMedia;if( navigator.getUserMedia ) {navigator.getUserMedia( { video: true },stream => {webcamElement.srcObject = stream;webcamElement.addEventListener( "loadeddata", resolve, false );},error => reject());}else {reject();}});}async function getWebcamImage() {const img = ( await webcam.capture() ).toFloat();const normalized = img.div( 127 ).sub( 1 );return normalized;}async function captureSample( category ) {if( category === 0 ) {touch.push( await getWebcamImage() );setText( "Captured: " + labels[ category ] + " x" + touch.length );}else {notouch.push( await getWebcamImage() );setText( "Captured: " + labels[ category ] + " x" + notouch.length );}}let webcam = null;(async () => {// Load the modelmodel = await tf.loadLayersModel( mobilenet );model = createTransferModel( model );await setupWebcam();webcam = await tf.data.webcam( document.getElementById( "webcam" ) );// Setup prediction every 200 mssetInterval( predictImage, 200 );})();</script></body>
</html>

下一步是什么?我们是否可以在未经培训的情况下检测到面部触摸?

这次,我们学习了如何使用浏览器的网络摄像头功能来完全训练和识别实时视频中的帧。如果用户甚至不必真正触摸自己的脸部就可以开始使用该应用程序,这会更好吗?

请继续阅读本系列的下一篇文章,我们将使用经过预先训练的BodyPix模型进行检测。

https://www.codeproject.com/Articles/5272773/Face-Touch-Detection-with-TensorFlow-js-Part-1-Usi

使用TensorFlow.js进行人脸触摸检测第1部分:将实时网络摄像头数据与深度学习配合使用相关推荐

  1. 使用TensorFlow.js进行人脸触摸检测第2部分:使用BodyPix

    目录 起点 设置BodyPix 检测脸部触摸 技术脚注 终点线 下一步是什么?我们可以使用TensorFlow.js做更多的事情吗? 下载TensorFlowJS示例-6.1 MB TensorFlo ...

  2. 在浏览器中使用tensorflow.js进行人脸识别的JavaScript API

    作者 | Vincent Mühle 编译 | 姗姗 出品 | 人工智能头条(公众号ID:AI_Thinker) [导读]随着深度学习方法的应用,浏览器调用人脸识别技术已经得到了更广泛的应用与提升.在 ...

  3. 值得收藏!基于激光雷达数据的深度学习目标检测方法大合集(下)

    作者 | 黄浴 来源 | 转载自知乎专栏自动驾驶的挑战和发展 [导读]在近日发布的<值得收藏!基于激光雷达数据的深度学习目标检测方法大合集(上)>一文中,作者介绍了一部分各大公司和机构基于 ...

  4. 【网络流量识别】【深度学习】【四】DNN、GBT和RF—利用大数据和深度学习技术进行入侵检测

    本文发表于2019年4月,ACM东南会议纪要,作者为奥萨马·费克等人,现收录于ACM网站. 原文题目:使用大数据和深度学习技术进行入侵检测 原文链接:使用大数据和深度学习技术进行入侵检测|2019年A ...

  5. 目标检测与识别算法综述:从传统算法到深度学习(二)

    作   者:XJTU_Ironboy 时   间:2018年11月 联系方式:tzj19970116@163.com 本文结构: 摘要 介绍 2.1 大致框架 2.2 测试评价指标 2.3 相关比赛介 ...

  6. 【物体检测快速入门系列 | 03】Windows部署Docker GPU深度学习开发环境

    这是机器未来的第3篇文章 原文首发链接:https://blog.csdn.net/RobotFutures/article/details/124815912 1. 概述 在<物体检测快速入门 ...

  7. 检测、量化、追踪新冠病毒,基于深度学习的自动CT图像分析有多靠谱?

    作者 | Ophir Gozes, Maayan Frid-Adar等 译者 | 刘畅 出品 | AI科技大本营(ID:rgznai100) 背景:新冠病毒的传播非常迅速,并对数十亿人的生活产生了重大 ...

  8. linux打开网络摄像头失败,Opencv没有检测到linux上的firewire网络摄像头

    我通过firewire连接了一个凸轮,并尝试使用opencv访问它 . 相机在香菜中被检测到并且能够获得视频流 . 以下是我使用的代码 #include "/home/iiith/openc ...

  9. 【毕业设计】危险驾驶行为检测系统(疲劳 抽烟 喝水 玩手机) - opencv python 深度学习

    文章目录 0 前言 1 课题背景 2 相关技术 2.1 Dlib人脸识别库 2.2 疲劳检测算法 2.3 YOLOV5算法 3 效果展示 3.1 眨眼 3.2 打哈欠 3.3 使用手机检测 3.4 抽 ...

最新文章

  1. jexus防止产生 *.core文件
  2. java_IO_File(3)_遍历、递归
  3. dcf是ea211发动机吗_大众有的车怎么把ea211换成dcf了?
  4. 单片机c语言 u16,单片机C语言的误用
  5. ARP、Tracert、Route 与 NBTStat命令详解
  6. android ios 混合编程,React Native与原生(Android、iOS)混编,三端痛点解析
  7. 摇一摇事件封装了设备的运动传感器
  8. 日本用活体肌肉构建机械臂,人类与机器融合取得新突破
  9. layey图片内容不居中
  10. java 静态相关内容
  11. 趁老王不在,和隔壁邻居斗斗地主,比比大小
  12. C/C++[PAT B1009]说反话
  13. 代码Review那些事
  14. [python]关于numpy中sum函数的axis属性的理解
  15. 「技术架构」技术风险管理权威指南
  16. GITLAB服务常用命令
  17. java 游戏 protobuf,Unity 3D Protobuf的使用 信息的简单发送 并在Java服务器上接受显示...
  18. RK CPU调试技巧
  19. 图像处理与计算机视觉:3D射影变换
  20. 2018年5月下6月初 IT 技术类 招聘应聘情况.

热门文章

  1. linux下intel无线网卡安装失败,ubuntu 16.04无法安装无线网卡驱动
  2. python模拟访问js_python模拟http请求,返回“浏览器不支持javascript,请设置您的浏览器开启javascript支持”...
  3. 祥云,灯笼,剪纸……春节海报,点缀必备PSD素材
  4. 高品质静物空间海报模板PSD分层素材
  5. UI完美素材|(Watch展示篇)Mockups动态图提案模板
  6. UI搜索栏设计素材模板|设计原则
  7. python中re模块_Python中re(正则表达式)模块学习
  8. centos-stream-9安装chrome谷歌浏览器
  9. Linux内核深入理解系统调用(3):open 系统调用实现以及资源限制(setrlimit/getrlimit/prlimit)
  10. 基于CUDA的VTI介质有限差分正演模拟与逆时偏移及ADCIGs提取