神经网络之前的人脸识别算法(使用CNN和TensorFlow进行人脸特征检测)

神经网络之前的人脸识别算法(使用CNN和TensorFlow进行人脸特征检测)(1)

神经网络之前的人脸识别算法(使用CNN和TensorFlow进行人脸特征检测)(2)

作者 | Shubham Panchal

译者 | 孟翔杰

来源 | DeepHub IMBA

出品 | AI科技大本营(rgznai100)

人脸检测系统在当今世界中具有巨大的用途,这个系统要求安全性,可访问性和趣味性!今天,我们将建立一个可以在脸上绘制15个关键点的模型。

人脸特征检测模型形成了我们在社交媒体应用程序中看到的各种功能。您在Instagram上找到的面部过滤器是一个常见的用例。该算法将掩膜(mask)在图像上对齐,并以脸部特征作为模型的基点。

神经网络之前的人脸识别算法(使用CNN和TensorFlow进行人脸特征检测)(3)

Instagram自拍过滤器需要知道您的眼睛,嘴唇和鼻子在图像上的确切位置

让我们使用keras(TensorFlow作为底层)开发模型!首先,我们需要一些数据来训练我们的模型。

神经网络之前的人脸识别算法(使用CNN和TensorFlow进行人脸特征检测)(4)

数据

我们使用Omri Goldstein Kaggle 上的带有标记特征的人脸图像数据集。数据集包含大约7000张图像(96*96),这些图像带有可以在facial_keypoints.csv文件中找到的面部标志。

但是在这里我们有一个问题。大多数图像没有15个完整的点集。因此,我们只需要那些具有15个面部关键点的图像即可。

可以使用此脚本,我已经做了一些清理,并将修改后的数据保存在Dataset Archives GitHub中。Colab notebook需要使用wget命令下载ZIP文件。

import pandas as pdimport numpy as npfrom sklearn.model_selection import train_test_split# Download the dataset from Kaggle. Unzip the archive. You'll find the facial_keypoints.csv file there.facial_keypoints = pd.read_csv( "files/face-images-with-marked-landmark-points/facial_keypoints.csv")num_missing_keypoints = facial_keypoints.is.sum( axis=1 )all_keypoints_present_ids = np.nonzero( num_missing_keypoints == 0 )[ 0 ]# face_images.npz is present the same archive.d = np.load( "files/face-images-with-marked-landmark-points/face_images.npz")dataset = d[ 'face_images' ].Tdataset = np.reshape( dataset , ( -1 , 96 , 96 , 1 ) )images = dataset[ all_keypoints_present_ids , : , : , : ]keypoints = facial_keypoints.iloc[ all_keypoints_present_ids , : ].reset_index( drop=True ).valuesx_train, x_test, y_train, y_test = train_test_split( images , keypoints , test_size=0.3 )# save all the processed data.np.save( "processed_data/x_train.npy" , x_train )np.save( "processed_data/y_train.npy" , y_train )np.save( "processed_data/x_test.npy" , x_test )np.save( "processed_data/y_test.npy" , y_test )

我们还将图像以及坐标(关键点)进行了标准化处理。我们对y_train和y_test进行了重塑操作,因为它们将成为卷积层(Conv2D)而不是全连接层(Dense)的输出。

x_train = np.load( "face_landmarks_cleaned/x_train.npy" ) / 255

y_train = np.load( "face_landmarks_cleaned/y_train.npy" ) / 96

x_test = np.load( "face_landmarks_cleaned/x_test.npy" ) / 255

y_test = np.load( "face_landmarks_cleaned/y_test.npy" ) / 96

y_train = np.reshape( y_train , ( -1 , 1 , 1 , 30 ))

y_test = np.reshape( y_test , ( -1 , 1 , 1 , 30 ))

提示:我们找到了另一个用于人脸特征检测的数据集,称为UTKFace。它包含68个面部关键点以及其他特征,例如年龄和性别。可以尝试一下!

神经网络之前的人脸识别算法(使用CNN和TensorFlow进行人脸特征检测)(5)

讨论模型

下面让我们讨论该模型的结构。我对该模型做了一些实验。我们需要一个模型,该模型采用尺寸为(96,96)的图像作为输入并输出形状为(30,)的数组(15个关键点* 2个坐标)

1.第一种模型读取一张图像,并将其通过预先训练的VGG网络。接下来,将VGG的输出展平并通过多个全连接层。问题在于,即使损失很小,模型也可以为每个图像预测相同的关键点。

2.第二种模型是您可以在Colab notebook中找到的模型。我们不使用全连接层。相反,我们将图像传递给卷积层,并获得形状为(1,1,30)的输出。因此,卷积层为我们提供了输出。使用此模型,对于每张图像甚至在数据集之外的图像,预测值都是不同的!

我们的模型是这样的。

model_layers = [

tf.keras.layers.Conv2D( 256 , input_shape=( 96 , 96 , 1 ) , kernel_size=( 3 , 3 ) , strides=2 , activation='relu' ),

tf.keras.layers.Conv2D( 256 , kernel_size=( 3 , 3 ) , strides=2 , activation='relu' ),

tf.keras.layers.BatchNormalization(),

tf.keras.layers.Conv2D( 128 , kernel_size=( 3 , 3 ) , strides=1 , activation='relu' ),

tf.keras.layers.Conv2D( 128 , kernel_size=( 3 , 3 ) , strides=1 , activation='relu' ),

tf.keras.layers.BatchNormalization(),

tf.keras.layers.Conv2D( 128 , kernel_size=( 3 , 3 ) , strides=1 , activation='relu' ),

tf.keras.layers.Conv2D( 128 , kernel_size=( 3 , 3 ) , strides=1 , activation='relu' ),

tf.keras.layers.BatchNormalization(),

tf.keras.layers.Conv2D( 64 , kernel_size=( 3 , 3 ) , strides=1 , activation='relu' ),

tf.keras.layers.Conv2D( 64 , kernel_size=( 3 , 3 ) , strides=1 , activation='relu' ),

tf.keras.layers.BatchNormalization(),

tf.keras.layers.Conv2D( 32 , kernel_size=( 3 , 3 ) , strides=1 , activation='relu' ),

tf.keras.layers.Conv2D( 32 , kernel_size=( 3 , 3 ) , strides=1 , activation='relu' ),

tf.keras.layers.BatchNormalization(),

tf.keras.layers.Conv2D( 30 , kernel_size=( 3 , 3 ) , strides=1 , activation='relu' ),

tf.keras.layers.Conv2D( 30 , kernel_size=( 3 , 3 ) , strides=1 , activation='relu' ),

tf.keras.layers.Conv2D( 30 , kernel_size=( 3 , 3 ) , strides=1 ),

]

model = tf.keras.Sequential( model_layers )

model.compile( loss=tf.keras.losses.mean_squared_error , optimizer=tf.keras.optimizers.Adam( lr=0.0001 ) , metrics=[ 'mse' ] )

在执行回归任务时,我们使用 均方误差(MSE)。如果您有大量的数据,那么较小的学习率总是好的。

神经网络之前的人脸识别算法(使用CNN和TensorFlow进行人脸特征检测)(6)

训练和相关推论

我们训练模型约250次,批处理数量为50个。训练后,我们将在测试集上进行一些预测。

import matplotlib.pyplot as plt

fig = plt.figure(figsize=( 50 , 50 ))

for i in range( 1 , 6 ):

sample_image = np.reshape( x_test[i] * 255 , ( 96 , 96 ) ).astype( np.uint8 )

pred = model.predict( x_test[ i : i 1 ] ) * 96

pred = pred.astype( np.int32 )

pred = np.reshape( pred[0 , 0 , 0 ] , ( 15 , 2 ) )

fig.add_subplot( 1 , 10 , i )

plt.imshow( sample_image.T , cmap='gray' )

plt.scatter( pred[ : , 0 ] , pred[ : , 1 ] , c='yellow' )

plt.show

生成预测值

注意:请记住输入图像的旋转角度。在旋转90度的图像上训练的模型无法为没有进行旋转的图像生成正确的预测。

如果您未对模型和训练参数进行修改,则经过250次训练后的模型应如下图所示:

神经网络之前的人脸识别算法(使用CNN和TensorFlow进行人脸特征检测)(7)

神经网络之前的人脸识别算法(使用CNN和TensorFlow进行人脸特征检测)(8)

结果

印象相当深刻吧?就这样!您刚刚从头开始构建了一个人脸特征检测模型。 在Colab notebook中,我设置了一个代码单元,您可以将网络上的图像或摄像头拍摄的图像放入其中并运行模型。

【end】

神经网络之前的人脸识别算法(使用CNN和TensorFlow进行人脸特征检测)(9)

  • 旷视提Circle Loss,统一优化视角,革新深度特征学习范式 | CVPR 2020

  • 清华学霸组团的工业AIoT创企再获数千万融资:玩家应推动在边缘 AI 芯片上跑算法

  • 腾讯内测全新 Tim 3.0,支持微信登录;滴滴顺风车上线夜间服务;Angular 9.1发布

  • 为何你的 SaaS 想法总是失败?没想清楚这 4 个原因可能会继续失败!

  • GitHub 疑遭中间人攻击,无法访问,最大暗网托管商再被黑!

  • 万字好文:智能合约编写之Solidity的编程攻略,建议收藏!

你点的每个“在看”,我都认真当成了AI

,

免责声明:本文仅代表文章作者的个人观点,与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考,并自行核实相关内容。文章投诉邮箱:anhduc.ph@yahoo.com

    分享
    投诉
    首页