还记得我们之前写过一篇文章《手把手教你人脸识别自动开机》吗?里面用OpenCV对人脸进行简单的识别,让计算机训练认识到某个特定人物后识别对象。今天来做点高级的,识别出人脸的情绪。
本文分为两大部分:
1.面部检测:检测图像的脸部位置,输出边界框的坐标
2.情绪检测:将面部的情绪分为高兴、生气、悲伤、中性、惊讶、厌恶、恐惧。
一、面部检测
可以使用上次文章( 《手把手教你人脸识别自动开机》 )中讲到的方法—用openCV检测,也可以使用face_recognition项目非常简单地实现面部检测。
这里我们尝试一下face_recognition项目, face_recognition 安装:
Face_recognition需要用到一个包叫dlib, 通过pip可能不一定装得上,因此这里推荐大家使用anaconda安装dlib:
conda install -c conda-forge dlib
然后再安装Face_recognition:
pip install face_recognition
用face_recognition三句代码就能识别图像中的脸部:
import face_recognition image = face_recognition.load_image_file("1.png") face_locations = face_recognition.face_locations(image)
二、情绪检测
人类习惯从面部表情中吸收非言语暗示,那么计算机可以吗?答案是肯定的,但是需要训练它学会识别情绪。今天我们不太可能讲收集数据、构建CNN模型等逻辑流程。我们直接用priya-dwivedi训练好的模型,他们用Kaggle开源数据集(人脸情感识别 FER)训练了一个六层卷积神经网络模型。
现在就调用模型识别一下孙哥在这张图里的情绪吧:
import face_recognition import numpy as np import cv2 from keras.models import load_model emotion_dict= {'生气': 0, '悲伤': 5, '中性': 4, '厌恶': 1, '惊讶': 6, '恐惧': 2, '高兴': 3} image = face_recognition.load_image_file("1.png") # 载入图像 face_locations = face_recognition.face_locations(image) # 寻找脸部 top, right, bottom, left = face_locations[0] # 将脸部框起来 face_image = image[top:bottom, left:right] face_image = cv2.resize(face_image, (48,48)) face_image = cv2.cvtColor(face_image, cv2.COLOR_BGR2GRAY) face_image = np.reshape(face_image, [1, face_image.shape[0], face_image.shape[1], 1]) # 调整到可以进入该模型输入的大小 model = load_model("./model_v6_23.hdf5") # 载入模型 predicted_class = np.argmax(model.predict(face_image)) # 分类情绪 label_map = dict((v,k) for k,v in emotion_dict.items()) predicted_label = label_map[predicted_class] # 根据情绪映射表输出情绪 print(predicted_label)
结果:
python emotion.py 高兴
从下面终端输出的结果我们可以看到孙哥现在是高兴的情绪,这个结果应该正确(毕竟孙哥还是表里如一的)。
虽然简单,但还是建议有兴趣的同学从头到尾做一遍试一下,过程中会遇到不少的坑,慢慢百度谷歌解决就好了。
文章到此就结束啦,如果你喜欢今天的Python 教程,请持续关注Python实用宝典,如果对你有帮助,麻烦在下面点一个赞/在看哦
Python实用宝典 (pythondict.com)
不只是一个宝典
欢迎关注公众号:Python实用宝典