各位小白(包括我自己在内),沉寂了好几天,得继续完成这一环节的技术博客,书接上回,在本系列技术博客中—《利用python进行人脸识别的基本开发3》提到了如何提高识别率?还有一些问题在解决比如:通过摄像头如何判断识别到的人脸是生物活体?这个问题正在努力思考解决方案。(示例代码可以下载,赚点积分,没有积分的童鞋可以私信,我直接发给你)
https://download.youkuaiyun.com/download/lixingdetiankong1/12443156
现在,准备在初步掌握了人脸识别开发技能的基础上,增加更多丰富的内容,比如说程序界面的设计,这里主要是通过Qt 5模块来实现,要求技术小白要初步理解类,继承,线程,库、以及qt5模块当中频繁使用的信息槽等概念。我们要有一定的自学能力,通过不停的网络搜索筛选,找到适合自己的技术路线以及准确的知识储备。
现在介绍qt5模块的基本使用,在设计人员识别界面的过程中,如果对qt5模块比较陌生的话,建议百度一下qt5模块开发的流程,作为技术小白,先不要掌握编程的细节,要宏观的看Qt5模块设计的流程,掌握了流程之后,加上自己之前的编程积累,Qt5模块常见的控件很容易上手。
上面的开发界面是不是和C#,VB/VC/VS有相似的地方,首先将各个需要的模块拖动进去,然后在右侧的属性栏进行设置,这里需要注意的是Object.Name.的设置一定要在规定的地方,如果在右侧上方进行修改, 点击保存之后修改之并未真正保存到UI界面中。
上图对应的py文件及截图如下:
这是怎么生成的?只要各位小白认真的去百度,这个过程是你增加熟练度的过程,千万不能忽视。这个过程也可以增强对qt5模块的认识,一定要自己上手走一遍!
下面我们来介绍一下分块设计的思路’;
1/将UI界面生成的py程序,作为一个库让他独立存在,在这个文件中不进行任何的过程处理!他只是继承了qt5类以及ui模块下各种控件窗体(对象),及其属性值。他是设计的源头,其他程序对他不能进行干扰,这个py文件作为库只能被调用。
2、设计一个处理程序,我这里简单的把它定义为Process.py。这个文件处理整个程序的核心逻辑,比如说开启摄像头,抓拍人,识别人脸,关闭摄像头,对抓拍图片进行从命名并保存。这些过程都要在这个py文件中完成!
3、设计一个主程序,它是一个程序入口,直接调用process.py.完成整个程序的运行.。在这个过程当中,利用了类的继承的概念,其中对为了对象,对象的属性,技术小白要有清晰的理解。
4、关于qt5模块中,信息槽的使用,大家也可以自行百度,百度文库中有比较详细的免费文本介绍。
5、下面上传代码,来了来了,他真的来了!
// An highlighted block
from PyQt5.QtCore import QFile
from PyQt5.QtWidgets import QFileDialog, QMessageBox
from PyQt5.QtGui import QImage, QPixmap
import face_recognition
from os import listdir
import threading
import cv2
class Display:
def __init__(self, ui, mainWnd):
self.ui = ui
self.mainWnd = mainWnd
self.isCamera = False
self.isShoot = False
ui.camopen.clicked.connect(self.open)
ui.camclose.clicked.connect(self.close)
ui.camshoot.clicked.connect(self.shoot)
ui.faceRC.clicked.connect(self.RCface)
ui.picnane.editingFinished.connect(self.shoot)
self.stopEvent = threading.Event()
self.stopEvent.clear()
def open(self):
self.isCamera = True
self.cap = cv2.VideoCapture(1)
th = threading.Thread(target=self.Display)
th.start()
def RCface(self):
self.isRCface = True
self.cap = cv2.VideoCapture(1)
th1 = threading.Thread(target=self.Display1)
th1.start()
def shoot(self):
self.isShoot = True
def Display(self):
self.ui.camopen.setEnabled(False)
self.ui.camclose.setEnabled(True)
while self.cap.isOpened():
success, frame = self.cap.read()
# RGB转BGR
frame = cv2.cvtColor(frame, cv2.COLOR_RGB2BGR)
img = QImage(frame.data, frame.shape[1], frame.shape[0], QImage.Format_RGB888)
self.ui.camlabel.setPixmap(QPixmap.fromImage(img))
if self.isCamera:
cv2.waitKey(1)
else:
cv2.waitKey(int(1000 / self.frameRate))
if self.isShoot:
facenane=self.ui.picnane.text()
img.save(facenane + ".jpg")
self.isShoot = False
# 判断关闭事件是否已触发
if True == self.stopEvent.is_set():
# 关闭事件置为未触发,清空显示label
self.stopEvent.clear()
self.ui.camlabel.clear()
self.ui.camclose.setEnabled(False)
self.ui.camopen.setEnabled(True)
break
def Display1(self):
filepath = 'C:/Users/Administrator/Desktop/recognitiongface1/screenshootUIpractice' # 已知人脸图片文件夹 注意 如果会员图片后缀不是jpg 需要进行修改
filename_list = listdir(filepath)
known_face_names = []
known_face_encodings = []
a = 0
for filename in filename_list: # 依次读入列表中的内容
a += 1
if filename.endswith('jpg'): # 后缀名'jpg'匹对
known_face_names.append(filename[:-4]) # 把文件名字的后四位.jpg去掉获取人名
file_str = filepath + '/' + filename
a_images = face_recognition.load_image_file(file_str)
# print(file_str)
a_face_encoding = face_recognition.face_encodings(a_images)[0]
known_face_encodings.append(a_face_encoding)
print(known_face_names, a)
face_locations = []
face_encodings = []
face_names = []
process_this_frame = True
self.ui.camopen.setEnabled(False)
self.ui.camclose.setEnabled(True)
# while self.cap.isOpened():
# success, frame1 = self.cap.read()
# # RGB转BGR
# frame1 = cv2.cvtColor(frame1, cv2.COLOR_RGB2BGR)
# img = QImage(frame1.data, frame1.shape[1], frame1.shape[0], QImage.Format_RGB888)
# self.ui.camlabel.setPixmap(QPixmap.fromImage(img))
# if self.isCamera:
# cv2.waitKey(1)
# else:
# cv2.waitKey(int(1000 / self.frameRate))
# if self.isShoot:
# facenane=self.ui.picnane.text()
# img.save(facenane + ".jpg")
# self.isShoot = False
# # 判断关闭事件是否已触发
# if True == self.stopEvent.is_set():
# # 关闭事件置为未触发,清空显示label
# self.stopEvent.clear()
# self.ui.camlabel.clear()
# self.ui.camclose.setEnabled(False)
# self.ui.camopen.setEnabled(True)
# break
while (self.cap.isOpened()):
# 读取摄像头画面
ret, frame = self.cap.read()
if not ret:
# 等同于 if ret is not none
break
# 改变摄像头图像的大小,图像小,所做的计算就少
small_frame = cv2.resize(frame, (0, 0), fx=0.33, fy=0.33)
# opencv的图像是BGR格式的,而我们需要是的RGB格式的,因此需要进行一个转换。
rgb_small_frame = small_frame[:, :, ::-1]
# Only process every other frame of video to save time
if process_this_frame:
# 根据encoding来判断是不是同一个人,是就输出true,不是为flase
face_locations = face_recognition.face_locations(rgb_small_frame)
face_encodings = face_recognition.face_encodings(rgb_small_frame, face_locations)
face_names = []
for face_encoding in face_encodings:
# 默认为unknown
matches = face_recognition.compare_faces(known_face_encodings, face_encoding, tolerance=0.38)
# 阈值太低容易造成无法成功识别人脸,太高容易造成人脸识别混淆 默认阈值tolerance为0.6
# print(matches)
name = "Unknown"
# if match[0]:
# name = "michong"
# If a match was found in known_face_encodings, just use the first one.
if True in matches:
first_match_index = matches.index(True)
name = known_face_names[first_match_index]
face_names.append(name)
process_this_frame = not process_this_frame
# 将捕捉到的人脸显示出来
for (top, right, bottom, left), name in zip(face_locations, face_names):
# Scale back up face locations since the frame we detected in was scaled to 1/4 size
# 由于我们检测到的帧被缩放到1/4大小,所以要缩小面位置
top *= 3
right *= 3
bottom *= 3
left *= 3
# 矩形框
cv2.rectangle(frame, (left, top), (right, bottom), (0, 0, 255), 2)
# 引入ft2中的字体
# 加上标签
cv2.rectangle(frame, (left, bottom - 20), (right, bottom), (0, 0, 255), cv2.FILLED)
font = cv2.FONT_HERSHEY_DUPLEX
cv2.putText(frame, name, (left + 6, bottom - 6), font, 0.8, (255, 255, 255), 1)
# frame = ft.draw_text(frame,(left + 6, bottom - 6), name, 1.0, (255, 255, 255))
# def draw_text(self, image, pos, text, text_size, text_color)
# Display
cv2.imshow('monitor', frame)
if cv2.waitKey(1) & 0xFF == 27:
self.cap.release()
cv2.destroyAllWindows()
break
# 判断关闭事件是否已触发
if True == self.stopEvent.is_set():
# 关闭事件置为未触发,清空显示label
self.stopEvent.clear()
self.ui.camlabel.clear()
self.ui.camclose.setEnabled(False)
self.ui.camopen.setEnabled(True)
cv2.destroyAllWindows()
break
def close(self):
self.cap.release()
self.stopEvent.set()
self.cap.release()
if not self.isCamera:
print('lixingdetiankong!!!!!!')
else:
print('nizhanehao')
上面是个Processing.py,大家可以调试一下。
// An highlighted block
import sys
import DisplayUi
from PyQt5.QtWidgets import QApplication, QMainWindow
from prosessing1 import Display
if __name__ == '__main__':
app = QApplication(sys.argv)
mainWnd = QMainWindow()
ui = DisplayUi.Ui_MainWindow()
# 可以理解成将创建的 ui 绑定到新建的 mainWnd 上
ui.setupUi(mainWnd)
display = Display(ui, mainWnd)
mainWnd.show()
sys.exit(app.exec_())
注意观察他们之间类概念的使用!!!
至于UI界面的py文件,大家可以自行发挥,我发一下我自己的吧
// An highlighted block
from PyQt5 import QtCore, QtGui, QtWidgets
class Ui_MainWindow(object):
def setupUi(self, MainWindow):
MainWindow.setObjectName("MainWindow")
MainWindow.resize(800, 600)
self.centralwidget = QtWidgets.QWidget(MainWindow)
self.centralwidget.setObjectName("centralwidget")
self.camopen = QtWidgets.QPushButton(self.centralwidget)
self.camopen.setGeometry(QtCore.QRect(20, 30, 101, 41))
self.camopen.setObjectName("camopen")
self.camclose = QtWidgets.QPushButton(self.centralwidget)
self.camclose.setGeometry(QtCore.QRect(20, 370, 101, 41))
self.camclose.setObjectName("camclose")
self.camlabel = QtWidgets.QLabel(self.centralwidget)
self.camlabel.setGeometry(QtCore.QRect(220, 30, 531, 381))
self.camlabel.setContextMenuPolicy(QtCore.Qt.DefaultContextMenu)
self.camlabel.setAcceptDrops(False)
self.camlabel.setAutoFillBackground(False)
self.camlabel.setStyleSheet("border-width: 2px;\n"
"border-style: solid;\n"
"border-color: rgb(0, 170, 127);")
self.camlabel.setText("")
self.camlabel.setObjectName("camlabel")
self.camshoot = QtWidgets.QPushButton(self.centralwidget)
self.camshoot.setGeometry(QtCore.QRect(20, 150, 101, 41))
self.camshoot.setObjectName("camshoot")
self.picnane = QtWidgets.QLineEdit(self.centralwidget)
self.picnane.setGeometry(QtCore.QRect(10, 109, 161, 31))
self.picnane.setTabletTracking(False)
self.picnane.setObjectName("picnane")
self.faceRC = QtWidgets.QPushButton(self.centralwidget)
self.faceRC.setGeometry(QtCore.QRect(20, 220, 101, 81))
self.faceRC.setObjectName("faceRC")
MainWindow.setCentralWidget(self.centralwidget)
self.menubar = QtWidgets.QMenuBar(MainWindow)
self.menubar.setGeometry(QtCore.QRect(0, 0, 800, 23))
self.menubar.setObjectName("menubar")
MainWindow.setMenuBar(self.menubar)
self.statusbar = QtWidgets.QStatusBar(MainWindow)
self.statusbar.setObjectName("statusbar")
MainWindow.setStatusBar(self.statusbar)
self.retranslateUi(MainWindow)
QtCore.QMetaObject.connectSlotsByName(MainWindow)
def retranslateUi(self, MainWindow):
_translate = QtCore.QCoreApplication.translate
MainWindow.setWindowTitle(_translate("MainWindow", "MainWindow"))
self.camopen.setText(_translate("MainWindow", "打开摄像头"))
self.camclose.setText(_translate("MainWindow", "关闭摄像头"))
self.camshoot.setText(_translate("MainWindow", "人脸录入拍照"))
self.picnane.setText(_translate("MainWindow", "Input Face Name(EN)!"))
self.faceRC.setText(_translate("MainWindow", "开始人脸识别"))
程序运行效果:
红色方框是显示出来被识别人的名字。马赛克!匿了匿了!
归根到底还是没有解决活体检测的问题,这个问题我得再认真思考思考。欢迎大家点击评论!