冲面部识别的日记系统的计划性以及落实

根据面部识别的日记系统的筹划及落实

@(GUI程序开发)[PyQt, 信号, 面部识别, 多线程, 媒体播放, opencv]


[TOC]

急需以及规划

用面部识别术,识别进出重要通道的食指,并对人员进出动作进行记录。在口出入时,在摄像机前收集画面,使用搜集到之画面与历史记录对比,如果人口早已有出入记录,追加一修记下即可;如果不存在则新建记录。

技能同落实

核心技术

运用Python来就总体程序的编写,面部识别应用python开源库face_recognition,
基于dlib(C++实现)。
运opencv来捕获视频流,支持当地摄像头和网摄像头。
以QThread创建线程更新每一样幅图片及PyQt界面。

数据存储

下Sqlite3作为单机版数据库,同时支持MySQL数据库。
采取sqlite3进行多少存储。

前者界面

利用PyQt4作前端界面,使用绝对化布局。

来得监控画面

opencv捕获摄像机视频流

Opencv捕获视频流,主要运用opencv的videoCapture方法,
传入摄像头物理地址(0-99)或者网络视频流地址。

  • 安装(Ubuntu): sudo apt install
  • 以(Python2.7 代码示例):

import cv2
#以下的代码片段应当被放在单独的线程中
#使用videoCapture捕获视频
#address可以是usb摄像头的地址(0-99)
#address也可以是视频流的网络地址 如海康摄像机rtsp地址
address = "rtsp://admin:12345@192.0.0.64:554/h264/ch1/main/av_stream"
cap = cv2.videoCapture(address)
#当视频流捕获到以后,开始获取捕获的每一帧
#拿到的frame实际上是以矩阵的形式存储的,具体的数据结构是numpy的ndarray
#并转换为PyQt可以显示的QPixmap(图片)
while cap.isOpened():
    ret, frame = cap.read()
        #拿到frame的信息,并从cv2默认的BGR模式转成RGB模式
        height, width, fps = frame.shape
        bytesPerLine = 3 * width
        cv2.cvtColor(frame, cv2.COLOR_BGR2RGB, frame)
        image = QtGui.QImage(frame.data, width, height,bytesPerLine, QtGui.QImage.Format_RGB888)
        #然后在主线程中更新image,Pyqt4发送信号并传送image到主线程即可

PyQt4子线程控制UI线程更新

动状况同样:子线程获取视频流的frame,主线程更新frame

采取QT提供的线程类:QThread

使用opencv获取视频流之后,应以UI线程中更新得的每一样幅。
得于定义一个控件,集成自QLabel,然后打定义信号,这个信号将会见于自线程里为硌,在主线程里执行。
切切实实实现方式:

class VideoPlayer(QtGui.QLabel):
    def __init__(self, parent, address):
        QtGui.QLabel.__init__(self, parent, address)
        #这里创建子线程,传递流媒体地址
        self.video_provider = videoThread(address)
        self.video_provider.start()
        #这里自定义一个信号,以便于在子线程里面触发更新帧的方法
        self.connect(self.video_provider, QtCore.SIGNAL('newImage(PyQt_PyObject)'), self.setFrame)
        #这里创建一个当前帧,初始化为None,方便以后截图
        self.current_frame = None

    #这个方法将在newImage信号触发之后执行
    def setFrame(self):
        pixmap = QtGui.QPixmap.fromImage(frame)
        self.current_frame = pixmap
        self.setPixmap(pixmap)

如此这般主线程(UI线程已经做好了装有的备工作,接下就以子线程内获得视频的诸一样轴,然后发送信号过来)
开创一个线程类,继承QtCore.QThread

#其实就是上面opencv的方法放在一个线程内
class videoThread(QtCore.QThread):
    '''线程类,负责更新视频的每一帧'''
    def __init__(self, address):
        '''初始化的时候传入视频流的地址'''
        super(videoThread, self).__init__()
        self.address = address

    def run(self):
        '''重写run函数,读取到视频流之后不断更新frame到主线程'''
        self.cap = cv2.VideoCapture(self.address)
        while self.cap.isOpened():
            _, frame = self.cap.read()
            if frame is not None:
                #这里进行frame的转换
                height, width, fps = frame.shape
                bytesPerLine = 3 * width
                cv2.cvtColor(frame, cv2.COLOR_BGR2RGB, frame)
                image = QtGui.QImage(frame.data, width, \
                height,bytesPerLine, QtGui.QImage.Format_RGB888)
            else:
                #如果没有拿到frame,则给一个摄像头连接失败的图片,递归,直到摄像头重新连接
                image = QtGui.QImage("./icons/no_video.png")
                self.run()
            #在这里发送信号的主线程,主线程会自动执行之前定义的setFrame方法,更新图片
            self.emit(QtCore.SIGNAL('newImage(PyQt_PyObject)'), image)
        #如果摄像头没有获取到,给链接失败的图片,然后递归
        image = QtGui.QImage("./icons/no_video.png")
        self.emit(QtCore.SIGNAL('newImage(PyQt_PyObject)'), image)
        self.run()

如此就算好以前者播放画面了。

运用状况二:视频的截屏,在子线程里截屏并保存及当地

运Python原声的threading.thread创建线程,只想大概工作

截屏的时刻该以界面显示:准备,3, 2, 1
的提示,这样的唤醒每一样不良间隔1秒钟,以便为让用户3秒的调整时间。
这样的办事得在子线程内执行,否则在主线程内执行会阻断UI线程更新来看频流的工作,造成视频卡顿。
贯彻方式:
首先创建一个用来展示提示信息的Label,然后以子线程里更新Label的text即可。

from PtQt4 import QtGui, QtCore
from thread import threading

class MainWindow(QtGui.QWidget):
    def __init__(self):
        #...
        #...
        self.notify_label = QtGui.QLabel(self)
        self.take_photo_button = QtGui.QPushButton(self)
        self.take_photo_button.setText(u"拍照")
        self.connect(self.take_photo_button, QtCore.SIGNAL("clicked()"),\
            self, QtCore.SOLT("takePhoto()"))

    #自定义的槽,在class内应加上 装饰器
    @QtCore.pyqtSlot()
    def takePhoto(self):
        thread = threading(target=self.updateNotifyAndTakePhoto)
        thread.start()

    #这里是真正进行提示和截图的方法
    def updateNotifyAndTakePhoto(self):
        #先进性一轮循环,显示四个提示,每一次间隔一秒,持续四秒
        for text in [u"准备", '3', '2', '1']:
            self.notify_label.setText(text)
            time.sleep(1)
        #然后设置提示消息为空
        self.notify_label.setText("")
        #开始截图
        img = self.video_player.current_frame
        img.save("./tmp/face.jpg")

PyQt4信号的外一样种定义方法

当子线程内打开新的窗口

概念信号,初始化的时段绑定,在子线程内调用

class MainWindow(QtGui.QMainWindow):
    '''程序主窗口'''
    #自定义的信号一定要作为类的成员变量
    record_window_signal = QtCore.pyqtSignal()
    def __init__(self):
        #... other code
        self.record_window_signal.connect(self.showRecordWindow)
        self.history_window_signal.connect(self.showHistoryWindow)
        #这里直接调用启动一个线程
        thread = threading(tearget=self.backgroundWork)
        thread.start()

    #一个函数,做后台工作
    def backgroundWork(self):
        #...做一些后台工作,比如人脸识别
        #需要打开新的窗口的时候,触发这个信号即可
        self.record_window_signal.emit()

    #自定义的信号被触发时打开一个自定义的Dialog
    def showRecordWindow(self):
        #CSInfoWindow是一个自定义的Didlog
        self.add_dialog = CSInfoWindow()
        self.add_dialog.exec_()

人数脸检测及于对

使用face_recognition检测图片内出没有有人脸

每当拓展人脸识别的当儿,首先使自图片内找到人脸,有时候图片内素有没脸,有时候是因为许多张脸,都需开展判断

安装face_recognition模块

  • 安依赖
    cmake 负责编译dlib sudo apt install cmake
    libboost dlib的依赖 sudo apt install libboost1.61-dev
    dlib 机器学习类库 sudo apt install libdlib-dev
  • 安装模块
    pil python的图像处理模块 pip install pillow
    numpy 机器学习为主模块,无需多言
    pip install numpy face_recognition

使用face_recognition检测照片内的口脸

着重是一对API的施用,后台的方都以dlib中贯彻,python只是调用而现已
上同样摆放效果图:

检测出两独人口脸

旋即张图直接检测出来,两只人脸!!! 但是,其实我们仅需要同布置人脸。

#face_locations 就是对一张照片中人脸的定义,本质上是一个数组
face_locations = face_recognition.face_locations(image)
#如果有多张人脸,则不作处理,因为不符合我们的使用场景
if len(face_locations) > 1:
    print u"检测出了多张人脸,请确保镜头中只有一个人"
#如果没有任何人脸,也不做处理
if len(face_locations) == 0:
    print u"没有检测出来人脸,请重新识别"
#有且只有一张人脸的时候才开始进行人脸的定位
else:
    #face_locations[0]就是惟一的一张人脸
    top, right, bottom, left = face_locations[0]
    #按照人脸的尺寸,裁剪出来人脸
    face_image = image[top:bottom, left:right]
    pil_image = Image.fromarray(face_image)
    #显示截取出来的人脸
    pil_image.show()
    print u"人脸检测成功"
    filename = FACE_DIR + str(datetime.now()) + ".jpg"
    image = Image.fromarray(image)
    image.save(filename)

使用face_recognition进行面部的比对

当口数据库被存储了很多的人口脸,当用户刷脸之后,要对准人口脸进行比对,确定用户身份。
人口脸比对的API:
face_recognition.api.compare_faces(known_face_encodings, face_encoding_to_check, tolerance=0.6)

Compare a list of face encodings against a candidate encoding to see
if they match.
Parameters:
known_face_encodings – A list of known face encodings
face_encoding_to_check – A single face encoding to compare against
the list
tolerance– How much distance between faces to consider it a match.
Lower is more strict. 0.6 is typical best performance.
Returns:
A list of True/False values indicating which known_face_encodings
match the face encoding to check

  • 参数1: 需要数据库内之具备人数脸数据做的数组(know_face_encodings
  • 参数2: 需要未知人脸的数目(矩阵): (face_encoding_to_check)
  • 严峻程度: tolerance 严格程度起0.1 到1
    尤为宽,数值设置更加盖发生或识别错误,数据极其小是因为难以分辨到。

切实实现之代码:

def recognite(unknow_img):
    #传入一张未知图片的编码,转换成矩阵
    unknow_face_encoding = face_recognition.face_encodings(unknow_img)[0]
    know_faces = []
    know_labels = []
    # 从本地的文件夹内加载所有已经存在的人脸并转为矩阵,放在一个数组内
    for filename in os.listdir(FACE_DIR):
        path = os.path.join(FACE_DIR,filename)
        image = face_recognition.load_image_file(path)
        know_face_encoding = face_recognition.face_encodings(image)[0]
        know_faces.append(know_face_encoding)
        know_labels.append(filename)
    # 进行人脸的比对,这里精准度设置为0.4 具体需要根据摄像头的分辨率 拍摄距离等进行调试
    result = face_recognition.compare_faces(know_faces, unknow_face_encoding, tolerance=0.4)
    # 返回检测的结果级和对应的标签(姓名或者其他唯一性标识)
    return result, know_labels

总结

收受任务的率先体现

以正开收受这个任务之时段,其实是怪受惊的,因为作为机器学期或者人工智能的纯人来讲,我非常了解人脸识别意味着什么。(….代表算法,预测模型,训练模型,计算机图形学),总的马上就是一个经典的课题,要起来实现无一个丁一如既往年两年就可知发生成果的。但是好于前任有众多涉!

最初的计划

额!最初的想法是自己实现人口脸比对的算法,
因为之前运用knn算法随手写数字进行过识别,是一个典型的监控法分类案例,具体的方法就是是以图纸转换为矩阵,再指向矩阵展开归一化,使用欧式距离公式来计算出来n维空间受到这些点的去,然后根据距离她最近底几只点开展概率判断,从而进行分类。但是人脸识别这样做根本不可行,人脸识别中既来回归分析又发分类,还是好困难的。

第三方SDK

透过查看资料发现,使用第三在SDK还是于靠谱的,目前主流的由opencv和dlib,这里选择了dlib,因为dlib的颜面识别的密度比较深,所以精准度会高一点,但是项目被要利用了Opencv来进行察看频流的抱。

末了结出

当打算当windows环境下使用c#贯彻,但是考虑到出效率,
决定或者用python开发比较靠谱。但在此之前并从未python
GUI程序的付出经历,所以开始学习了python的QT开发,
开发条件选择在linux下,但是QT跨平台,今后啊不过当windows平台下安排,不过同想到windows下复杂的软件和类库安装过程,我不怕呵呵了,决定运行条件依然以Linux下,避免电脑中毒导致系统崩溃(这个以前发月经之教训,所以强烈建议使用Linux来运行主要系统)。
透过三龙半夜的开销, 从零开始实现了人脸识别的顺序,
测试后还比较稳定,关于精准度的题材,这个还是用依据实际条件来调节,并且也急需以拍的当儿做好用户引导。因为,天喻后来微微人会面为抄在数据库内,而且精准度又非能够太没有,所以要办好以人口的树,确保无会见认错人,或者认不出来人。
如果单位的人数比少,大得逐步采集原始数据,正脸,侧脸,各种角度表情还足以有数据库进行比对,但是这个序一旦检测的目标是随意的,不是一定的那几只人口,但自即测试的结果来拘禁,正常下,距离摄像头2到4米的离开拍照,基本上不会见还误报,不遮掩眼睛,不吐舌头,微笑,大笑还可是识别。

网站地图xml地图