当前位置: 首页 > news >正文

树莓派4B-Python-使用PCA9685控制舵机云台+跟随人脸转动

系列文章

  1. 树莓派4B-Python-控制舵机
  2. 树莓派-Pico控制舵机
  3. 树莓派4B-Python-使用PCA9685控制舵机云台+跟随人脸转动(本文章)

目录

  • 系列文章
  • 前言
  • 一、SG90s舵机是什么?
  • 二、PCA9685与舵机信号线的接线图
  • 三、控制SG90s云台(也可用来测试舵机转动的范围)
  • 四、给树莓派注入灵魂(代码)
  • 五、给电脑注入灵魂(代码)
  • 总结


前言

先说明一下哈,本人用的是树莓派4B,Python的版本为3.7,OpenCV的版本为3.2.0

计划了好久的舵机云台终于有机会做出来了!原先一开始用的是塑料的云台+SG90舵机,但效果有点怪,云台会乱抽搐,于是换了金属的云台+SG90s舵机,嘿嘿,现在就没啥问题。
后来想了一下,还是觉得是以下的问题导致云台抽搐的:

  1. 舵机线靠近其他正在通电的电源线,受到电磁的干扰,导致舵机信号被干扰;
  2. PCA9685舵机控制板的问题。
    1、与舵机的接线接触不良;
    2、控制板与树莓派的接线接触不良。一般为通信线接触不良。
    3、控制板的5V供电有问题。输出电压不够5V或输出电流小于1A。
  3. 云台顺滑度的问题。本人的就是云台的上下转动的舵机那里卡了,导致变换不了舵机的角度,最后舵机发热严重,排查了好久才发现这个问题。

一、SG90s舵机是什么?

简单的说,就是SG90舵机的齿轮换成了金属齿轮而已,扭力增加了而已。可以理解为SG90舵机的升级版吧。
SG90S
还是不知道的可以参考之前写的关于舵机的内容:
树莓派4B-Python-控制舵机
树莓派-Pico控制舵机


二、PCA9685与舵机信号线的接线图

树莓派上的接线图
PCA9685上的接线图
简单说明一下接线:

PCA9685树莓派4B
GNDGND
DE空着
SCLSCL
SDASDA
VCC3.3V
V+5V(5V1A)

一定要接V+到5V,不然板子达不到控制舵机的效果。
若想外接5V1A的电源,那最好是将那个电源的GND与树莓派的GND连上,也就是共地。


提示:使用下面的代码前,记得先测试好舵机的转动角度哦,若转动的角度会卡死的话,舵机轻则发热,重则爆炸,所以切记切记,一定要先确定好舵机转动的范围。

三、控制SG90s云台(也可用来测试舵机转动的范围)

import time  # 引入time库
from adafruit_servokit import ServoKit  # 引入刚刚安装的PCA9685库并将名字缩写成ServoKit方便后续调用# from Adafruit_PCA9685 import ServoKit
kit = ServoKit(channels=16)  # 明确PCA9685的舵机控制数Servo1 = kit.servo[0]  # 左右转向的舵机
Servo2 = kit.servo[1]  # 上下移动的舵机Servo3 = kit.servo[2]  # 前后伸缩的舵机
Servo4 = kit.servo[3]  # 夹子舵机Servo5 = kit.servo[14]
Servo6 = kit.servo[15]Servo = [Servo1, Servo2, Servo3, Servo4, Servo5, Servo6]def servo_start(servo_number, start_angle, stop_angle, angle_sleep, time_sleep):"""servo_number:设置想要控制的舵机通道start_angle:设置起始的角度stop_angle:设置终止的角度angle_sleep:设置角度变换的步长  一般设为10time_sleep:设置角度变换的间隔   数字越小越快,但最好不要设置太快,舵机会反应不过来然后抽搐。最快0.005s,但是到达指定角度位置后需要等待1s左右让程序反应过来,否则会抽搐。"""for speed in range(start_angle, stop_angle, angle_sleep):servo_number.angle = speedprint(speed)time.sleep(time_sleep)def servo_dongzuo1():"""先让机械臂向后缩,然后向前伸,再向下移动,最后向上移动,这就回到了原点"""time_sleep = 0.01servo_start(Servo3, 110, 41, -1, time_sleep)servo_start(Servo3, 40, 111, 1, time_sleep)time.sleep(0.1)servo_start(Servo2, 130, 31, -1, time_sleep)servo_start(Servo2, 30, 131, 1, time_sleep)time.sleep(0.1)def aa():time_sleep = 0.01servo_start(Servo3, 40, 181, 1, time_sleep)servo_start(Servo3, 180, 41, -1, time_sleep)servo_start(Servo1, 90, 0, -1, 0.01)
servo_start(Servo1, 0, 180, 1, 0.01)
servo_start(Servo1, 180, 0, -1, 0.01)
servo_start(Servo1, 0, 90, 1, 0.01)
servo_start(Servo2, 80, 170, 1, 0.01)
servo_start(Servo2, 170, 80, -1, 0.01)

四、给树莓派注入灵魂(代码)

注入的灵魂如下(示例):

# -*- coding: utf-8 -*-import cv2
import time  # 引入time库
from adafruit_servokit import ServoKit  # 引入刚刚安装的PCA9685库并将名字缩写成ServoKit方便后续调用class Follow_the_face:def __init__(self):kit = ServoKit(channels=16)  # 明确PCA9685的舵机控制数self.Servo1 = kit.servo[0]  # 左右转向的舵机self.Servo2 = kit.servo[1]  # 上下移动的舵机self.Servo3 = kit.servo[2]  # 前后伸缩的舵机self.Servo4 = kit.servo[3]  # 夹子舵机self.Servo5 = kit.servo[14]self.Servo6 = kit.servo[15]self.Servo = [self.Servo1, self.Servo2, self.Servo3, self.Servo4, self.Servo5, self.Servo6]self.l_r_number_of_degrees = 110  # 左右电机初始化的角度self.u_d_number_of_degrees = 150  # 上下电机初始化的角度self.range_value = 30  # 在人脸检测中,设置人脸框的中心坐标与屏幕中心坐标的可接受偏移的范围def servo_start(self, servo_number, start_angle, stop_angle, angle_sleep, time_sleep):"""servo_number:设置想要控制的舵机通道start_angle:设置起始的角度stop_angle:设置终止的角度angle_sleep:设置角度变换的步长  一般设为10time_sleep:设置角度变换的间隔   数字越小越快,但最好不要设置太快,舵机会反应不过来然后抽搐。最快0.005s,但是到达指定角度位置后需要等待1s左右让程序反应过来,否则会抽搐。"""for speed in range(start_angle, stop_angle, angle_sleep):servo_number.angle = speedprint(speed)time.sleep(time_sleep)def Inittalize(self):"""初始化云台的各个位置,也算是一个启动前的角度自检和归位"""self.servo_start(self.Servo1, 111, 110, -1, 0.01)  # 可转动的角度为:0~180self.servo_start(self.Servo2, 180, 40, -1, 0.01)  # 可转动的角度为:40~180.40度时为垂直向上看self.servo_start(self.Servo2, 40, 150, 1, 0.01)def Auto_Angle(self, direction, offset_number):  # , auto_angle"""自动偏移指定度数direction:选择方向offset_number:偏移数auto_angle:自动角度"""if direction == "左":self.l_r_number_of_degrees -= offset_numberif 1 <= self.l_r_number_of_degrees <= 180:self.servo_start(self.Servo1, self.l_r_number_of_degrees, self.l_r_number_of_degrees - 1, -1, 0.01)else:self.l_r_number_of_degrees = self.l_r_number_of_degreesif direction == "右":self.l_r_number_of_degrees += offset_numberif 1 <= self.l_r_number_of_degrees <= 180:self.servo_start(self.Servo1, self.l_r_number_of_degrees, self.l_r_number_of_degrees - 1, -1, 0.01)else:self.l_r_number_of_degrees = self.l_r_number_of_degreesif direction == "上":self.u_d_number_of_degrees -= offset_numberprint('上被触发', self.u_d_number_of_degrees)if 41 <= self.u_d_number_of_degrees <= 179:self.servo_start(self.Servo2, self.u_d_number_of_degrees, self.u_d_number_of_degrees - 1, -1, 0.01)elif self.u_d_number_of_degrees > 179:u_d_number_of_degrees = 179self.servo_start(self.Servo2, u_d_number_of_degrees, u_d_number_of_degrees - 1, -1, 0.01)elif self.u_d_number_of_degrees < 40:self.u_d_number_of_degrees = 40self.servo_start(self.Servo2, self.u_d_number_of_degrees, self.u_d_number_of_degrees - 1, -1, 0.01)else:print('上出现意外', self.u_d_number_of_degrees)if direction == "下":self.u_d_number_of_degrees += offset_numberprint('下被触发', self.u_d_number_of_degrees)if 41 <= self.u_d_number_of_degrees <= 179:self.servo_start(self.Servo2, self.u_d_number_of_degrees, self.u_d_number_of_degrees - 1, -1, 0.01)elif self.u_d_number_of_degrees > 179:self.u_d_number_of_degrees = 179self.servo_start(self.Servo2, self.u_d_number_of_degrees, self.u_d_number_of_degrees - 1, -1, 0.01)elif self.u_d_number_of_degrees < 40:self.u_d_number_of_degrees = 40self.servo_start(self.Servo2, self.u_d_number_of_degrees, self.u_d_number_of_degrees - 1, -1, 0.01)else:print('下出现意外', self.u_d_number_of_degrees)def determine_face_position(self, difference_value_x, difference_value_y):"""检测人脸位置:param difference_value_x:x偏移的距离值:param difference_value_y:y偏移的距离值:return:"""if -self.range_value <= difference_value_x <= self.range_value and -self.range_value <= difference_value_y <= self.range_value:print("x坐标、y坐标都不用移动")elif difference_value_x > self.range_value:print("摄像头向右转动一点")self.Auto_Angle('右', 1)if difference_value_y > self.range_value:print("摄像头向下转动一点1")self.Auto_Angle('下', 2)if difference_value_y < -self.range_value:print("摄像头向上转动一点1")self.Auto_Angle('上', 2)elif difference_value_x < -self.range_value:print("摄像头向左转动一点")self.Auto_Angle('左', 1)if difference_value_y > self.range_value:print("摄像头向下转动一点2")self.Auto_Angle('下', 2)if difference_value_y < -self.range_value:print("摄像头向上转动一点2")self.Auto_Angle('上', 2)elif difference_value_y > self.range_value:print("摄像头向下转动一点")self.Auto_Angle('下', 2)elif difference_value_y < -self.range_value:print("摄像头向上转动一点")self.Auto_Angle('上', 2)def turn_on_face_detection(self):"""使用人脸检测:return:"""# 加载预训练的人脸检测器。直接选择树莓派中人脸模型(haarcascade_frontalface_default.xml)的路径即可face_cascade = cv2.CascadeClassifier('/home/pi/Desktop/12_29/haarcascade_frontalface_default.xml')# face_cascade = cv2.CascadeClassifier(cv2.data.haarcascades + 'haarcascade_frontalface_default.xml')# 创建用于显示相机画面的窗口cv2.namedWindow("Camera Feed")# 打开摄像头cap = cv2.VideoCapture(0)r, f = cap.read()# 获取画面的宽度和高度h, w, ch = f.shapeprint("输出画面的高度和宽度", h, w)center_x1 = int(w / 2)center_y1 = int(h / 2)print("输出中心坐标为:", center_x1, center_y1)# 记录人脸中心坐标f_x = f_y = f_w = f_h = Nonewhile True:# 读取相机画面ret, frame = cap.read()# 画面水平翻转flipped_frame = cv2.flip(frame, 1)  # 0时为垂直翻转# 获取画面的宽度和高度height, width, channels = flipped_frame.shape# 计算中心点的坐标center_x = int(width / 2)center_y = int(height / 2)# 正方形的边长length = 120# 左上角的xy坐标left_up_x = int(center_x - (length / 2))  # 因为原点在正方形的中心,处于一半的位置,所以左上角的x坐标需要边长除以2left_up_y = int(center_y - (length / 2))# 画红色的正方形cv2.rectangle(flipped_frame, (left_up_x, left_up_y), (left_up_x + length, left_up_y + length), (0, 0, 255),3)# 将帧转换为灰度图像gray = cv2.cvtColor(flipped_frame, cv2.COLOR_BGR2GRAY)# 进行人脸检测# 检测设置,将图片放大1.1倍(一般设1.1倍,看效果而定)# 重复检测的次数为6次(检测次数越多,速度越慢,检测也越严格,准确率可能有所提升)# 最小的检测框为100*100的正方形,以上的会显示,以下的被屏蔽faces = face_cascade.detectMultiScale(gray, scaleFactor=1.1, minNeighbors=6, minSize=(100, 100))# 在帧中标记人脸for (x, y, w, h) in faces:f_x, f_y, f_w, f_h = x, y, w, hcv2.rectangle(flipped_frame, (x, y), (x + w, y + h), (0, 255, 0), 3)# 计算人脸正方形的中心点坐标if len(faces) > 0:  # 判断人脸的数量是否>0f_z_x = int(f_x + (f_w / 2))f_z_y = int(f_y + (f_h / 2))# print("脸部中心x:", f_z_x, "脸部中心y:",  f_z_y)else:f_z_x, f_z_y = center_x, center_y  # 没有人脸时就默认人脸位置居中,防止后续使用舵机云台时乱动# print("脸部中心x:", f_z_x, "脸部中心y:",  f_z_y)# 计算人脸中心与画面中心相差的坐标difference_value_x = f_z_x - center_xdifference_value_y = f_z_y - center_y# print("x坐标偏移量为:", difference_value_x, "y坐标偏移量为:", difference_value_y)# 检测人脸位置self.determine_face_position(difference_value_x, difference_value_y)# 显示相机画面cv2.imshow("Face following...", flipped_frame)# 检测按键,如果按下q键则退出循环if cv2.waitKey(1) & 0xFF == ord('q'):break# 释放摄像头资源cap.release()# 关闭窗口cv2.destroyAllWindows()face = Follow_the_face()
face.Inittalize()  # 初始化舵机位置
face.turn_on_face_detection()  # 开启人脸检测

五、给电脑注入灵魂(代码)

import cv2def detect_faces():# 加载预训练的人脸检测器face_cascade = cv2.CascadeClassifier(cv2.data.haarcascades + 'haarcascade_frontalface_default.xml')# 打开默认摄像头cap = cv2.VideoCapture(0)r, f = cap.read()# 获取画面的宽度和高度h, w, ch = f.shapeprint("输出画面的高度和宽度", h, w, ch)center_x1 = int(w / 2)center_y1 = int(h / 2)print("输出中心坐标为:", center_x1, center_y1)# 记录人脸中心坐标f_x = Nonef_y = Nonef_w = Nonef_h = Nonewhile True:# 读取帧ret, frame = cap.read()# 水平翻转帧flipped_frame = cv2.flip(frame, 1)  # 0时为垂直翻转# 获取画面的宽度和高度height, width, channels = flipped_frame.shape# 计算中心点的坐标center_x = int(width / 2)center_y = int(height / 2)# 在中心点画一个红色圆形# radius = 20# color = (0, 0, 255)  # 红色# thickness = 0  # 填充圆形# cv2.circle(flipped_frame, (center_x, center_y), radius, color, thickness)# 画个红色正方形length = 120# 左上left_up_x = int(center_x - (length / 2))     # 因为原点在正方形的中心,处于一半的位置,所以左上角的x坐标需要边长除以2left_up_y = int(center_y - (length / 2))# # 左下# left_down_x = int(center_x - (length / 2))# left_down_y = int(center_y + (length / 2))# # 右上# right_up_x = int(center_x + (length / 2))# right_up_y = int(center_y - (length / 2))# # 右下# right_down_x = int(center_x + (length / 2))# right_down_y = int(center_y + (length / 2))cv2.rectangle(flipped_frame, (left_up_x, left_up_y), (left_up_x + length, left_up_y + length), (0, 0, 255), 3)# 将帧转换为灰度图像gray = cv2.cvtColor(flipped_frame, cv2.COLOR_BGR2GRAY)# 进行人脸检测faces = face_cascade.detectMultiScale(gray, scaleFactor=1.1, minNeighbors=5, minSize=(30, 30))# 在帧中标记人脸for (x, y, w, h) in faces:f_x, f_y, f_w, f_h = x, y, w, hcv2.rectangle(flipped_frame, (x, y), (x + w, y + h), (0, 255, 0), 3)# 计算人脸正方形的中心点坐标if len(faces) > 0:  # 判断人脸的数量是否>0f_z_x = int(f_x + (f_w / 2))f_z_y = int(f_y + (f_h / 2))# print("脸部中心x:", f_z_x, "脸部中心y:",  f_z_y)else:f_z_x, f_z_y = center_x, center_y   # 没有人脸时就默认人脸位置居中,防止后续使用舵机云台时乱动# print("脸部中心x:", f_z_x, "脸部中心y:",  f_z_y)# 计算人脸中心与画面中心相差的坐标difference_value_x = f_z_x - center_xdifference_value_y = f_z_y - center_y# print("x坐标偏移量为:", difference_value_x, "y坐标偏移量为:", difference_value_y)range_value = 10    # 设置可接受偏移的范围if -range_value <= difference_value_x <= range_value and -range_value <= difference_value_y <= range_value:print("x坐标、y坐标都不用移动")elif difference_value_x > range_value:print("摄像头向右转动一点")if difference_value_y > range_value:print("摄像头向下转动一点")if difference_value_y < -range_value:print("摄像头向上转动一点")elif difference_value_x < -range_value:print("摄像头向左转动一点")if difference_value_y > range_value:print("摄像头向下转动一点")if difference_value_y < -range_value:print("摄像头向上转动一点")elif difference_value_y > range_value:print("摄像头向下转动一点")elif difference_value_y < -range_value:print("摄像头向上转动一点")# 显示带有人脸标记的帧cv2.imshow("Faces Detected", flipped_frame)# 按下 'q' 键退出循环if cv2.waitKey(1) & 0xFF == ord('q'):break# 释放摄像头并关闭窗口cap.release()cv2.destroyAllWindows()# 调用实时人脸检测函数
detect_faces()

总结

目前的云台呢确实是可以跟随人脸转动的,但以下问题点:

  1. 实时显示相机中的画面并进行人脸检测时,有些流畅度不足,因为本人是显示彩色画面的,若改成灰度图的话应该会更快一点;
  2. 检测人脸的准确度不足,这里使用的是OpenCV自带的人脸检测模型,存在较多的误判,这样会干扰云台的自动人脸定位,所以可以的话,自己训练一个更优的人脸检测模型来使用。或者是调整重复检测次数之类的增加一些精准度吧,但重复检测次数增加得越多,画面越卡顿;
  3. 目前的程序只能针对画面中有一个人脸的时候进行跟随,若出现多个人脸,云台就会乱套了,各位大佬可以根据自身需求优化或利用这个问题;
  4. 使用模拟信号的SG90s舵机会存在一些精度的问题,表现的样子就是定位有些不准,然后出现抖动。可以的话,将模拟舵机换成数字舵机,当然价格会贵上一倍。数字舵机的精准度会高上许多,之后本人就打算买回来试试;

该文章若对你有帮助,不妨点个赞噢~


2024.01.15写
有写得不好、写得不对的地方还请各位指出,谢谢!

相关文章:

  • QT笔记 - 添加项目到版本控制系统 - Git
  • mysql原理--redo日志2
  • 2024,会更好嘛?
  • golang学习-流程控制
  • Golang+Gorm库使用踩坑——未标识primarykey导致创建后无法返回修改
  • 大白菜U盘安装系统-戴尔电脑
  • 【JVM 基础】类字节码详解
  • SwiftUI CoreData Picker
  • 基于昇腾910B搭建多节点K8s集群
  • 二维差分算法详解
  • Sentinel限流、熔断
  • Codeforces Round 768 (Div. 1) D. Flipping Range(思维题 等价类性质 dp)
  • javacv和opencv对图文视频编辑-常见错误汇总
  • C++学习笔记——SLT六大组件及头文件
  • Java项目:117SpringBoot动漫论坛网站
  • (ckeditor+ckfinder用法)Jquery,js获取ckeditor值
  • [译]前端离线指南(上)
  • “大数据应用场景”之隔壁老王(连载四)
  • 【MySQL经典案例分析】 Waiting for table metadata lock
  • 【编码】-360实习笔试编程题(二)-2016.03.29
  • bootstrap创建登录注册页面
  • Java 实战开发之spring、logback配置及chrome开发神器(六)
  • nginx 配置多 域名 + 多 https
  • React-生命周期杂记
  • Yii源码解读-服务定位器(Service Locator)
  • 将回调地狱按在地上摩擦的Promise
  • 每个JavaScript开发人员应阅读的书【1】 - JavaScript: The Good Parts
  • 前端技术周刊 2019-01-14:客户端存储
  • 如何使用 JavaScript 解析 URL
  • 适配mpvue平台的的微信小程序日历组件mpvue-calendar
  • 数组的操作
  • 小程序button引导用户授权
  • 一个普通的 5 年iOS开发者的自我总结,以及5年开发经历和感想!
  •  一套莫尔斯电报听写、翻译系统
  • 硬币翻转问题,区间操作
  • MyCAT水平分库
  • #NOIP 2014#day.2 T1 无限网络发射器选址
  • #快捷键# 大学四年我常用的软件快捷键大全,教你成为电脑高手!!
  • #我与Java虚拟机的故事#连载14:挑战高薪面试必看
  • $.ajax,axios,fetch三种ajax请求的区别
  • (C#)Windows Shell 外壳编程系列4 - 上下文菜单(iContextMenu)(二)嵌入菜单和执行命令...
  • (C)一些题4
  • (JS基础)String 类型
  • (pytorch进阶之路)扩散概率模型
  • (windows2012共享文件夹和防火墙设置
  • (汇总)os模块以及shutil模块对文件的操作
  • (牛客腾讯思维编程题)编码编码分组打印下标(java 版本+ C版本)
  • (实战)静默dbca安装创建数据库 --参数说明+举例
  • (转)linux下的时间函数使用
  • (转)母版页和相对路径
  • (转)人的集合论——移山之道
  • (最简单,详细,直接上手)uniapp/vue中英文多语言切换
  • ***汇编语言 实验16 编写包含多个功能子程序的中断例程
  • .net framwork4.6操作MySQL报错Character set ‘utf8mb3‘ is not supported 解决方法
  • .net oracle 连接超时_Mysql连接数据库异常汇总【必收藏】