概述
为测试识别行人相关接口,先用手机端对真人(自己)作了行人识别尝试,发觉对全身像比较敏感。接着用照片试了试,感觉站姿更易于被识别。
为了使实验易于重复,选择在电脑播放视频并静止画面。将机甲摄像头设置为高清,似乎效果好了点。下面是搭建的环境:
手机端开发环境中,先测试了手动使能行人识别的效果。垫高了电脑,调整距离,使识别效果稳定。见手机截图中的两个黄框:
代码主体
def 开始():
视觉.开启识别(行人)
while True:
if 视觉.当识别到(常量.有行人时):
信息 = 视觉.取行人信息()
告知(信息)
时间.睡眠(1)
在机甲上完整可运行代码在此。每隔一秒尝试一次识别行人,在控制台输出识别信息,格式如下(源自官方文档):
测试结果
过程中机甲位置没动,识别距离未作修改。
一、两人识别:
二、郭德纲识别:
中心点位置和两人识别时区别不大,宽度也差不多,但高度高了10%。这个,难道是没有谦大爷衬托就显高了?
三、于谦识别:
光是谦大爷的话,识别的位置上移了点,也胖点高点。
四、如果挡了腿,就识别不到了
仔细看看题图里的识别,感情是把桌子认成了谦大爷的裙子哈。
后感
希望放开底层接口,以便进行视觉识别的算法尝试。比如能获得视频流(或者帧)的话,再加上对第三方库的支持,用户就可以实现一些初步的人脸、物品识别等等。想起来就很美!
最后
以上就是端庄帆布鞋为你收集整理的实验代做 行人识别_大疆机甲大师Python API之十二:识别郭德纲于谦的全部内容,希望文章能够帮你解决实验代做 行人识别_大疆机甲大师Python API之十二:识别郭德纲于谦所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复