openmv学习之旅②之色块追踪算法的改善

news/2024/12/1 20:29:59/

大家好,我是杰杰。

实在不好意思,最近比较忙,之前说的连载现在才更新出来。


从上一篇openmv的学习中openmv学习之旅①
我们可以很简单运用micropython在openmv上做我们想做的事情。

Python这个东西用起来是很简单的,,下面来说说改善色块追踪的算法

先做个改善前的分析吧:

改善前:


API:find_blobs


  • thresholds是颜色的阈值。这个参数是一个列表,可以包含多个颜色。在返回的色块对象blob可以调用code方法,来判断是什么颜色的色块。

  • roi是“感兴趣区”。

  • x_stride 就是查找的色块的x方向上最小宽度的像素,默认为2。

  • y_stride 就是查找的色块的y方向上最小宽度的像素,默认为1。

  • area_threshold 面积阈值,如果色块被框起来的面积小于这个值,会被过滤掉。

  • pixels_threshold 像素个数阈值,如果色块像素数量小于这个值,会被过滤掉

  • merge 合并,如果设置为True,那么合并所有重叠的blob为一个。 注意:这会合并所有的blob,无论是什么颜色的。如果你想混淆多种颜色的blob,只需要分别调用不同颜色阈值的find_blobs。

    1blobs = img.find_blobs([red])

find_blobs对象返回的是多个blob的列表。

而一个blobs列表里包含很多blob对象,blobs对象就是色块,每个blobs对象包含一个色块的信息。


blob有多个方法:

  • blob.rect() 返回这个色块的外框——矩形元组(x, y, w, h),可以直接在image.draw_rectangle中使用。

  • blob.x() 返回色块的外框的x坐标(int),也可以通过blob[0]来获取。

  • blob.y() 返回色块的外框的y坐标(int),也可以通过blob[1]来获取。

  • blob.w() 返回色块的外框的宽度w(int),也可以通过blob[2]来获取。

  • blob.h() 返回色块的外框的高度h(int),也可以通过blob[3]来获取。

  • blob.pixels() 返回色块的像素数量(int),也可以通过blob[4]来获取。

  • blob.cx() 返回色块的外框的中心x坐标(int),也可以通过blob[5]来获取。

  • blob.cy() 返回色块的外框的中心y坐标(int),也可以通过blob[6]来获取。

  • blob.rotation() 返回色块的旋转角度(单位为弧度)(float)。如果色块类似一个铅笔,那么这个值为0~180°。如果色块是一个圆,那么这个值是无用的。如果色块完全没有对称性,那么你会得到0~360°,也可以通过blob[7]来获取。

  • blob.code() 返回一个16bit数字,每一个bit会对应每一个阈值。

    (上面的知识在openmv的官网上都有说明)

下面是说说调用find_blobs来做色块的追踪的原理

它是全幅图像扫描,它有优点也有缺点

先说说优点吧:信息全面,全幅图像的搜索,把所有色块都搜索进来了

但是缺点也不少:①:运算的速度,是很慢的,有些地方我们根本不需要扫描它。

②:色块的数量,很多时候,会有很多延时差不多的色块过来干扰,导致追踪失败。

源码:

 1import sensor, image, time
 2red_threshold_01 = (0, 35, 0, 50, -10, 40)
 3sensor.reset() 
 4sensor.set_pixformat(sensor.RGB565)
 5sensor.set_framesize(sensor.QVGA) 
 6sensor.skip_frames(10) 
 7sensor.set_auto_whitebal(False)
 8clock = time.clock()
 9while(True):
10    clock.tick()
11    img = sensor.snapshot() 
12    blobs = img.find_blobs([red_threshold_01],
13                             area_threshold=150)
14    if blobs:
15    #如果找到了目标颜色
16        print(blobs)
17        for b in blobs:
18        #迭代找到的目标颜色区域
19            # Draw a rect around the blob.
20            img.draw_rectangle(b[0:4]) # rect
21            #用矩形标记出目标颜色区域
22            img.draw_cross(b[5], b[6]) # cx, cy
23            #在目标颜色区域的中心画十字形标记
24    print(clock.fps())




效果图:

捕获.PNG

运算速度:

微信截图_20180306223742.png

从拍摄完到扫描完,每秒只能处理二十多帧图像,而且是简单的处理。

虽然脱机运行速度可以快一倍。但是还是比较慢的。

肯定要改进啊。


以下是改进扫描算法的思想:

①:首先做一次全幅图像的扫描,找到我们需要的色块。

②:我们得到色块的信息:如色块的长、宽、及色块的位置

③:我们只扫描色块周围的区域(ROI)

④:假设在新的ROI找不到我们需要的色块,就重新来。

这个方法类似于飞思卡尔的边缘检测。

其实这个改进是非常简单的。因为我们需要的东西在microPython中全部都有。

只需要拿到find_blobs的返回的东西就好啦。

算法示意图

640.jpg


绿色的是我们追踪的色块,

而红色的框是我们第一次全局扫描得到的东西

那么我们只需在红色的框之外做一次扫描就能得到绿色块啦

实现的源码

 1import sensor, image, time
 2#red_threshold_01 = (45, 100, -60, 80, 34, 91)
 3red_threshold_01 = (21, 29, -72, 6, -11, 17)
 4sensor.reset() 
 5sensor.set_pixformat(sensor.RGB565)
 6sensor.set_framesize(sensor.QVGA) 
 7sensor.skip_frames(20) 
 8sensor.set_auto_whitebal(False)
 9#关闭白平衡。白平衡是默认开启的,在颜色识别中,需要关闭白平衡
10clock = time.clock() 
11img = sensor.snapshot()
12blobs = img.find_blobs([red_threshold_01],
13                         area_threshold=150)
14last_blobs = blobs
15while(True):
16    clock.tick() 
17    img = sensor.snapshot() 
18    if last_blobs:
19         for b in blobs:
20            x1 = b[0]-7
21            y1 = b[1]-7
22            w1 = b[2]+12
23            h1 = b[3]+12
24            #print(b.cx(),b.cy())
25         roi2 = (x1,y1,w1,h1)
26         print(roi2)
27         blobs = img.find_blobs([red_threshold_01],
28                                    roi = roi2,
29                                    area_threshold=1000)
30         last_blobs = blobs
31    else:
32        blobs = img.find_blobs([red_threshold_01],
33                                    area_threshold=1000)
34        last_blobs = blobs
35    if last_blobs:
36        #如果找到了目标颜色
37        #  print(blobs)
38        for b in last_blobs:#迭代找到的目标颜色区域
39            img.draw_rectangle(b[0:4]) 
40            img.draw_cross(b[5], b[6]) 
41    print("帧率 : ",clock.fps()) 

改善后的帧率的确是快了不少的:基本能快一倍以上,当然,物体在图片越大,处理的速度会越慢。

微信截图_20180306223943.png

帧率达到了  45  ,并且,对于运动中的物体,也能很好的追踪出来,减少无关物体的干扰。


按照这个思想,我们还能把这个物体分成四条边来扫描:

640 (1).jpg

那么是不是只需要扫描到这个物体的四条边,并且证明四条边的点都有重合,那么,我们就能知道这个物体是一个整体从而得到物体的位置。。。。

当然,这只是想法。对于程序员任何的功能想法的实现都需要代码的实现,这代码我就不实现了,有兴趣的可以试试。。。



http://www.ppmy.cn/news/314620.html

相关文章

诺基亚智能手机与NFC功能推出

诺基亚智能手机与NFC功能推出 我收到了我长达十年的朋友威乐Makinnen谁出席推出三款全新的诺基亚智能手机分别是700,701和600 8月24日其在Symbian上运行的所有代号为百丽的电话。诺基亚700仅重96gm,并在110 X 50.7点x9.7毫米它不仅是诺基亚在塞班范围最小巧的智能手…

诺基亚X3兴奋

诺基亚X3兴奋 多年来,诺基亚一直被认为是产生对高端品质和用户友好的移动电话的领先的手机制​​造商。对于每一个诺基亚洁具你会购买,你会放心的无与伦比的质量和功能。 的宗旨,以填补客户的需求越多,诺基亚已经推出了另一种手机…

应用层下的人脸识别(一):图像获取

本文为大家总结了人脸识别技术在安防领域应用的完整流程,以及产品设计的细节。其中包括:如何获取最佳图像,如何进行设备对接等经验。 图像获取是人脸识别的第一步,人脸识别项目中图像来源主要依靠各类监控相机,图像质量…

使用手机作单反相机的遥控器

2019独角兽企业重金招聘Python工程师标准>>> 你的相机用什么方式取景?液晶显示器?光学取景器?还是电子取景器?我们今天要介绍的就是颠覆大部分人使用习惯的一种取景方式,用手机的液晶屏取 景。这里我们要用…

加载图片节省内存的方法

加载图片节省内存1,在Image Views中调整图片大小如果要在UIImageView中显示一个来自bundle的图片,应该保证图片的大小和UIIimageView的大小是相同的,在运行中缩放图片是很消耗资源的,特别是UIImageView嵌套在UIScrollView中的情况…

设置通知栏的背景颜色或全幅背景

1. 效果图 2. 在xml布局中添加一个背景图片 , 这里就不贴代码了 3. 在MainActivity中添加如下代码 protected void onCreate(Bundle savedInstanceState) {super.onCreate(savedInstanceState);setContentView(R.layout.activity_main);translucentStatusBar(this, false);}sta…

图像几何校正

几何校正中混淆的概念 名词描述几何校正几何畸变会给基于遥感图像的定量分析、变化检测、图像融合 、地图测量或更新等处理带来误差(主要指二维平面坐标),所以需要针对图像的几何畸变进行校正,也就是几何校正。图像配准图像配准与…

Hadoop Distributed System (HDFS) 写入和读取流程

一、HDFS HDFS全称是Hadoop Distributed System。HDFS是为以流的方式存取大文件而设计的。适用于几百MB,GB以及TB,并写一次读多次的场合。而对于低延时数据访问、大量小文件、同时写和任意的文件修改,则并不是十分适合。 目前HDFS支持的使用…