机器视觉系统整合解决方案研究(精选5篇)
机器视觉系统的原理是:将感产品或区域的图像进行采集,然后根据其图像信息用专用的图像处理软件进行处理,根据处理结果软件能自动判断产品的位置、尺寸、外观信息,并根据人为预先设定的标准进行合格与否的判断,输出其判断信息给执行机构。图像采集与图像处理作为机器视觉系统应用的两大处理阶段,其应用环节的结合将进一步促进机器视觉系统整合的发展趋势。
随着各项高新技术的飞速发展及行业应用需求的不断加大,机器视觉技术应用也步入新的发展阶段。其行业发展体现出向紧致、体积小、系统整合等趋势。而面对机器视觉系统整合的趋势,目前的市场需求中对图像采集与图像处理这两个环节的结合已非常迫切。
一套完整的机器视觉系统,图像采集部分与图像处理环节缺一不可。不管是进行工业生产质量检测,还是开展交通安全行驶监测,都是由图像采集部分来获取目标对象的有关信息,并进行实时的传输,但要想最终能够获得所需要的图像信息,还必须要有图像处理这一环节,需要图像处理技术将不必要的信号剔除,而将有用的信息进行增强、除噪等处理,使传送到终端的图像能足够清晰、准确、完整。
纵观行业发展,对于整个图像采集与图像处理技术的发展而言,我们可以发现,当信号处理技术有了显着提高时,由于图像采集环节中的核心组件——图像传感器并不能随着信号处理技术的提高而得到升级,最终造成两环节应用之间的不协调,但传感器功能的不足却是可以由信号处理技术来进行弥补的。如此说来,将图像采集与处理技术的结合将会是解决机器视觉系统升级制约的最佳手段,在应用领域中,有着绝对的需求。
查英[1]等将机器视觉应用于自动装配生产线,利用CCD摄像机获取零件的位置信息,通过图像处理和识别技术对工件进行识别定位。焦圣喜[2]等通过对图像进行模板匹配、边缘检测及混合中心矩计算,实现对汽车发动机活塞的计算机视觉检测与分选。岳晓峰[3]等应用LabVIEW软件作为开发工具,采用Harris角点检测及虚拟三角形匹配方法,建立了一种零件分选系统,很好地降低分选的错误率,达到了快速而准确地对零件进行分选的要求。李海华[4]等采用视觉检测技术,利用工件图像轮廓上各像素点相对质心力矩的大小,基于力学原理提出了一种区域质心算法,可以对孔类零件的内径实现精确的在线检测。吴霆[5]运用一系列图像处理经典算法得到被测工件的圆孔半径和圆心坐标,然后与标准工件的参数进行比较,即可知道当前的工件是否符合要求。
本文利用图像处理技术,基于颜色、面积、周长、圆形度等参数构建工业零件分选系统,在满足一定的正确识别率的基础上同时保证了较高的实时处理图像的速度,为工业零件在线检测提供实际应用方案。
1、实验设备
图1所示为零件分选系统的硬件结构图。其中计算机为Think pad X201i,配置(CPU:Intel酷睿i3,390M;内存:2GB,DDR3,1 0 6 6 M H z)。相机为天敏T 5 U S B相机,帧率60帧/秒,分辨率为640x480,光电传感器为金属圆柱形对射式光电开关。软件开发在Microsoft Visual C++6.0进行。实验中所使用的零件为红色塑料和银色金属圆柱形活塞模型。
2、实验方法
2.1 图像采集
根据实际生产过程中皮带的运行速度,为降低成本,本系统选用普通USB相机作为图像采集设备,利用DirectShow技术完成图像的采集操作。
DirectShow是微软公司提供的一套在Windows平台上进行流媒体处理的开发包,为多媒体流的捕捉和回放以及格式转换或编解码方面提供了强有力的支持。运用DirectShow可以很方便地从支持W D M驱动模型的采集卡上捕获数据,并且进行相应的后期处理乃至存储到文件中[6,7]。DirectShow使用一种叫做Filter Graph的模型来管理整个数据流的处理过程,参与数据流处理的各个功能模块称作Filter,各个Filter在Filter Graph中按一定的顺序连成一条流水线协调工作,完成从视频设备中获取视频或对视频流进行解码等操作。本系统中利用DirectShow完成各帧图像采集的具体步骤如下:
(1)利用CoCreateInstance函数创建一个Filter Graph Manager实例。
(2)利用CoCreateInstance函数创建一个SampleGrabber实例。
(3)调用QueryInterface函数获取IID_ISampleGrabber、IID_IMediaControl等接口指针,以便控制采集操作。
(4)设置媒体类型及回调函数。
(5)启动Filter Graph,并在回调函数中等待光电传感器的信号,若传感器被触发,则采集当前数据包(Sample)中的图像数据,进行后续处理。
2.2 图像二值化
对于从相机中采集到的彩色图像数据,需要进行二值化处理。图像二值化是图像变换的一种特殊情况,是为了从图像中抽出对象形状的最基本的处理方法。经过二值化处理的图像,一般用0(背景)和255(目标)这两个值来表示。通过对采集到的彩色图像进行如公式(1)所示的灰度化处理后,发现灰度图像中待提取的目标物和背景区分明显,故利用自动阈值分割的方法完成二值化处理。
其中,Y表示灰度图像,R表示红色分量,G表示绿色分量,B表示蓝色分量
目前自动阈值分割法主要有大津法(Otsu)、p-分位数法、迭代法、Kittler最小误差阈值法、最大熵法、势差法等。考虑到本文中待测灰度图像的直方图具有明显双峰性,最终采用大津法确定分割阈值,完成目标零件的提取。
2.3 轮廓提取
经过二值化处理后,图像中的零件目标被提取出来并以白色(255)像素表示。利用图2所示矩形结构元素对图像进行一次形态学开运算处理,去除小噪声;之后对图像进行补洞处理得到图像记为Ib。
对图像Ib进行一次腐蚀处理,得到腐蚀图像记为Id。将图像Ib与Id进行差分,即可得到轮廓图像记为Ic。
2.4 连通区域标记
对于得到轮廓图像Ic,需要进行区域标记处理。连通区域标记算法用于从图像中提取目标区域,并计算目标区域的特征参数,是目标检测和目标识别的关键步骤。
区域标记算法有很多,本文采用一种较简单的方法[8],区域标记后的图像记为Il,具体步骤如下所示:
(1)扫描图像Ic,遇到没有标记的目标像素(白色像素,像素值为255)P时,附加一个新的标记label(其中label在本文设为20),如图3(a)所示。
(2)给与P连接在一起(即相同连接成分)的像素附加相同的标记,如图3(b)所示。
(3)给所有与加标记像素连接在一起的像素附加相同的标记,如图3(c)所示。
(4)重复步骤2操作,直至连接在一起的像素全部被附加标记。这样一个连接成分就被附加了相同的标记,如图3(d)所示。
(5)返回步骤1,重新查找新的没有加标记的像素,重复上述各个步骤,直至整幅图像完成扫描。
2.5 特征参数测量
完成区域标记后,需要对标记图像Il进行特征参数的测量。首先,遍历图像,计算各个标记区域的长度,找出最大的长度记为L及其对应的区域。对于含有零件的图像,找出的区域即为零件部分。
统计最大区域内的像素点个数,作为面积记为A。在统计过程中,每当找到一个符合要求的像素点后,记下其坐标。当完成区域内所有像素点的统计后,根据这些位置坐标获取原彩色图像上相应点的彩色像素信息并分别计算R、G、B分量的平均值记储存作为分选过程中的颜色依据。
之后,根据长度L及面积A利用公式(2)获得圆形度信息记为e。将e储存作为分选过程中形状依据[9]。
2.6 分选
本研究在进行分选操作前,首先人工对实际生产环境下的零件图像进行分析,分别测量两种零件颜色的R、G、B分量值及圆形度信息。由于此操作存在一定的误差,故在分析过程中均采用多次测量取平均值的方法。最终获得红色零件的标准颜色值记为Rrs,Grs,Brs,银色零件的标准颜色值记为Rss,Gss,Bss,圆形度的标准值记为es。
圆形度e是基于面积和周长而计算物体或区域形状复杂度的特征量,其值在0与1之间分布。形状越接近于圆,e的值越大;反之,e的值越小。因此,在完成上述特征参数测量步骤后,首先验证被测目标的圆形度信息。若圆形度e满足公式(3),则认为当前目标是合格零件,继续进行后续颜色判断;否则将该目标作为不符合要求的零件进行剔除。
当完成圆形度判别后,接着进行颜色分类,由于待识别零件只有两种颜色,若当前零件的颜色信息满足公式(4),则认为当前零件为红色零件;否则为银色零件。
图4所示为整个分选过程的流程图。
3、结果与分析
图5所示为相机采集的零件彩色图像,其中图5(a)为红色零件,图5(b)为银色零件,从图中可以看出,由于USB相机成像质量的限制,零件及背景有些变色,但这不影响后续处理。
图6所示为经过大津法获得最优阈值并进行二值化后得到的结果,由于图像中零件和背景区分明显,故经过分割后,零件被完整的提取出来。
经过二值化处理后,虽然零件被提取出来,但由于零件上含有孔洞且一些微小噪声也随零件一并被提取出来,因此在进行轮廓提取前需要进行形态学去噪及补洞处理。图7所示为处理后的结果。
图8所示为轮廓提取后的结果,利用原图像与其腐蚀图像相互差分的方法可以准确快速地提取出区域的轮廓。
由于形态学去噪只能去除面积较小的噪声,因此经过轮廓提取后,图像中除了零件轮廓外,还有可能存在其他非零件轮廓。利用连通区域标记,找出最长的轮廓及其对应的区域则可以准确地将零件部分提取出来。之后,通过计算零件区域的圆形度及颜色信息并与之前人工建立的标准信息进行比较,即可完成分选工作。表1所示为标准特征参数,表2为分选结果的准确率及处理时间,其中零件的标准圆形度及颜色信息是通过对实际环境下红色零件及银色零件各100幅图像计算取平均值后得到的;分选准确率及处理时间是通过随机采集的红色零件及银色零件各1000幅图像计算得出的。
从表2的分选结果可以看出,最终的准确率为98.1%,每幅图像平均处理时间为0.51秒。该结果能够满足实际生产要求。对于那些错误分选的情况,经过分析发现主要是由于光照不均匀造成的;若想进一步提高分选准确率,可以配置专业的环形光源。
4、结语
本研究通过USB相机及光电传感器采集传送带上的两种零件图像,利用大津法进行图像二值化处理,之后进行轮廓提取并完成连通区域标记。通过计算标记图像中两种零件的圆形度与颜色信息并与之前人工建立的标准信息进行比较,最终完成零件的分选操作。实验结果证明最终的分选准确率为98.1%,平均检测时间为0.51秒。该结果能够满足实际生产中的要求。
参考文献
[1]查英,刘铁根,杜东.图像识别技术在零件装配自动识别中的应用[J].计算机工程,2006,32(10):178-179.
[2]焦圣喜,张利辉,江绛.计算机图像检测技术在工件分选中的应用[J].武汉理工大学学报,2009,31(16):110-113.
[3]岳晓峰,甘立杰,何秋奇,孙婷婷,等.一种基于角点特征匹配的零件分选系统[J].机床与液压,2009,37(11):157-160.
[4]李海华,陈利.利用图像实现孔类零件内径检测的方法[J].工具技术,2011,45(6):91-93.
[5]吴霆.基于图像处理的工件检测[J].广东轻工职业技术学院学报,2011,10(2):18-21.
[6]陆其明.DirectShow开发指南[M].北京:清华大学出版社,2003年.
[7]张会汀.基于DirectShow与DMO的视频采集与编码实现[J].计算机工程,2005,31(14):193-195.
[8],孙明.实用数字图像处理与分析[M].北京:中国农业大学出版社,清华大学出版社,2008年.
关键词:机器视觉;孵化卵;在线监测系
中图分类号:S817.6 文献标识码:A 文章编号:1006-8937(2015)26-0001-02基于机器视觉的孵化卵在线监测系统研究
孵化卵的具体发育过程受到种蛋自身质量以及发育环境等的影响,如果能够在种蛋的孵化过程中对胚胎的具体发育情况进行紧密观察,以此来对种蛋的成活率进行检测,可以及时将无精蛋、死精蛋以及死胚蛋等进行有效地剔除。人工的检测方法主要是通过人体感官以及光照等进行检测,这种检测方法所需要的劳动强度非常大,而且极易受到情绪、疲劳程度、工作条件以及色彩分辨力等人为主观因素的影响,使得人工检测的准确率大大降低。因此,我们必须要加强孵化卵在线监测系统的研究,不断提高种蛋成活率的检测效率和检测质量。
1 机器视觉概述
机器视觉的出现和发展经历了一个漫长的过程,其最初源于遥感和图片在生物医学方面的研究和应用。随着时间的推移和科技的进步,机器视觉已经逐渐发展为集计算机、自动化、光学以及心理学等于一身的综合性学科。机器视觉的主要目的是通过计算机的模拟人的视觉功能,对实际输入的图像信息进行有效的检测、测量和控制。
随着机器视觉技术的不断发展和成熟,机器视觉被逐渐应用到人们生产生活的各个领域,为提高生产效率和方便人们的生活带来了巨大的帮助。机器视觉不仅具有人眼的获取图像信息的功能,而且它还在一定程度上具有人脑的智能分析功能。目前,机器视觉已经逐渐在机器人导航、智能机器人、工业检测和卫星遥感系统以及动植物生长状态的监控等实现了深入的应用。
机器视觉在产品的记录方面有着巨大的优势,已经逐渐成为生产过程中不可或缺的重要技术。机器视觉可以对不合格的产品进行及时剔除,从而有效保证产品的质量。除此之外,位置探测、目标识别以及完整性检测等常见的任务也需要通过机器视觉技术来完成。通过基于机器视觉的孵化卵在线监测系统,可以将孵化过程中的无精蛋、死精蛋以及死胚蛋等进行有效剔除,保证孵化的具体质量。
2 基于机器视觉的孵化卵在线监测的硬件系统
通常情况下而言,基于机器视觉的孵化卵在线监测的硬件系统主要是由摄像机、嵌入式系统、光照箱和光源、计算机、载物平台等部分组成的。一般情况下,摄像机位于孵化卵在线监测的硬件系统的光照箱的顶端和正中央,嵌入式系统分为输出端和输入端,其输出端与计算机相连接,其输入端和摄像机的输出端相连接。光源位于光照箱的底部,而且光照箱的中间有一个隔板,可以将载物平台分割成两部分。
在对孵化卵进行具体的检测时,可以将待检测的种蛋放在再无平台上,位于顶部的计算机会对种蛋进行拍摄,在拍摄的具体过程中,摄像机的镜头会对准位于载物平台上的孵化卵。孵化卵在线监测的硬件系统的光室位于载物台的下方,为了得到更加均匀的漫反射光源,使被拍摄的种蛋更加突出,光照箱的内壁通常被涂成白色,而载物平台的背景颜色被设置成黑色。通过摄像机的拍摄,计算机可以获得图像信息,为后续的软件系统对图像信息的进一步分析和处理打下良好的基础。
3 基于机器视觉的孵化卵在线监测的图像预处理
图像处理是孵化卵在线监测的重要步骤。通常情况下而言,图像处理可以分为三个重要的阶段,即预处理阶段、特征提取阶段、模式识别、理解阶段。孵化卵在线监测系统是以机器视觉为基础的,因此图像预处理的质量直接决定着孵化卵在线监测的准确性。基于机器视觉的孵化卵在线监测的图像处理的图像预处理分为图像去噪、图像增强、图像分割以及边缘跟踪和区域标记,其具体的过程按照图像去噪、图像增强、图像分割以及边缘跟踪和区域标记的具体顺序进行。
3.1 基于机器视觉的孵化卵在线监测的图像去噪
对于基于机器视觉的孵化卵在线监测系统而言,在图像的实际形成过程中以及图像的获取和传输过程中,会受很多噪声的影响,这些噪声的影响会在很大程度上对图像的质量造成不良的干扰,因此我们必须要进行图像去噪。目前比较常用的图像去噪方法主要有邻域平均法和中值滤波法两种。通过采取图像去噪的方式可以在很大程度上提高种蛋检测的准确性。
3.2 基于机器视觉的孵化卵在线监测的图像增强
图像增强主要是指通过信息和数据的交换来对图像中不需要的部分进行掩盖,对需要的部分进行强调,使图像更加符合视觉响应的特性。通常情况下而言,图像增强技术可以划分为基于空域的算法和基于频域的算法两种情况。我们要严格按照种蛋内部图像的具体特征来对图像进行适当的增强,将孵化卵监测所需要的图像信息进行有效突出,为了接下来的图像处理提供基础。通常情况下,基于机器视觉的孵化卵在线监测系统的图像增强主要通过直方图变换调整对比度的方法来进行。
3.3 基于机器视觉的孵化卵在线监测的图像分割
图像分割也是孵化卵在线监测的图像处理的图像预处理的重要步骤。图像分割的主要作用是对图像中人们感兴趣的某些特殊区域进行有效的提取的过程。通常情况下,图像分割的主要算法有阈值分割和边缘分割两种。对于孵化卵在线监测的内部图像来说,图像分割的质量直接关系到种蛋成活率检测的准确性。
3.4 基于机器视觉的孵化卵在线监测颜色特征的提取
一般情况下,种蛋的质量和种蛋的内部颜色有着直接的联系,种蛋的内部颜色是种蛋质量的最重要品质性状。因此,我们必须要加强对种蛋图像信息中颜色特征的提取,这对于检测不同内部颜色的种蛋和提高种蛋的成活率具有十分重大的现实意义。颜色模型主要是指一种可见光子集,这个可见光子集包含着特定颜色域的一切颜色,常用的颜色模型有RGB、XYZ、YIQ、HIS以及GMY等。通过具体的分析和研究发现,HIS颜色模型更加适用于基于机器视觉的孵化卵在线监测系统,因为该种颜色模型和人眼的颜色感觉原理非常吻合,HIS颜色模型的具体分量分别是色度、亮度以及饱和度,而人眼也是通过色度、亮度以及饱和度来对颜色进行分辨的。
4 基于机器视觉的孵化卵在线监测的软件系统
4.1 人工神经网络
在基于机器视觉的孵化卵在线监测系统中,人工神经网络的基本思想是重要的组成部分。人工神经网络主要是指利用工程技术方法对人脑神经网络的基本结构和基本功能进行模拟,从而使机器能够具有像人体一样感知、学习和推理的功能。人工神经网络在图像的识别领域具有十分突出的特点,它通过神经网络的分布方式来存储相关的信息,因而大大提高了整个网络的容错性,从而有效解决了图像因噪声损失的问题。除此之外,神经网络还具有自主学习的特点,因而使得传统图像识别所带来的制约条件得到改善。
人工神经网络在基于机器视觉的孵化卵在线监测的软件系统的应用,使得基于机器视觉的孵化卵在线监测的软件系统的性能得到极大的优化,提高了种蛋成活率的检测效率和检测质量。人工神经网络的具体分类过程为图像信息、图像交换和特征提取、特征数字规格化、神经网络分类器、具体分类判决图像分类结果。
4.2 基于机器视觉的孵化卵在线监测的软件系统结构
基于机器视觉的孵化卵在线监系统的主要目的是应该选择最佳的特征子集来提高种蛋成活的是设别率。通常情况下而言,基于机器视觉的孵化卵在线监系统的整个处理过程分为图像预处理、特征提取和模式识别与理解等三个重要的组成部分,其软件系统的主要结构能够对整个处理过程中提供充分的支持。基于机器视觉的孵化卵在线监测的软件系统的具体结构主要由采集种蛋内部图像、图像预处理和特征提取、颜色特征选择、BP神经网络及特征训练以及利用具体的训练结果进行成活性检测等组成。
基于机器视觉的孵化卵在线监测的软件系统在特定的环境下对图像进行采集,并在此基础上对图像进行必要的预处理,同时对有效的区域进行提取。然后,孵化卵在线监测的软件系统能够通过一定的方式和办法对颜色特征进行有效提取,并根据提取到的颜色特征的信息进行相应的训练,从而进一步对图像进行识别。这样能够有效提高种蛋成活率的检测效率和检测质量。
5 结 语
综上所述,孵化卵的成活率除了取决于种蛋自身的质量和品质之外,还与孵化卵所处的具体环境有非常密切的关联,因此,在种蛋的具体孵化过程中加强对孵化卵的在线监测对于提高孵化卵的成活率具有十分重大的意义。然而人工的检测方法主要是通过人体感官以及光照等进行检测,这种检测方法所需要的劳动强度非常大,而且极易受到情绪、疲劳程度、工作条件以及色彩分辨力等人为主观因素的影响,使得人工检测的准确率大大降低,因此我们要加强基于机器视觉的孵化卵在线监测系统研究。本文对机器视觉进行了概述,然后在此基础上对基于机器视觉的孵化卵在线监测的硬件系统、软件系统以及图像处理进行了深入的分析和研究,明确了基于机器视觉的孵化卵在线监测系统的基本工作原理和操作步骤。科学技术的进步是没有止境的,我们不能满足于孵化卵在线监测系统的现状,而应在此基础上进一步加强研究和创新,使孵化卵在线监测系统得到进一步的突破和发展,不断提高种蛋的成活率的检测效率和检测质量。
参考文献:
[1] 袁清珂,张振亚,吴晖辉,等.基于机器视觉系统的自动检测系统设计与开发[J].组合机床与自动化加工技术,2014,(11).
[2] 马贺贺,齐亮,张茂松,等.机器视觉技术在生产制造智能化进程中的发展应用[J].装备机械,2014,(3).
[3] 廖强,曾建风,陈里里.高速便携式视觉信号采集系统的设计与实现[J].世界科技研究与发展,2013,(3).
作 者:仇昕 徐尧军 Qiu Xin Xu Raojun 作者单位:仇昕,Qiu Xin(重庆轨道交通总公司,重庆,400042)
徐尧军,Xu Raojun(中铁电气化局集团城铁公司,北京,100036)
随着图像处理技术的发展, 将图像处理技术与自动化生产线中的分拣系统结合, 用CCD代替各种繁杂的传感器组合, 应用机器视觉技术, 具有检测速度快、可靠性高、实时性好等特点, 可以实现无接触、无损检测。本文提出了一种基于机器视觉的工件分拣系统, 该系统把机器视觉技术应用到工件分拣问题中, 研究了相关图像处理算法, 采用轮廓外接形心计算图像中心位置和角度, 解决了工件识别问题以及定位工件中心, 并采用模式识别的的方法快速高效地分拣出不同类别的产品。
1 基于机器示教的工件自动识别算法
图1所示为福特汽车门铰链生产线。
如图2, 工件识别算法分为两部分:第一部分是机器示教部分, 通过标准模板CCD成像, 建立待分拣物的模板并存储在计算机硬盘中;第二部分是待测物识别部分, 通过CCD成像后与标准模板进行比较, 此成像图暂时存放在计算机内存中。用相似度来判断是否为同类零件:如果是, 则分拣至指定通道;如果否, 则继续循环判断。
检测流程如图3所示。
2 关键算法
2.1 图像预处理
图像的预处理主要是为了提高图像数据中的信噪比, 进行背景噪声的抑制, 以减轻后续图像处理压力。图像的噪声对后续成像零件的识别带来误差。本课题采用加权平均滤波方法进行图像去噪。
加权平均滤波算法是能保留图像边缘细节的局部平滑算法。考虑的重点是领域的大小、形状和方向的选择, 各点权值系数的选取等。这类对各点选取不同权值的方法称为加权平均法。
处于领域中心待处理的像素点P (i, j) 称为中心像素点。选取权值的一般原则如下:
1) 中心像素点P (i, j) 赋予较大的权值, 其他像素点的权值均较小。
2) 按照与中心像素点P (i, j) 的距离确定权值。距离较近的像素点赋予较大的权值, 距离较远则赋予权值较小。
3) 按照与中心像素点P (i, j) 的灰度值接近程度确定权值。灰度值越接近的像素点, 赋予较大的权值, 反之, 赋予的权值较小。
下面的改进算法以灰度梯度的倒数作为权值, 简称这种加权平均梯度倒数加权平均算法。以3×3领域为滤波窗口。在领域内的灰度矩阵为
相应的灰度梯度的倒数作为权值的矩阵为
其中:
注意:式 (3) 和式 (4) 在计算w (i+k, j+l) 和d (i+k, j+l) 中的条件 (k, l) ≠ (0, 0) , 即k与l不能同时等于0。最后, 加权平均输出是
2.2 目标物的位姿检测
由于待测物体的成像位置和偏转角度与模板物有偏差, 必须检测出这个位姿偏差, 然后应用仿射变换使两个图像在同一坐标系下进行比较。针对机械零件大批量测量时图像精确配准的难题, 本文提出了一种基于机械零件图像边缘轮廓形心与最小外接矩形的图像配准方法。该方法通过确定图像边缘轮廓的形心位置, 以及最小外接矩形特殊边与坐标轴的夹角, 得到图像的仿射变换参数, 从而完成机械零件图像的配准工作。实验表明, 该方法用于机械零件图像配准可达到像素级精度要求, 并具有速度快的特点。
确定各图像中每个边缘像素点的图像坐标位置, 连续截面形心坐标的计算公式为:
其中, XC、YC为形心坐标。
确定零件图像边缘的极值点, 并以此为定点, 建立包容零件轮廓的最小外接矩形。选择其最短边, 计算其与x轴方向的夹角 (逆时针为正方向) , 根据式△θ=θ2-θ1得出截面图像之间的夹角, 并将其作为旋转基本角, 如图4所示。图4中, △θ=θ2-θ1=90°-60°=30°。
针对不同图像的形心位置坐标, 计算出零件截面图像之间的水平与垂直方向的偏移量:
根据式 (7) , 平移图像, 使其每幅零件图像形心与图片中心重合。
2.3 图像仿射变换和相似度判断
由于工件放置的偏差, 待测零件的形心坐标与数据库中标准零件的形心坐标不可能一致, 故须通过图像的位姿变换、旋转及平移使两图像重合。本文采用仿射变换进行图像变换。仿射变换可分解为线性变换和平移变换, 二维仿射变换公式如下:
式中:tx和ty为平移量;θ为旋转角度;s是缩放尺度, 此处s=1。
经过仿射变换后的零件与标准模板零件可进行逐像像素相减并求和后比较, 用相似面积除以模板零件的最大面积作为相似度。如相似度大于某阈值, 则认为该待测件与模板零件是同一类零件, 否则认为不是同一类零件。
其中, sim为零件相似度, area为零件的相似面积, areamax为模板零件的最大面积。
3 实验验证
3.1 建立模板零件图像
工作现场需要识别两个零件, 一是钣金件A, 另一个是六角螺母B。现分别对其成像并建立模板, 如图5所示。本实验成像大小为1200×1024。
3.2 流水线待测物成像
工作流水线上, 由于加工完后零件摆放位姿的随意性, 实际成像图如图6所示。
3.3 算法验证
首先对待测物进行加权平均滤波算法, 然后利用上述算法对零件进行形心和旋转角度检测, 实际结果如表1。
基于以上检测数据, 可以计算两个零件的位置偏差 (delt X, Delt Y) 和旋转角度delt Theta, 分别利用仿射变换和标准模板进行比较, 得到误差数据如表2所示。
设置相似度阈值为0.8, 显然系统成功地判别出了两类不同的零件, 自动分拣系统可以根据相似度判别不同的零件, 为后续零件分流作依据。
4 工件分拣运动的实现
由图像处理算法生成的工件形心位置, 为机械手抓取提供了坐标点。上位机将处理得到的坐标点作为运动控制参数发送给运动控制卡, 运动控制卡内事先编写好的底层控制程序中含有接收位置参数的变量, 当变量接收到参数后会发出驱动脉冲来控制伺服电机, 使Z轴精确定位于工件上方, 随后控制Z轴下降并由气动夹爪抓取工件, 从而实现了目标抓取功能。
5 结论
本文设计了一种基于机器视觉技术的工件自动分拣系统, 以常用紧固件六角螺母为检测对象, 用二值化进行图像分割, 凯西算子提取图像边缘。采用轮廓外接形心计算图像中心位置和角度, 使待测螺母与模板形心重合。最后通过相似度来判断是否合格。此系统是一个开放性平台, 对后续开发多种用途的系统是一种有益的尝试。可进一步应用在复杂零件尺寸、形状误差的检测中。
参考文献
[1]刘振宇, 赵彬, 邹风山.机器视觉技术在工业分拣中的应用[J].计算机应用与软件, 2012 (12) :88.
[2]杜荣.基于机器视觉的工业机器人分拣系统的研究[D].南京:南京林业大学, 2009.
[3]刘凌云.基于3D标靶的摄像机标定方法的改进[J].湖北汽车工业学院学报, 2008, 22 (1) :33-36.
[4]孙燮华.数字图形处理Visual C#.NET[M].北京:机械工业出版社, 2010.
[5]孙燮华.数字图像处理-原理与算法[M].北京:机械工业出版社, 2010.
[6]陈栋梁, 李蓓智, 周虎.基于零件轮廓形心与最小外接矩形的图像配准方法[J].制造业自动化, 2012 (8) :48-51.
[7]韩九强.机器视觉技术及应用[M].北京:高等教育出版社, 2009.
【机器视觉系统整合解决方案研究】推荐阅读:
英汉视觉动词概念隐喻的对比研究07-24
智能机器人研究进展07-22
世界视觉日09-26
生活视觉简介11-19
视觉传达简历范文09-25
视觉传达设计的发展06-08
视觉传达本科专业介绍11-01
视觉传达设计教学改革05-31
视觉传达毕业论文选题09-15
视觉传达设计教学计划10-06