简介: AI图像处理技术在光伏、纺织、LCD、PCB、芯片等多个行业取得的成功,证明了图像技术的可塑性。AI图像处理技术的跨界复制与持续迭代能力将加速该技术的产品化落地,最终实现在制造业的规模化应用。
一、黎明前的至暗时刻
正泰新能源是正泰集团旗下集清洁能源开发、建设、运营、管理于一体的能源解决方案提供商。致力于光伏组件的的生产和销售,光伏电站、储能、配网售电、微电网、多能互补等综合能源的投资建设,全球累计投资建设光伏电站3500兆瓦,光伏组件产能达到2500兆瓦。
正泰新能源的发展有很强的行业代表性。一方面,光伏发电成本正快速逼近化石能源。一旦成本持平,凭借其在绿色发电上的绝对优势,光伏产业将迎来市场拐点。但现实依然很严峻。正泰新能源副总裁黄海燕女士表示,当前中国光伏产业主要有三大难局。一是利润微薄,光伏企业严重依赖国家补贴。企业市场行为受补贴政策影响巨大。二是经常成为国家间贸易壁垒的受害者。全球60%的硅料,85%的硅片以及70%的电池片都来自中国。欧洲“地板价”、美国“双反税”等地方保护政策严重影响到中国光伏企业在国际市场的竞争力。三是客户对产品品质的要求更为“苛刻”,间接增加企业的生产与运营成本。
二、单点突破
自身能力的提升才能从容应对外界市场环境的波动。正泰新能源多年来,一直是智能制造的最佳实践者。从引进先进的自动化生产线,到自行开发MES系统(生产执行系统),随着大数据、人工智能、云计算等新一代数字技术的产业化落地,正泰嗅到了新的机会。那么哪里才是属于自己的机会? 正泰新能源质检经理罗刚表示,公司在选择大数据与AI落地场景上,并不是一上来挑战高难度,而是从复杂度相对较低、数据采集难度较小、数据质量能够得到保证,且收益明显的场景入手,这样才能确保项目的成功率,起到示范作用。而对正泰来讲,电池片和组件的质量检测环节正好满足上述条件。
质检素来是生产环节中占用人工多、耗时长、且不产生直接价值,但又无法忽视的环节。在光伏行业,车间质检人员都是通过EL设备对产品进行检测, 再用肉眼寻找瑕疵判定产品等级。辨认每张EL照片一般耗时在2秒以上,遇到难以判断的图片,甚至要花上更多功夫,即低效又低质。而为了控制劳动力成本,正泰同其它多晶电池生产企业一样,不得已采用抽检方式,这就导致出现漏网之鱼,影响客户满意度。正泰新能源寄希望利用AI图像技术,由人工抽检变为机器全检,提升产品出厂合格率。
何为AI图像质检?简单地讲,就是将一块电池片放到一个与计算机相连接的摄像头下面,由计算机来识别产品是否存在缺陷。其实正泰多年前就已经利用该技术代替人力做单晶电池片的自动检测。然而多晶电池片的复杂程度远高于单晶,多晶中每个晶粒的大小和形状都各不相同,即便当前行业中最聪明的算法也难以在密密麻麻的晶粒中,准确捕捉到细小瑕疵。因此,当看到了阿里云工业大脑在协鑫集团、天合光能等光伏企业上的成功, 正泰新能源副总裁黄海燕女士毅然决定与阿里云AI专家合作,借助阿里云ET工业大脑AI图像质检技术,共同攻克多晶电池片及组件瑕疵检测这一难题。
三、工业大脑四步走
其实AI质检的思考逻辑与人类质检员相似,都是在大脑中形成对缺陷产品的记忆,并通过记忆与所检测产品的比对,判定产品缺陷。而AI的优势在于远超人类的记忆力与推算能力,且不受外界干扰,也毫无疲惫感,毫秒间便能做出判断。以下四个步骤是工业大脑的正确打开方式:
记忆植入 – 记忆是决策的依据。项目首要任务就是要为工业大脑植入记忆。正泰质检部门将过去两、三年中收集到的带有产品缺陷的5万多张图片上传到算法服务器中。图片涵盖20余种的缺陷类型,例如 隐裂、缺角、黑斑、黑点、黑线、舟印、指纹印、区域发暗、烧结不良等。
智力训练 – 大脑虽然有了记忆,但智力仍处于婴儿水平,并无判断对错的能力。因此,需要在每一张图片中,把不同缺陷类型都清晰地标注出来,再输入到云计算平台,通过深度学习与图像处理技术做算法训练。算法就好比是数学公式,相同的答案可以有多种解题思路。一个聪明的算法可以在EL设备的协助下,每天在几万张图片中,以最优的方式识别出产品缺陷、并清晰描述缺陷类别、缺陷长度、面积、形状等,同时做到实时报警。
离线测试 – 模拟环境中训练出的算法,需要在离线环境中进行测试、优化。从最初的几千张到上万张,通过向算法不断输入新的图片进行训练,并对产品缺陷做进一步精细化标注,让算法可以从容应对所有可能出现的产品缺陷。
线上实测 – 实际生产过程中的质检环境与离线环境相比更为复杂,AI算法要经过实际产线上的考验。实测中出现的新问题需要反馈到算法模型中,把算法打磨的更聪明,判断问题更全面。
最终, 经过多轮的线上实测,AI算法的识别准确度可达到97%,不仅如此,从图像拍摄到数据接收、处理,然后到数据上传MES系统做缺陷判定,再到最后MES系统下达指令给机械手臂抓取缺陷产品, 整个流程耗时不到一秒,仅为原先的一半,且检测过程无需人工参与。这一结果意味着质检效率增加了一倍的同时,还可以腾出更多人工从事更为有价值的工作。
四、新起点、新征程
AI图像质检仅仅是正泰工业大脑之旅的起点。未来,工业大脑在跨工厂、跨价值流与跨产品三个层面都将有更大的发挥空间:
1.跨工厂 – 工业大脑目前仅是在正泰杭州工厂进行试点,未来几个月,大脑将复制、推广到正泰海宁、泰国等全球各个工厂。
2.跨产品线 – 工业大脑在多晶电池片积累的know-how,正快速复制到单晶电池片与电池组件的质检环节。
3.跨价值流 – 工业大脑可以通过对产品瑕疵的分析,进一步做产品质量溯源,识别上游的问题工序,并通过关键因子识别与参数调优,对生产工艺进行改善。
五、正泰工业大脑项目的三点启示
当前,中国制造企业整体自动化、数字化与智能化水平相对初级。以点作为突破口,带动线与面的发展,是一个相对稳健的工业智能发展路径。
工业智能项目收益与风险并存。在业务场景识别上,除了考虑业务价值, 更要正确评估自身的数字化水平以及外部大数据合作伙伴的能力与最佳实践,确保项目成功率,这样才能进一步赢得管理层信任,加速工业智能的整体推进。
AI图像处理技术在光伏、纺织、LCD、PCB、芯片等多个行业取得的成功,证明了图像技术的可塑性。AI图像处理技术的跨界复制与持续迭代能力将加速该技术的产品化落地,最终实现在制造业的规模化应用。
点赞 收藏 分享 文章举报 kongpingyuansu 发布了8 篇原创文章 ·
获赞 2 ·
访问量 2644 私信 关注
知识蒸馏
Distilling the Knowledge in a Neural Network
这篇文章是2015年Hiton大神完成的一项黑科技技术,其第一次涉及了知识蒸馏(暗知识提取)的概念。可以从迁移学习和模型压缩的角度去理解这件事。
重点在于提出soft target来辅助hard target一起训练,而soft target来自于大模型的预测输出,为什么要用soft target?因为hard target包含的信息量(信息熵)很低,soft target包含的信息量比较大,拥有不同类之间关系的信息(比如同时分类驴和马的时候,尽管某张图片是马,但是soft target 不会像hard target那样只有马的index为1,其余为0,而可能是0.98和0.02)这样做的好处是,这个图像可能更像驴,而不是像汽车或者狗之类的,这样的soft概率存在于概率中,以及label之间的高低相似性都存在于soft target中,但是如果soft target是像这样的信息(0.98,0.01,0.01),就意义不大了,所以需要在softmax中增加温度参数T(这个设置在最终训练完之后的推理中是不需要的)
神经网络模型在预测最终的分类结果时,往往是通过softmax函数产生概率分布的,这里的T定义为温度参数,是一个超参数,qi是第i类的概率值大小
Loss 值为:
其中soft loss 指的是对student model 中softmax(T=20)的输出与teacher model 的softmax(T=20)的输出求loss1
hard loss 指的是对softmax(T=1)的输出与原始label求loss2
算法示意图:
如图所示,教师网络的预测输出除以温度参数T之后,再做softmax变换,可以获得软化的概率分布(软目标),数值介于0-1之间,取值分布较为缓和,T数值越大,分布越缓和,而T越小,越容易放大错误分类的概率,引入不必要的噪声,针对较困难的分类或检测任务,T通常取1,确保教师网络中正确预测的贡献。硬目标则是样本的真实标注,可以用one-hot矢量表示。total loss设计为软目标与硬目标所对应的交叉熵的加权平均,
硬目标:0或1,软目标:(0,1)取值,对比于硬目标,软目标更soft
具体过程
1.首先用较大的T 来训练模型,这时候复杂的神经网络能产生更均匀分布的软目标。
2.之后小规模的神经网络用相同的T值来学习由大规模神经网络产生的软目标,接近这个软目标从而学习到数据的结构分布特征。
3.最后在实际应用中,将T值恢复到1,让类别概率偏向正确概率。
我们可以把数据结构信息和数据看成一种混合物,分布信息通过概率分布被蒸馏分离出来。首先,T值很大,相当于用很高的温度将关键的分布信息从原有的数据中分离出来,之后在同样的温度下用新模型融合蒸馏出来的数据分布,最后回复温度,让两者充分融合。这也是Hiton将这个迁移学习的过程称为知识蒸馏的原因之一。
转:https://blog.csdn.net/ahjsd/article/details/99539978
点赞 收藏 分享 文章举报 站内首发文章 段子手实习生 发布了214 篇原创文章 ·
获赞 7 ·
访问量 8082 私信 关注
北京时间3月31日消息,DuckDuckGo搜索引擎近来发展迅猛,3个月来搜索请求以平均每天227%的速度高速增长。虽然现在它尚不能撼动Google搜索霸主地位,但谷歌亦也应该提起重视。
报道称,不少国外企业家在其个人电脑上使用的是另类的搜索引擎DuckDuckGo,而不是谷歌或者Bing。另外据ycombinator报道称,使用这个搜索引擎的人也不是一个两个。
从下面的图表中可以看出,到今年为止,DuckDuckGo每天的搜索量如同曲棍球球棍一样快速增长,平均每天搜索请求增速达227%。自去年年底到现在为止,用户数已接近150万。
这巨大的上升势头,一方面是来自去年一月推动的视觉界面设计,另一方面也是数据隐私日活动的鞭策。正是因为DuckDuckGo对数据隐私的保护,黑客甚至都集体使用它。
因此有人提出建议,谷歌应该对此感到重视。不过分析人士指出,DuckDuckGo目前对谷歌而言还不是最大的威胁,谷歌现在还没精力关注它,这对DuckDuckGo来说无异是一件好事。
就目前许多人而言,DuckDuckGo已经被定位成一个有友好隐私保护的搜索引擎。因此它不会在众多竞争中被淘汰掉,也更不用说非要和其他的搜索引擎一决高下,因为DuckDuckgo推动发展方向和战略是对的。
此外在早些访谈中,DuckDuckGo创始人Gabriel Weinberg称,目前的工作重点将是对搜索算法进行改进和加快相应速度。
据悉DuckDuckGo是一个综合性搜索引擎,它索引的搜索结果包括了Google、Bing、维基百科、亚马逊等。另外DuckDuckGo把隐私放在第一位,它不存储用户IP地址、也不记录用户信息,同时DuckDuckGo搜索结果更加实时化,Spam也更少。http://duckduckgo.com/
第一章使用颜色 l. l glshadeModel–选择平面明暗模式或光滑明暗模式 1. 2 glColor–设置当前颜色 1. 3 glColorPointer–定义颜色数组 1. 4 gllndex–设置当前颜色索引 1. 5 gllndexPointer–定义颜色索引数组 1. 6 glCOforTableEXT–为目标调色板纹理指定调色板的格式和大小 1. 7 glColorsubTableEXT–指定需要替代的目标纹理调色板的一部分 第二章 绘制几何图原及物体 2. l glVertex–指定顶点 2. 2 glVertexPointer–定义顶点数据数组 2. 3 glArrayElement–指定用来绘制顶点的数组元素 2. 4 glBegin, glEnd–限定一个或多个图原顶点的绘制 2. 5 glEdgeFlag, glEdgeFlagy–指定边界标记 2. 6 glPointsize–指定光栅化点的直径 2. 7 glLinewidth–指定光栅化直线的宽度 2. 8 glLinestipple–指定点划线 2. 9 glPolygonMode–选择多边形光栅化模式 2. 10 glFrontFace–定义正面多边形和反反面多边形 2. 11 glPolygonstipple–设置多边形点划图 2. 12 glDrawElements–从数组数据绘制图原 2. 13 glRect–绘制矩形 第三章 坐标转换 3. l glTranslate–用平移矩阵乘以当前矩阵 3.
[size=xx-large]Deep Web数据集成专刊前言[/size]
孟小峰1, 于 戈2
1(中国人民大学 信息学院,北京 100872)
2(东北大学 信息科学与工程学院,辽宁 沈阳 110004)
作者简介:
孟小峰(1964-),男,博士,中国人民大学信息学院教授,博士生导师.现为中国计算机学会理事,普及工委主任,中国计算机学会数据库专委会委员、秘书长,办公自动化专委会副主任委员,《计算机研究与发展》等期刊编委,MDM、WAIM等国际学术会议指导委员会委员,IEEE CS、ACM SIGMOD会员.曾先后在香港中文大学、香港城市大学、新加坡国立大学、法国Prism实验室访问研究.主持或参加过20多项国家科技攻关项目、国家自然科学基金、国家高技术研究发展计划(863)、信息产业部发展基金项目以及国际合作交流项目等.先后获得国家科技进步二等奖1项、电子部科技进步特等奖 1项、北京市科技进步二等奖2项,以及第7届”中创软件人才奖”、”新世纪优秀人才”、”第三届北京市高等学校名师奖”等奖项.研制开发的主要软件产品有国产数据库系统COBASE、嵌入式移动数据库系统”小金灵”、中文自然语言查询系统NChiql、并行数据库系统PBASE/1等.近5年先后在国内外学术期刊以及VLDB、SIGMOD、ICDE等重要国际会议发表论文100余篇.多次应邀担任国际会议程序主席或委员,如SIGMOD、ICDE、 ER、DASFAA、MDM等.近期主要研究领域为Web数据集成、XML数据库、移动数据管理.
于戈(1962-),男,博士,东北大学教授,博士生导师,中国计算机学会理事,数据库专业委员会副主任委员,电子政务与办公自动化专业委员会副主任委员,YOCSEF学术委员会荣誉委员,美国ACM学会和IEEE学会会员.1982年和1986年在东北大学分别获得计算机应用专业学士学位和硕士学位,1996年于日本九州大学获得计算机工学博士学位.1986年起在东北大学计算机科学与工程系任教.曾在日本九州大学、香港中文大学和香港科技大学做访问学者.研究方向涉及数据库系统、嵌入式软件、信息安全等相关领域.近年来,在国内外重要学术期刊和会议上发表论文100余篇,获得省部级自然科学奖3项、科技进步奖2项.
联系人: 孟小峰 E-mail: [email protected]
Received 2007-12-28 随着World Wide Web的飞速发展,出现了越来越多的可以在线访问的数据库,我们把这些数据库称作Web数据库.据统计,目前Web数据库的数量已经超过了45万个,在此基础上构成了Deep Web.Deep Web蕴含了大量有用的信息,其价值远远超过了仅由网页构成的Surface Web.但由于对Web数据库的访问只能通过其提供的查询接口,因此很难被一般的搜索引擎获取到.由于Deep Web的大规模性、动态性以及异质性等特点,通过手工方式远远不能在效果和效率上满足用户对信息获取的需要.为了帮助人们快速、准确地利用Deep Web中的海量信息,研究者们已经在Deep Web数据集成方面展开了研究.这逐渐成为数据库领域的一个研究热点.研究者力图提出一种通用的集成方法,可以实现对现实世界各个领域的Deep Web数据的集成,并在查询接口集成和数据抽取等方面取得实质性的进展.近几年来,已有大量的研究成果在SIGMOD、VLDB等高级别的国际会议和期刊上发表.国内对Deep Web数据集成的研究也取得了一定的成果,但与国际水平相比还有一定的距离,主要表现在研究问题和解决方法上尚缺乏突破性的成果.
为了推动Deep Web数据集成在国内的进展,本专刊关注于当前国内在该研究领域最新的基础性、前瞻性、战略性的重大理论问题和关键技术的问题,目的在于为大家展示当前该领域的研究状况和最新的研究成果,为该领域的研究者们提供一个相互学习交流、借鉴指导的机会.
本专刊得到了国内同行的广泛响应与支持,收到稿件60余篇.本专刊严格按照《软件学报》审稿流程和评审要求对稿件进行了认真评审.审稿工作由本领域从事 Deep Web数据集成的海内外专家组成的评审委员会来组织,每篇稿件均经过两位以上评审委员的认真评审.最后,经过《软件学报》编委会终审,遴选出具有代表性的研究工作9篇.这些论文涉及了Deep Web数据集成的若干关键问题,研究的内容注重理论创新与实际应用相结合,立足于国际上最新的研究和应用状况,真实反映了当前我国的Deep Web数据集成技术在重要科学领域的应用研究状况.这里,我们要再次感谢大家的关注和向本专刊投稿的各位作者.
论文”一种基于图模型的Web数据库采样方法”把Web数据库模型化为一种图结构,在这个图结构上实现对Web数据库的采样,可以增量的方式获取近似随机的样本.该方法的一个重要特点是不受查询接口中属性表现形式的局限,因此是一种通用的Web数据库采样方法.
论文”一种基于语义及统计分析的Deep Web实体识别机制” 提出了一种基于语义及统计分析的实体识别机制(SS-EIM).SS-EIM主要由文本匹配模型、语义分析模型和分组统计模型组成,采用文本粗略匹配、表象关联关系获取以及分组统计分析的三段式逐步求精策略,基于文本特征、语义信息及约束规则来不断精化识别结果.该方法可有效解决Deep Web数据集成中数据纠错、消重及整合等问题.
论文”针对模板生成网页的一种数据自动抽取方法”提出了一种新颖的模板检测方法,并利用检测出的模板自动地从实例网页中抽取数据.与其他已有方法相比,该方法能够适用于”列表页面”和”详细页面”两种类型的网页.
论文”基于属性相关度的Web数据库大小估算方法”提出了一种基于词频统计的解决方法,通过分析Web数据库查询接口中属性间的相关度来获取某个属性上一组随机样本,并以对该属性分别提交由前k位高频词形成的试探查询的方式,估算出Web数据库中记录的总数.
论文”基于本体的Deep Web数据标注”借鉴语义Web领域中深度标注的思想,将领域本体作为Web数据库遵循的全局模式,引入到查询结果语义标注过程中,并将本体与接口模式、结果模式相结合,辅以查询条件重置的策略,对查询结果进行统计及结构特征分析,确定查询结果数据的语义标记.
论文”使用分类器自动发现特定领域的深度网入口”提出了一种三分类器的框架,用于自动识别特定领域的深度网入口.查询接口得到以后,可以将它们进行集成,然后将一个统一的接口提交给用户以便于查询信息.
论文”基于知识的Deep Web集成环境变化处理的研究” 研究了Deep Web集成环境中构件的依赖关系(执行偏序依赖和知识依赖),并在此基础上提出了一种基于知识的环境变化的处理方法,包括Deep Web集成环境变化处理模型、适应Deep Web环境变化的动态体系结构和处理算法,可以对大规模Deep Web集成的进一步探索和走向应用提供参考.
论文”基于网页上下文的Deep Web数据库分类” 给出了采用分层模糊集合对给定学习实例所发现的领域和语言知识进行表示和基于这些知识对标记词归一化的算法.基于上述预处理,给出了计算Deep Web数据库的K-NN分类算法,其中对数据库之间的语义距离计算综合了数据库表之间和含有数据库表的网页的内容文本之间的语义距离.
论文”基于页面Block的Web档案采集和存储”提出了基于页面Block的采集和存储方式,并详细表述了该方法如何完成基于布局页面分区、Block主题的抽取、版本和差异的比较以及增量存储的方式.本文还实现了一个Web归档原型系统,并对所提出的算法进行了详细的测试.
这些论文集中反映了国内研究者在Deep Web数据的分析、集成和检索等方面的最新研究成果,对于促进针对下一代信息系统的创新性研究,以及鼓励数据库技术与其他相关领域的交叉研究具有重要的意义.