thinkphp5 简单使用JWT。

JSON Web Token(JWT)跨域认证 进入官网(https://jwt.io): 1,选择PHP 2,选择一个收藏量最多的使用composer安装 3,下载完成文件会在vendor目录 4,新建一个控制器:引入类 5,设置要加密的参数(参数为可选,也可以自己增加): iss (issuer):签发人 exp (expiration time):过期时间 sub (subject):主题 aud (audience):受众 nbf (Not Before):生效时间 iat (Issued At):签发时间 jti (JWT ID):编号 6,实例化JWT类,调用encode方法加密成 Header.Payload.Signature 数据。 Header(头部) Payload(负载) Signature(签名) 7,解密decode方法, 参考:http://www.ruanyifeng.com/blog/2018/07/json_web_token-tutorial.html

纯匿名交易!Grin是如何实现的?

我们知道,匿名币里大名鼎鼎的是门罗币,但是我们今天介绍另外一个项目,这个项目就是使用Mimblewimble协议的Grin。 匿名币主要用于暗网等见不得光的地方,所以这种币在国内活不过3分钟,每时每刻都要拉出去枪毙5分钟。 因而今天主要谈Grin的技术实现,我们不倡议任何币种,也不提供任何投资建议。仅仅从技术层面去了解区块链世界里的不同项目。 交易结构的设计显示了MimbleWimble的一个关键原则: 1 强大的隐私性 2 保密性 MimbleWimble的交易确认依赖于零和验证:输出总和减去输入总是等于零,证明交易没有凭空创造新的资金,而且不会显示实际金额。 在MimbleWimble中,证明一个所有者拥有这些私钥并不是通过直接签署交易来实现的。下面介绍账户余额、所有权、变更和证明,并借此说明上面的这两个基本属性是如何得以实现的。等式平衡基于上面描述的ECC的属性,可以在交易数据中掩盖实际交易值。如果 v 是交易输入或输出的值,而 H 是椭圆曲线,我们可以简单地在交易中嵌入v * H而不是 v。 这是因为使用ECC操作,我们仍然可以验证交易的输出总和等于输入总和: v1 + v2 = v3 => v1H + v2H = v3*H 验证每笔交易的这个属性允许协议验证交易不会凭空创造出金钱,而无需了解实际的交易值是多少。但是,可用数值是有限的,攻击者可以尝试每一个可能的数值来猜测你的交易值。 另外,知道v1(来自 上面的交易示例)和v1 * H,就等于在整个区块链中揭露了等于v1的交易。 出于这些原因,我们引入了第二个椭圆曲线 G(实际上 G 只是与 H 相同的曲线组上的另一个发生器点)和私钥 r 用作致盲因子。交易中的输入或输出值可以表示为: rG + vH 其中:r 是一个私钥,用作致盲因子, G 是一个椭圆曲线点,他们的乘积 r*G 是 r 在 G 上的公钥。v 是输入或输出值,H 是另一个椭圆曲线点。无论是 v 还是 r 都不能被推导出来,从而利用了椭圆曲线密码学的基本属性。 r * G + v * H被称为 Pedersen Commitment 。作为一个例子,我们假设我们想用两个输入和一个输出创建一笔交易。 我们有(忽略费用):vi1 和 vi2 作为输入值vo3 作为输出值满足:

【社工&信息捕获】有个姑娘网恋奔现发现自己被人卖了,跟她见面的是另一个人

大家好,我是凌云 十多天前,我接到一条线索,原本以为是一件很普通的事,当我追查的时候发现和暗网有牵连,自己不但暴露了还被对方反查到真实身份。 这件事得从今年的2月10日说起,那天我和平常一样登公众号后台看私信内容。 有个叫李琴的姑娘连续几天都在给我发信息——在网上谈了一男朋友,聊了一个多月他来见她,发现不是同一个人,还差点被下药。 我跟李琴说修图太过分也很正常啊,怎么不是一个人了? 她说不是,刚见面的时候他说话带着一股小沈阳的味道,在网上他给我发语音普通话很正,没带口音的。 我当时就留了个心眼,以前他跟我说过对西瓜过敏的,我那天故意给他点了杯西瓜汁,他喝了啥事都没有。 然后他就跟我说让我去酒店陪他放行李,当时我就不敢跟他去了,我跟他说我去个厕所先,然后给我闺蜜发了条信息告诉她现在的情况,在回来的时候我看到他拿着一瓶东西倒我杯子里。 幸好当时我闺蜜打电话问我啥情况,我就借着这个机会说我还有个朋友要来,我出去门口接她一下,就偷偷跑了。 我琢磨了一会之后,给李琴留了个微信,让她微信上详细聊。 很快她加上了我,我问了李琴一些能证明身份的话,以及让她整理一份事件经过、把对方的所有信息发到我邮箱上 那天晚上,李琴和我说:“他向我坦白了,说把我的信息卖给了另一个男的。” 听到这,心里一阵无语,这种东西也能卖的吗? 我的打算是从卖李琴信息的人开始调查,如果有机会的话还要揪出跟她见面的人。 只要对方有把柄落我手上,自然就能问到我需要的信息。 而李琴网恋对象的信息,我觉得参杂了很多水分,毕竟刚开始就没打算跟她在一起的,自然给的是假信息,所以我现在要核验哪些信息是真的,哪些是假的。 0x0x 核验信息 我托在通讯公司上班的朋友查他给李琴的手机号,但我朋友说:“这个手机机主姓名叫陈杰” 而跟李琴网恋的人叫黄文民,根本不符合,所以他给李琴的姓名是假的。 后来当我尝试追查微信的时候发现,该微信是从16年就已经注册了 从一些蜘丝马迹来看,这个号码原来主人应该是中年人使用的 不然历史头像不会用一盆花作为头像,所以能推断微信号是从号贩子那买来的。 但很奇怪的是——我追查他留给李琴的QQ号的时候,发现这是一个常用号码,QQ等级和使用时间都是很正常的,并不像他买的微信号那样透露着不对劲。 难道他会给李琴自己私人的QQ吗?立马去问她这QQ号码是怎么来的 李琴说是在快见面之前的时候,当时让他陪我打王者,因为我玩的是QQ区的,他玩的是微信区的,不同区的没法一起玩,得加QQ好友才行,然后他一直让我等等,我生气之后他马上给了我一个QQ。 王者荣耀一共有两大分区,分别是QQ和微信,而它们是不互通的。 我问李琴:“那他的王者是小号吗” 不是,他QQ区都打上钻石了 琢磨了一会之后得出一个大胆的猜测——当时李琴催的急,没时间买新的QQ或者是新号打王者会有新手指引,我就特烦这个指引,站在我的角度去思考,我认为,这个QQ就是他的私人号码 大胆猜测,小心求证,我去QQ安全中心选择忘记密码,通过密保手机验证看到的这个QQ绑定的手机号是152开头的,而他给李琴的手机号是130开头的,这个QQ还真有可能就是他的私人号码 综合以上的简单分析,我决定把调查方向转到他QQ上 0x02猜解手机号 用这个QQ号的邮箱去查了下注册了哪些帐号,我想尝试去猜解出绑定的手机号剩下的数字 搜索支付宝帐号,有个实名信息叫刘*俊的帐号,很幸运的是这个帐号绑定了手机,在忘记密码的时候选择手机号和银行卡验证拿到了最后两位数的号码。 想猜解手机号,必须要了解手机号的格式(前三位+四位归属地+随机位) 我现在还不知道他到底是哪个地区的,他跟李琴说是湖北人,我肯定是不信的,还得自己查。 检索他这个QQ号在网上遗留的痕迹时,我发现了他的贴吧帐号,没发过帖子,头像也是默认的,但在他关注里看到关注了亳州这个贴吧。 经验告诉我,他百分之九十五是安徽毫州人,那么现在能确认地区了,剩下就要猜解出剩下的五位手机号了。 手机号的结构是前三位+四位归属地+随机位,我在网上找了一个全国号码生成器查找安徽移动所有的开头为152的号码,一共有400个 然后把数据导入到通讯录里一个个筛选QQ的通讯录好友,和头像符合的QQ。 花了挺长一段时间,终于找到了和他QQ头像昵称符合的了。 第一轮调查后我知道了他的手机号,姓名和地区,再次整理并且筛选假信息,得到下图。 目前知道了他叫刘X俊,152的手机号和35开头的QQ都是他的私人号码。 0x03钓鱼攻击 琢磨了一会之后,着手搭建了一个钓鱼网站,我的计划是利用钓鱼网站去尝试拿到他的QQ号,希望能在他QQ里捕捉到买家的一些线索。 钓鱼网站搭建完之后去某个短信验证平台上给他手机发了一条106开头的短信,说他的QQ被人多次申诉,现在已经限制部分功能,要想解除得登录下面的链接。 点开短信的链接会跳转到我搭建的虚假页面中,提示他要登录QQ才可以操作。当他输入QQ帐号和密码之后会提示密码错误,其实这个设置还真有点贱,哈哈哈。 很快在钓鱼网站后台里看到了他的QQ帐号和密码 但是在登录他QQ的时候发现有设备锁,用以前的漏洞无法绕过,这时陷入了困境,点了一根烟开始思考该用哪个方法去绕过设备锁。 0x04入侵邮箱 很明显我当时钻了牛角尖,一拍大腿,我可以登录QQ邮箱啊,为了避免再出现异地登录的情况,这次我用代理了安徽的IP,这次很顺畅进去了他的邮箱。 我在他邮箱里看到最近三个月频繁给一个名:kon***@sina.com的新浪邮箱发邮件,而每封邮件里都有一个附件,打开附件的Word文档全是某个女生的个人信息,包括照片,姓名,身份,毕业学校,兴趣爱好,父母家人等非常详细的信息。 我还翻到了他出售李琴个人信息的邮件,标题非常龌蹉! 随后我尝试撞库攻击他的其他社交帐号,再次追查他手机号绑定了哪些社交帐号 我查到他在18年注册了OPPO的帐号,用刚刚钓鱼来的QQ密码试着登陆一下,还真是同一个密码! 突然想起OPPO手机有个查找手机功能,这是手机丢失后提供给用户找回手机功能的。 而我利用这个功能知道了他家的大概区域 安徽毫州拓佳欢乐广场附近 我并没有停止撞库攻击,尝试登陆他的12306帐号,嚯!没想到这厮连那么重要的网站都用同一个密码,赶紧点开个人信息查看。 那么目前已经知道他的真实身份,跟李琴网恋并且倒卖她信息的人叫刘*俊,26岁,住在安徽亳州某个广场附近,年龄在23岁 现在买家的线索也浮出了水面,我打算顺着刘X俊这条线索调查跟李琴见面的人是谁。 0x05 买家浮出水面 我保留了他贩卖信息的证据后,选择跟他聊一聊,换了张不记名的电话卡之后,给他打了个电话,但一直不肯接,要么就是直接挂断了,打了五六个我给他编辑了条短信。 我跟他说已经掌握了他犯罪的证据,问几个问题,老实说我就放过你,不然就送你进去。 我问他这些信息都是从哪来的那么详细,他说:“都是跟她们网恋慢慢钓出来的”。 我顺着问:“你把这些信息卖给了谁,你跟他从哪里认识的?“ 暗网的一个论坛上,他当时发了一个帖子,收网恋对象的信息。

信息泄露到底有多严重

信息泄露对于互联网来说,似乎是一个亘古不变的话题。从“参与”美国大选的“邮件门”事件和震惊国际的“棱镜门”计划,到万豪酒店5亿客户数据泄露,雅虎邮箱10亿数据泄露,再到暗网的14亿邮箱明文密码泄露,信息泄露似乎无处不在,我国网民同样深受其害。 被曝光的泄露事件已如此严重,还有更多信息泄露事件可能并未浮出水面。个人信息、涉密数据不仅涉及隐私,也是网络的重要资源,尤其是涉密数据涉及国防、国家、商业、经济、医疗、金融等多个领域的安全,更应注意数据的安全防护。 据推测,目前我国网络非法从业人员已超150万人,相关产业市场规模已达到千亿元级别,已经形成了一条信息需求、盗取、交易等一条完整的黑色链条。 “保护数据安全,就用一把大锁把所有存储设备都锁起来,拔掉所有链接。”这是一种倒退的极端思想,企业需要发展、科技需要进步,就必然存在大量的数据进行高速传输。 电子邮箱就是我们可靠的传输工具,有哪些优势呢? 电子邮件做为常用的通信工具,具有较高的法律效力。作为一种书面正式性的沟通方式,对于工作中的交流,一定要留下记录,这些记录需要“可搜索、不可否认”,所以企业内部的沟通,邮件服务还是被认为“正式”的,比即时通信更“可靠”。 同时电子邮件效率更高。即时通信工具起源于点对点,信息记录缺乏连贯性,比如,你跟客户谈事情,说了一半要其他人协助,就得建群把人拉进来多人会话,还需要把事情重新说一次,再等待确认。而邮件则十分简单,直接转发、抄送即可。 所以较为重要的事件或文件传达使用邮件传输,但在数据泄露威胁持续增长的背景下,电子邮件就成为了网络攻击的主要目标,邮箱用户应着重提高使用邮件的安全性,有必要对邮件进行加密发送。

低照度图像增强之卷积神经网络RetinexNet

转载请标注:https://blog.csdn.net/weixin_38285131 目录 一丶Retinex理论——图像分解 二丶RetinexNet卷积神经网络 1.训练数据说明 2.分解网络——Decom 3.增强网络——Relight 4.结果展示 低照度图像增强一直是计算机视觉领域的一个热门研究方向,之前传统的基于Retinex理论的研究方法已经出现很多,比如:MSR,MSRCR,MSRCP等,这些方法在低照度图像增强方面效果有明显提升,上一篇博客主要介绍了基于Retinex理论的集中图像增强方法,并给出了python代码。博客链接如下: [图像增强Retinex算法之python实现——MSR,MSRCR,MSRCP,autoMSRCR](https://blog.csdn.net/weixin_38285131/article/details/88097771) 但是基于传统的图像图像处理方法处理每一张图像会比较耗时,一副4000*8000的图像需要耗时十几分钟,这样就没法批量处理低照度图像,因此本文介绍一种基于Retinex理论的卷积神经网络模型——RetinexNet,该模型是北大的童鞋在2018年发表在BMVC上的,论文名字是——Deep Retinex Decomposition for Low-Light Enhancement [论文PDF] RetinexNet项目介绍,数据集,PPT等 一丶Retinex理论——图像分解 这个理论在上一篇博客中已有介绍,任何一幅图像可以分解为光照图像(illumination)和反射图像(reflectance),反射图像是物体的本身性质决定的即为不变的部分,光照图则受外界影响比较到,可以去除光照影响或者对光照图像进行校正,则可以达到增强图像的目的。如下图所示: 左边即为低照度图像,中间即为光照图,右边即为反射图像,原图S(x,y)=I(x,y)*R(x,y),将图像变换到log域则变成了相减,然后将光照图像减去即可达到增强图像的目的。 二丶RetinexNet卷积神经网络 摘抄自论文摘要: Retinex理论是一种有效的微光图像增强工具。假设观测图像可以分解为反射图像和照度图像。大多数现有的基于Retinex卢纶的方法都为这种高度不适定的分解精心设计了手工约束和参数,当应用于各种场景时,这些约束和参数可能会受到模型容量的限制。Retinex包括一个用于分解的分解网络(Decom)和一个用于照明调节(Relight)的增强网络。在分解网络的训练过程中,没有分解反射和光照的地面真值。该网络的学习只有关键的约束条件,包括低/正常光图像共享的一致反射率,以及光照的平滑度。在分解的基础上,利用增强网络增强网对光照进行后续的亮度增强,联合去噪对反射率进行去噪操作。视网膜网是端到端可训练的,学习分解的性质有利于亮度的调节。 理论整体路线即为下图所示: 输入:低照度图像 分解网络(Decom):对图像进行分解 增强网络(Relight):对图像进行增强和调整 输出:校正之后的图像 1.训练数据说明 数据主要是利用单反相机不同的光圈值和感光度拍摄同一个场景,作为图像对进行训练,也就是说同一场景拍摄一个低照度图像,然后在拍摄一个正常图像进行训练,具体数据如下图所示: 作图为正常拍摄图像,右图为低照度图像,大概拍摄了500张图像对作为训练数据 2.分解网络——Decom 文中的分解网络应该是一个五层的卷积神经网络,代码中是利用relu函数进行激活,没有什么特别的处理,具体结构如下: 可以看到将图像对中的低照度图像和正常图像作为输入数据送入卷积神经网络进行分解,最后得到光照图像和反射图像,根据Retinex理论反射图像基本接近,但是两者光照图像相差很大,这样把每一张训练图像进行分解,然后再送入后面的增强网络进行训练。 3.增强网络——Relight 增强网络,我看代码应该是一个九层的卷积神经网络,利用relu进行激活,中间还进行最邻近差值的resize操作,具体如下图: 对刚才分解的反射图像进行去噪音操作,他中间用了平滑,但是我觉得用了平滑之后降低了图像本身的锐度,图像变得模糊,个人觉得这一步还应该做一下增强处理,回头看看能不能修改一下这个中间处理操作。应该可以用拉普拉斯进行一下图像恢复吧,我觉得这一步降低图像锐度不太好,重建图像稍显模糊。 4.结果展示 中间即为校正之后的,右边为正常光照图像,虽然和正常图像比不了,但是已经很不错了, 最后与其他算法做了一些对比工作,感觉各有千秋吧,不过都有一定的亮度提升,还是很值得研究一哈的 做一下改进。 下一步,我准备用这个神经网络训练一下自己的数据,然后测试一下增强效果。 数据集百度网盘地址 github地址 转载请注明地址:https://blog.csdn.net/weixin_38285131

Unity WebGL 项目, 屏幕自适应

https://www.jianshu.com/p/cb3189cce7e8 Unity WebGL 项目, 屏幕自适应 tackor 关注 2018.04.10 17:27 字数 297 阅读 1278评论 0喜欢 2 Unity WebGL 项目, 屏幕自适应 Unity 2017.4.0f1 2018.4.10 Snip20180410_8.png 如图所示, 使用火狐浏览器打开 Unity 编译的 Webgl 工程, 发现Unity没有做屏幕适配(我最初的尺寸是(375×1334). 在网上寻找了许久才找到 比较有用的文章: http://www.manew.com/thread-113162-1-1.html 虽然这篇文章不是十分符合我的需求, 但是它让我了解了 webgl 项目中这些文件之间的关系. 最好根据自己的一点点html的知识,自己总结如下 index.html Unity WebGL Player | DMJ DMJ style.css .webgl-content * {border: 0; margin: 0; padding: 0} /*添加 width: 100%; height: 100%;*/ .webgl-content {position: absolute; top: 50%; left: 50%; width: 100%; height: 100%; -webkit-transform: translate(-50%, -50%); transform: translate(-50%, -50%);} .

python列表转换为矩阵

#创建列表 >>> l=[] //然后用列表的insert函数将系数项插入到列表中去,最后将列表转换为矩阵 insert(“插入位置”,插入的内容对象) >>> l.insert(0,[9,52,381]) >>> l [[9, 52, 381]] >>> l.insert(1,[52,381,3017]) >>> l [[9, 52, 381], [52, 381, 3017]] >>> l.insert(2,[381,3017,25317]) >>> l [[9, 52, 381], [52, 381, 3017], [381, 3017, 25317]] >>> a=np.mat(l)#这里将列表转换为矩阵 >>> a matrix([[ 9, 52, 381], [ 52, 381, 3017], [ 381, 3017, 25317]]) >>> l=[] >>> l.insert(0,[32]) >>> l.insert(1,[147]) >>> l.insert(2,[1025]) >>> l [[32], [147], [1025]] >>> b=np.mat(l)#将列表转换为矩阵 >>> b matrix([[ 32],

比特币背后的数据秘密,币价涨跌规律暗藏玄机

币圈历经7个月的寒冬之后,比特币价格在今年2月首次出现连续上涨,涨幅超过11%,一度突破4000美元。 近期,据Gikee.com链上数据监测显示:今年2月的交易量也是自去年3月以来的最高月度交易量,BTC交易量超过2000亿美元,ETH交易量超过1000亿美元。 BTC 由于比特币在2月中下旬突破4000美元,交易量环比增长34%,这是BTC交易量是一年内的最高,BTC交易在一个月内交易量近2063.7亿美元。 ETH 以太坊的交易量也达到了一年来的高位,在2月份,以太坊交易了价值1044.6亿美元的以太坊,ETH交易环比增长34.40%。 EOS 在2月份,EOS交易量为332.2亿美元,交易量增长54.75%,连续第5个月成为交易量第4的加密货币,是自2018年5月以来EOS交易量最高的月份。 LTC 莱特币在2月份的交易量排名第5,约有328.5亿美元的交易量,交易量环比增长93.58%,这是自2018年第一季度以来交易量最高的月份。 2月比特币价格飙升11%鼓舞了市场情绪,比特币链上交易量和交易所总交易量都达到了7个月以来的高位,但它还没有真正走出熊市困境,市场触底在即,投资者在等待市场下一次大幅调整。 目前,整个加密货币市场市值徘徊在1290亿美元左右,交易量开始略有减少,过去24小时内交易量为249亿美元,市场持续横盘,也许下一轮大幅调整马上要来了。 今日,据Gikee.com排行榜统计显示,目前交易量TOP 3是USDT、BTC、ETH。 3月6日市值TOP 10币种 而在今年,加密货币可能会触及市场行情的底部,并且今年大部分时间比特币价格可能徘徊在3000到5000美元之间。 也许直到2020年比特币产量减半的时候,我们才会迎来下一轮真正的牛市。

自制AI图像搜索引擎[笔记]

一些资料: 谷歌搜索关键字:Deep learning web image search engine github pratheeksh/Deep-Image-Search-Engine https://github.com/pratheeksh/Deep-Image-Search-Engine 来自于课程:NYU Courant课程 https://cs.nyu.edu/courses/spring17/CSCI-GA.3033-006/ https://github.com/sethuiyer/Image-to-Image-search https://github.com/matsui528/sis https://github.com/sVujke/img_classification_deep_learning https://github.com/paucarre/tiefvision 今天看到一个书本推送,挺有意思,图搜 就是以图搜图 《自制AI图像搜索引擎》明恒毅 著 图像搜索引擎有两种实现方式—基于图像上下文文本特征的方式和基于图像视觉内容特征的方式。本书所指的图像搜索引擎是基于内容特征的图像检索,也就是通常所说的“以图搜图”来检索相似图片。本书主要讲解了搜索引擎技术的发展脉络、文本搜索引擎的基本原理和搜索引擎的一般结构,详细讲述了图像搜索引擎各主要组成部分的原理和实现,并构建了一个基于深度学习的Web图像搜索引擎。 第 1章 从文本搜索到图像搜索 1 1.1 文本搜索引擎的发展 1 1.2 文本搜索引擎的结构与实现 2 1.2.1 文本预处理 3 1.2.2 建立索引 5 1.2.3 对索引进行搜索 7 1.3 搜索引擎的一般结构 10 1.4 从文本到图像 10 1.5 现有图像搜索引擎介绍 12 1.5.1 Google图像搜索引擎 12 1.5.2 百度图像搜索引擎 13 1.5.3 TinEye图像搜索引擎 14 1.5.4 淘宝图像搜索引擎 15 1.6 本章小结 16 第 2章 传统图像特征提取 17 2.1 人类怎样获取和理解一幅图像 17 2.2 计算机怎样获取和表示一幅图像 18 2.2.1 采样 18 2.2.2 量化 19 2.2.3 数字图像的存储 19 2.2.4 常用的位图格式 20 2.2.5 色彩空间 20 2.2.6 图像基本操作 21 2.3 图像特征的分类 29 2.4 全局特征 30 2.4.1 颜色特征 30 2.4.2 纹理特征 41 2.4.3 形状特征 67 2.5 局部特征 82 2.5.1 SIFT描述符 82 2.5.2 SURF描述符 86 2.6 本章小结 88 第3章 深度学习图像特征提取 89 3.1 深度学习 89 3.1.1 神经网络的发展 89 3.1.2 深度神经网络的突破 92 3.1.3 主要的深度神经网络模型 95 3.2 深度学习应用框架 97 3.2.1 TensorFlow 97 3.2.2 Torch 98 3.2.3 Caffe 98 3.2.4 Theano 98 3.2.5 Keras 99 3.2.6 DeepLearning4J 99 3.3 卷积神经网络 99 3.3.1 卷积 99 3.3.2 卷积神经网络概述 103 3.3.3 经典卷积神经网络结构 110 3.3.4 使用卷积神经网络提取图像特征 130 3.3.5 使用迁移学习和微调技术进一步提升提取特征的精度 134 3.4 本章小结 141 第4章 图像特征索引与检索 142 4.1 图像特征降维 142 4.1.1 主成分分析算法降维 142 4.1.2 深度自动编码器降维 150 4.2 图像特征标准化 153 4.2.1 离差标准化 153 4.2.2 标准差标准化 153 4.3 图像特征相似度的度量 154 4.3.1 欧氏距离 154 4.3.2 曼哈顿距离 155 4.3.3 海明距离 155 4.3.4 余弦相似度 155 4.3.5 杰卡德相似度 156 4.4 图像特征索引与检索 157 4.4.1 从最近邻(NN)到K最近邻(KNN) 157 4.4.2 索引构建与检索 158 4.5 本章小结 173 第5章 构建一个基于深度学习的Web图像搜索引擎 174 5.1 架构分析与技术路线 174 5.1.1 架构分析 174 5.1.2 技术路线 175 5.2 程序实现 175 5.2.1 开发环境搭建 175 5.2.2 项目实现 176 5.3 优化策略 204 5.4 本章小结 205 这个书的最后,会提供一个例子,基于web+java+深度学习的图搜Demo

Labview文字识别-从训练到识别

一个简单的Labview文字识别例子,包含从训练到最终的识别,比较简单,主要是熟悉labview文字识别的整个流程。 首先需要安装视觉开发模块(NI Vision Development Module),可从官网下载,也可以直接运行安装程序勾选“图像采集和机器视觉选项” 安装完成后,不仅文字识别需要的库已经安装了,而且还安装了Vision Assistant了,接下来训练就需要用到它了。 (1)为了方便,我们就地取材,就以上一张图片为训练素材开始训练,打开Vision Assistant,导入上一张图片。 (2)选择New Character Set File (3)框选需要训练的区域,以2014为例,按下图标记孙旭顺序完成训练,最后保存为为类型为abc的文件。 (4)参考Labview提供的范例,编写程序如图所示,输入需要辨识部分区域的坐标,运行程序。 (5)辨识结果如图所示。 注:指定识别区域越小,辨识准确度越高,图中2014的位置可以通过鼠标移到2014附近,观察下方坐标的变化得到区域的坐标。 这篇文章主要是熟悉labview做文字识别从训练到实现的整个流程,目的只是入门体验,省去了中间很多对图像的处理过程,新手一枚,不对的地方可以一起相互讨论学习。 源码地址:https://download.csdn.net/download/weixin_42266753/10998480 上传了源码,想设置0积分设置不了,确实还需要源码的留邮箱吧