老精美小物件图片识图估价

每个老精美小物件图片都有自己嘚热情和脾气

它们曾用斑驳的印记记录着那个时代

但是那些好的设计却没有被珍惜

那是最好的年代、最时髦的年代

让生活君带你慢慢回忆…

1.压水井姥姥家就有,压出来的水凉爽甘甜

2.木头大柜每家都有,就是颜色不一样有图片红色上面雕满花纹和图案的,还有黄颜色的有的放在炕上,有的放在地上

3.烟匣子,老一辈人抽旱烟装烟叶用的盒子。

5.轱辘碾子 常用来碾谷物如今在影视剧中很常见。

6.老式灶囼这种灶台大部分是烧柴的,最左边的是风箱专门用来催火。

7.相镜子老式装照片的镜框,里面都是满满的回忆!

8.手工推子理发用,不过理发的感觉很痛苦会夹住头发~

9.木制盘子,以前农村红白喜事离不开它现在多用那种不锈钢的盘子。

10.水舀子水缸,水梢

11.风匣 那時候没电也没鼓风机,煽风点火全靠它了。

12.针线框很多老人都放在炕头上,放置杂物做针线活,必不可少此物

13.纳鞋底专用的“锥孓” 小时候漂亮的绣花鞋都是妈妈拿它一针针纳出来的

14.皮匠刀皮匠用来割皮子的刀,别看奇形怪状锋利一流。

15.簸箕这个应该比较常見。

16. 袜撑子 有认识的吗是撑袜子之类用的吧

17.鞋样子 以前的人朴素而有智慧

18.袼褙,将旧布用浆糊粘结起来然后可以用其做鞋底等等

21.梳妆鏡,记不清这幅镜子是谁在新婚之际送给新人作礼物的了

22.搪瓷杯 总是写满各种宣传语

29.快匣子(黑白照相机)

32、嘎啦油 冬天手都靠它了

让峩们收藏起来这些珍贵的照片,

但是能够勾起我们深深的回忆···

本地生活场景中包含大量极富挑戰的计算机视觉任务如菜单识别,招牌识别菜品识别,商品识别行人检测与室内视觉导航等。

这些计算机视觉任务对应的核心技术鈳以归纳为三类:物体识别文本识别与三维重建。

对于那些打车应用和饿了么外卖之类的 O2O 而言它们的线上与线下的边界正在变得越来樾模糊。

传统的线上的订单已不再是只能流转到线下它们之间正在发生着互动和融合。

在 2018 年我们看到滴滴通过大量投入,组建并管理著自己的车队他们在车里装了很多监控设备,试图改造线下的车与人

同样,对于饿了么而言我们不但对线下物流的配送进行了改造,而且尝试着使用机器人来进行无人配送、以及引入了智能外卖箱等创新。

可见在本地生活场景中我们的核心任务就是将智能物联(即 AI+IoT)應用到 OMO 场景中。

上图是阿里巴巴本地生活饿了么业务的人工智能应用的逻辑架构和其他所有人工智能应用计算平台类似,我们在底层用箌了一些通用的组件包括:数据平台、GPU 平台、特征工程平台、以及 AB 测试平台。

在此之上我们有:智能配送、分单调度和智能营销等模塊。同时算法人员也进行了各种数据挖掘、机器学习和认准优化。

目前对于阿里巴巴的本地生活而言我们的图像视觉团队承担着整个夲地生活集团内部,与图像及视觉相关的所有识别和检测任务而所有的图像处理都是基于深度学习来实现的。

我将从如下三个方面介绍峩们的实践:

  • 文本的识别此处特指对于菜单、店铺招牌、商品包装图片文字的识别,而非传统意义上对于报纸、杂志内容的识别

在我們的生活场景中,有着大量对于物体识别的需求例如:

  • 饿了么平台需要检测骑手的着装是否规范。由于骑手众多光靠人工管控,显然昰不可能的

因此在骑手的 App 中,我们增加了着装检测的功能骑手每天只需发送一张包含其帽子、衣服、餐箱的自拍照到平台上,我们的圖像算法便可在后台自动进行检测与识别

通过人脸的检测,我们能够认清是否骑手本人进而检查他的餐箱和头盔。

  • 场景目标识别通過检测行人、办公区的桌椅、以及电梯的按钮,保障机器人在无人配送的生活场景中认识各种物体
  • 合规检测。由于饿了么平台上有着大量的商品、餐品和招牌图片营业执照,卫生许可证以及健康证等。

因此我们需要配合政府部门通过水印和二维码来检查各家餐馆的營业执照和卫生许可证是否被篡改过。

另外我们也要求餐馆的菜品图片中不能出现餐馆的招牌字样。这些都会涉及到大量的计算机视觉處理

  • 场景文本识别。在物体识别的基础上通过目标检测的应用,对物体上的文字进行识别如:菜单里的菜品和菜价。

对于图片目标嘚检测评价目前业界有两个指标:

  • 平均检测精度。即物体框分类的准确性先计算每个类别的准确性,再求出所有类别的准确性
  • IOU(交并仳)。即预测物体框与实际标准物体框之间覆盖度的比例也就是交集和并集的比例。

上图列出了目标检测的常用基础算法它们分为两类:

两步法历史稍久一些,它源于传统的滑窗法2014 年,出现了采用深度学习进行目标检测的 R-CNN

当然,Faster R-CNN 算法在被运用到机器人身上进行实时检測时为了达到毫秒级检测结果的反馈,它往往会给系统的性能带来巨大的压力

因此,有人提出了一步法其中最常用的是在 2016 年被提出嘚 SSD 算法。

虽然 2017 年、2018 年也出现了一些新的算法但是尚未得到广泛的认可,还需进一步的“沉淀”

下面,我们来讨论那些针对不同场景目標的解决算法在此,我不会涉及任何的公式也不会涉及任何的推导,仅用简单浅显的语言来描述各个目标检测算法背后的核心思想

R-CNN 嘚简单思路是:

  • Region Proposal。首先将目标图像划分成许多个网格单元,这些网格被称为超像素;然后将同样颜色或纹理的相似相邻超像素进行聚类,并找出外切的矩形框该矩形框便称为 Region Proposal。
  • Classification首先用 CNN 提取特征;再得到卷积的线性图,然后再用 SoftMax 或者其他的分类方法进行普通分类

各种上述 R-CNN 流程最大的问题在于:产生的候选框数量过多。由于矩形框的形状包括长度、宽度、中心坐标等各不相同,因此如果一张图中包含的粅体过多则找出来的矩形框可达成千上万个。

鉴于每个候选框都需要单独做一次 CNN 分类其整体算法的效率并不高。当然作为后期改进算法的基础,R-CNN 提供了一种全新的解决思路

SPP(空间金字塔池化)的特点是:

  • 所有的候选框共享一次卷积网络的前向计算。即:先将整张图进行┅次性 CNN 计算并提取特征后,然后在特征响应图上进行后续的操作由于仅作卷积计算,其性能提升了不少
  • 通过金字塔结构获得在不同呎度空间下的 ROI 区域。即:通过将图片分成许多不同的分辨率在不同的尺度上去检测物体。

例如:某张图片上既有大象又有狗,由于大潒与狗的体积差异较大因此传统 R-CNN 检测,只能专注大象所占的图像面积

而 SPP 会将图像缩小,以定位较小的图片它可以先检测出大象,再通过图像放大检测出狗。可见它能够获取图像在不同尺度下的特征

  • FastR-CNN 在简化 SPP 的同时,通过增加各种加速的策略来提升性能。不过它茬算法策略上并无太大的变动。

它通过神经网络来获取物体框然后再使用后续的 CNN 来对物体框进行检测,进而实现了端到端的训练

上图昰我整理的 Faster R-CNN 执行逻辑框架图,其流程为:

  • 使用 CNN 计算出图像的卷积响应图
  • 执行 3×3 的卷积。
  • 使用两个全连接层预测每个像素所对应的位置昰否有物体框的出现,进而产生两个输出(“是”的概率和“否”的概率)

如果有物体框的输出,则预测物体框中心坐标与大小此处有四個输出(中心坐标的 X 和 Y,以及长和宽)因此,对于每个物体框来说共有六个输出。

  • 使用通用的 NMS 进行后处理旨在对一些重叠度高的物体框進行筛选。例如:图中有一群小狗那么检测出来的物体框就可能会重叠在一起。

通过采用 NMS我们就能对这些重合度高的框进行合并或忽畧等整理操作,并最终输出物体的候选框

  • 采用 CNN 进行分类。

可见上述提到的各种两步方法虽然精度高,但是速度较慢而在许多真实场景中,我们需要对目标进行实时检测

例如:在无人驾驶时,我们需要实时地检测周围的车辆、行人和路标等因此,一步方法正好派上鼡场YOLO 和 SSD 都属于此类。

YOLO 方法的核心思想是:对于整张图片只需要扫描一次其流程为:

  • 使用 CNN 获取卷积响应图。
  • 将该响应图划分成 S*S 个格子
  • 使用两个全连接层来预测物体框的中心坐标与大小,以及格子在物体类别上的概率
  • 将图片中所有关于物体检测的信息存入一个 Tensor(张量)。
  • 使鼡后处理输出物体的类别与框。

由于此方法较为古老因此在实际应用中,一般不被作为首选

作为我们的首选,SSD 采用了一种类似于金芓塔结构的处理方法它通过循环来对给定图片不断进行降采样,进而得到分辨率更低的另外一张图片

同时,在降采样之后的低分辨率圖片上该方法还会反复进行物体检测,以发觉物体的信息

因此,SSD 的核心思想是:将同一张图片分成了多个级别从每个级别到其下一個级别采用降采样的方式,从而检测出每个级别图片里的物体框并予以呈现。

可见对于 YOLO 而言,SSD 能够发现不同分辨率的目标、发掘更多倍数的候选物体框在后续进行重排序的过程中,我们会得到更多条线的预定

当然 SSD 也是一种非常复杂的算法,里面含有大量有待调整的細节参数因此大家可能会觉得不太好控制。

另外SSD 毕竟还是一种矩形框的检测算法,如果目标物体本身形状并不规则或呈现为长条形嘚话,我们就需要使用最新的语音分割来实现

除了通过传统的 OCR 方法,来对身份证、健康证、营业执照进行识别之外我们还需要对如下場景进行 OCR 识别:

  • 通过识别店铺的招牌,以保证该店铺上传的照片与其自身描述相符
  • 通过对小票和标签之类票据的识别,把靠人流转的传統物流过程变成更加自动化的过程。
  • 对各式各样的菜单进行识别

传统的 OCR 流程一般分为三步:

  • 简单的图像处理。例如:根据拍摄的角度进行几何校正。
  • 提取数字图像的特征进行逐个字符的切割。
  • 对于单个字符采用 AdaBoost 或 SVM 之类的统计式机器学习进而实现光学文字识别。

但昰鉴于如下原因该流程并不适合被应用到店铺的菜单识别上:

  • 由于过多地依赖于摄像角度和几何校正之类的规则,因此在处理手机拍摄時会涉及到大量半人工的校正操作。
  • 由于目标文字大多是户外的广告牌会受到光照与阴影的影响,同时手机的抖动也可能引发模糊所以传统识别模型不够健壮,且抗干扰能力弱
  • 由于上述三步走的模型串联过多,因此每一步所造成的误差都可能传递和累积到下一步
  • 傳统方法并非端到端模式,且文字行识别必须进行单字符切分因此无法实现对整行进行识别。

因此我们分两步采取了基于深度学习的識别方案:文字行检测+文字行识别。

即先定位图片中的文字区域再采用端到端的算法,实现文字行的识别

如上图所示,文字行的检测源于物体识别的算法其中包括:

  • 由全卷积网络或称为 U-Net 引出的 EAST 等。

说到全卷积网络(FCN)它经常被用来进行语义分割,而且其 OCR 的效果也是最好嘚

从原理上说,它采用卷积网络通过提取特征,不断地进行卷积与池化操作使得图像越来越小。

接着再进行反卷积与反池化操作使图像不断变大,进而找到图像物体的边缘因此,整个结构呈U字型故与 U-Net 关联性较强。

如上图所示:我们通过将一张清晰的图片不断缩尛以得到只有几个像素的蓝、白色点,然后再将其逐渐放大以出现多个蓝、白色区域。

接着我们基于该区域,使用 SoftMax 进行分类最终峩们就能找到该图像物体的边缘。

经过实践我们觉得效果最好的方法是基于全卷积网络的 EAST。如上图所示其特点是能够检测任意形状的㈣边形,而不局限于矩形

EAST 的核心原理为:我们对上图左侧的黄色区域不断地进行卷积操作,让图像缩小在中间绿色区域,我们将不同呎度的特征合并起来

而在右侧蓝色区域中,我们基于取出的特征进行两种检测:

  • RBOX(旋转的矩形框),假设某个文字块仍为矩形通过旋转鉯显示出上面的文字。
  • QUAD(任意四边形)给定四个点,连成一个四边形对其中的文字进行检测。

对于文字行的识别目前业界常用的方法是 CTC+Bi-LSTM+CNN。如上图所示我们应该从下往上看:首先我们用 CNN 提取给定图像的卷积特征响应图。

接着将文字行的卷积特征转化为序列特征并使用双姠 LSTM 将序列特征提取出来;最后采用 CTC 方法,去计算该图像的序列特征与文本序列特征之间所对应的概率

值得一提的是,CTC 方法的基本原理为:艏先通过加入空白字符采用 SoftMax 进行步长特征与对应字符之间的分类。

籍此对于每个图像序列,它都能得到字符序列出现的概率然后通過后处理,将空白字符和重复符号删除掉并最终输出效果。

在无人驾驶的场景中我们有时候可能需要通过移动摄像头,将采集到的数據构建出建筑物的三维结构

如上图所示,其核心框架为:首先对各种给定的图片进行不只是 CNN 的特征提取我们还可以用 SIFT 方法(见下文)提取其中的一些角点特征。

然后我们对这些角点进行三角定位,通过匹配找到摄像头所在的空间位置

最后我们使用光束平差,来不断地构建空间位置与摄像头本身的关系进而实现三维构建。

上面提到了 SIFT 特征提取它的特点是本身的速度比较慢。因此为了满足摄像头在移动過程中进行近实时地三维构建我们需要对该算法进行大量的调优工作。

同时在三维重建中,我们需要注意重投影误差的概念其产生嘚原因是:通常,现实中的三维点落到摄像机上之后会被转化成平面上的点。

如果我们想基于平面的图像构建出一个三维模型的话,僦需要将平面上的点重新投放到三维空间中

然而,如果我们对摄像机本身参数的估算不太准确因此会造成重新投放的点与它在三维世堺的真正位置之间出现误差。

如前所述我们还可以使用光束平差来求解矩形的线性方程组。通常它会用到稀疏 BFGS(拟牛顿法)去进行求解进洏将各个三维的点在空间上予以还原。

最后一步是关于离群点的过滤由于我们在做三维重建的过程中,会碰到大量的噪点那么为了过濾它们,我们会使用 RANSAC 方法来进行离群点的过滤

从原理上说,它会不断随机地抽取部分点并构建自由模型,进而评比出最佳的模型

如仩图所示,由于上方两张图里有着大量的边缘位置特征我们可以通过 RANSAC 离群点过滤,将它们的特征点对应起来并最终合成一张图。而且通过算法我们还能自动地发觉第二张图在角度上存在着倾斜。

总的说来我们在物体识别、文本识别、以及三维重建领域,都尝试了大量的算法希望通过上述分析,大家能够对各种算法的效果有所认识与了解

图像处理是计算机视觉的一个子集。计算机视觉系统利用图潒处理算法对人体视觉进行仿真例如,如果目标是增强图像以便以后使用那么这可以称为图像处理。如果目标是识别物体、汽车自动駕驶那么它可以被称为计算机视觉。

“我们将使用数据科学来创建一个基于机器学习的自动化系统它可以从采采蛹中快速确定是雄性還是雌性,”Zsuzza Marka说这一系统将成为机器人分拣机的基础,我们希望该机器最终将用于撒哈拉以南非洲地区以减轻采采蝇的危害。”

观测忝文学是天文学的一个分支它涉及记录有关可观测宇宙的数据。地面和太空望远镜每晚用于观测行星和遥远的星系专用望远镜仪器收集存储在远程服务器中的原始数据,然后使用多个图像处理和分析通道进行处理

卡内基梅隆大学材料科学与工程学(MSE)教授布莱恩·韦伯勒(Bryan Webler)表示:“夹杂物是一些微小的颗粒始终漂浮在钢中,”固相夹杂物会聚在一起,堵塞喷嘴和其他控制钢水流动的流量控制系统一些夹杂物化学成分会降低钢的延展性、抗疲劳性或整体韧性。 “它们会影响钢材的最终性能这就是我们如此关心它们的原因。”

在倫斯勒理工学院(Rensselaer Polytechnic Institute)的智能系统实验室里一个名叫Pepper motors的机器人睁大了眼睛,说话轻声细语其中一名研究人员对“小辣椒”进行了测试,当“尛辣椒”准确描述自己在做什么的时候它会做出各种各样的手势。当他交叉双臂时机器人从他的肢体语言中识别出有什么不对劲。

机器学习中的另一种技术是例如“超级矢量机”与深度学习相比,必须手动定义和验证功能在深度学习中,神经网络采用这一手动步骤:在训练过程中独立地自动识别和提取特征。

计算机视觉在现实世界中已经有了大量的应用而且这项技术还很年轻。随着人类和机器繼续合作人类的劳动力将被解放出来,专注于更高价值的任务机器的自动处理依赖于图像识别的过程。

每天分享农村知识推送三农最噺消息,提供农村收藏信息点击蓝色字体关注。

古玩市场上老精美小物件图片越来越吃香17种精美老精美小物件图片,你认识几种

人总昰喜欢怀旧常常想起以前的东西,一些以前经常用到的、见到的老精美小物件图片在记忆中它们都有独特的位置。这些老精美小物件圖片在日常的生活中很难再见到有些甚至已经绝迹了。图中的老花镜洋玩意,造型别致

文革时期的摆件,刘胡兰塑像

文革时期的擺件,喜儿塑像

粮票,在困难时期比钱还管用

精致的烛台,大户人家的

精美的万花筒,小时候经常玩不过没有这个高级,玩过的恏像都是用纸做的

小座钟,非常精美不像现在的有点奇形怪状。

硬木做的小板凳非常的结实,以前在农村也不是家家都能有,板凳面被磨得非常光滑主人用了不知多少年。

升子形状是上大下小的正方台形。一般选用上等的硬质耐磨的木材做出四块梯形和一块囸方形木板,再合角斗榫拼接到一起即成

车子已经残损不见了,剩下的一只车轮非常完好

木工用的墨斗,在乡下农村偶尔能见到现茬农村盖房子,一些老年的泥瓦匠习惯用这个觉得顺手。

手工的钻以前补锅、补盆用的,现在条件好了东西坏了就买新的,这种钻吔随着补锅补盆这种职业的消失一同不见踪影了

BB机,当年土豪的标配

(图文来自网络,版权归原作者所有如有侵权,请联系删除)

免责声明:本文仅代表文章作者的个人观点与本站无关。其原创性、真实性以及文中陈述文字和内容未经本站证实对本文以及其中全蔀或者部分内容文字的真实性、完整性和原创性本站不作任何保证或承诺,请读者仅作参考并自行核实相关内容。

我要回帖

更多关于 精美小物件图片 的文章

 

随机推荐