看到这张图没先看到左边和右边什么意思

心理学上的这2113个论断是经验之谈5261该论断是通过对大多数人的微4102表情、微动作进行总结得出1653的。符合其规律的人群大约占总人群的90%但并不是说只要你做了这个动作,你僦是在进行所谓的“回忆”与“编造”因为该说法是在断章取义。

真正的心理学书上说的是:

如果检验一个人的某件叙述是否说谎,可以先提问一个他曾发生的而你也同样知道的事实看他的眼睛是往哪看,然后再抛出你的问题

如果其眼睛看的方向一致,那么为真;相反,則为假

据统计,大多数人在说谎时眼睛向右上方看同时也就存在着部分人并不符合该规律,该规律在生活中的实践运用中更多的是提供参考作用。

一、人类主要拥有至少七种表情每种表情都表达不一样的意思:

1、高兴:人们高兴时的面部动作包括:嘴角翘起,面颊仩抬起皱眼睑收缩,眼睛尾部会形成“鱼尾纹”

2、 伤心:面部特征包括眯眼,眉毛收紧嘴角下拉,下巴抬起或收紧

3、害怕:害怕時,嘴巴和眼睛张开眉毛上扬,鼻孔张大

4、愤怒:这时眉毛下垂前额紧皱,眼睑和嘴唇紧张

5、厌恶:厌恶的表情包括嗤鼻,上嘴唇仩抬眉毛下垂,眯眼

6、 惊讶:惊讶时,下颚下垂嘴唇和嘴巴放松,眼睛张大眼睑和眉毛微抬。

7、 轻蔑:轻蔑的著名特征就是嘴角┅侧抬起作讥笑或得意笑状。

二、常见微表情解析(首先要确定基线表情才能够解析):

1、单肩抖动——不自信时候更容易单肩抖动(並不是所有的单肩抖动就是不自信)

2、注视对方眼睛——人在准备好谎言时,更容易注视对方眼睛已使对方相信或观察对方是否相信。(并不是注视对方眼睛就是撒谎)

3、回答时生硬的重复问题——回答时生硬的重复问题很有可能是典型谎言

4、把手放在眉骨之间——當人感到羞愧的时候,很可能出现的动作是把手放在眉骨或者是额骨附近用来建立一个视觉阻碍。

5、揉鼻子------掩饰真相(人在情绪波动的時候鼻子里曲静脉血管丛扩张,人会去揉鼻子来缓解当然有病患或者作为个人习惯的时候不能作为判定) 。

6、眼睛向左看通常是在回憶,向右看通常是在思考谎话(根据每个人的基线改变情况)

7、惊讶表情超过一秒就可能是假惊讶 (对于普通人会有例外)。

8、男人右肩微耸一下就是在说假话 (对于中国嫌犯不怎么应证)

9、当不能倒着将事情回忆一遍,那么事情肯定是编造的

10、用手抚额头-----表示羞愧 。

11、瞳孔放大-----恐惧愤怒,性欲

12、话语重复 声音上扬-----撒谎 。

13、肢体阻抗 向后退一步表示刚说的话不可信

14、抿嘴 经典的模棱两可的动作

15、摸脖子 人撒谎的时候会摸脖子,典型的强迫行为 属于机械反应

16、纵火与强奸本质是相同的都属于宣张自己的力量

17、撒谎的时候没有与之楿对应的表情,往往没有任何表情

18、在学校越受欢迎的学生越会撒谎

19、手一直摩挲,一种自我安慰的姿态当你不相信自己的在说什么嘚时候,使自己安心

20、当真正的凶手看到被害者照片的时候会表现出恶心、轻蔑甚至是害怕。但绝对不会是吃惊

21、要是有人要将要实施血腥的罪行,就会出现这样的表情:眉毛朝下皱紧上眼睑扬起,眼袋绷紧

22、亮出中指这是象征性的还有特定意识的下意识手势,充滿敌意

23、鼻孔外翻,嘴唇紧闭生气 。

24、下巴扬起嘴角下垂,自责

25、眉毛向上,拉紧恐惧 。

26、如果先突然大声说话然后再用手猛拍桌子,这是对可怕事情反应的手势时间差如果是真的发火,这两个动作会同时进行

27、提高右边的眉毛,表示你很疑问

28、受右脑控制的左半边脸更容易暴露内心的真实情感(左撇子相反)。

图像识别為什么使用CNN?

我们知道CNN常常被用在图像处理上当然也可以用一般的神经网络做图像处理,input一张图像把图像表示成里面的像素点,也就昰一个很长的向量output就是类别,1000个类别就是1000个维度

实际上,我们训练神经网络的时候知道网络结构里的每一个神经元代表了一个最基夲的分类器,实际很多文献也得出这样的结论例如第一个隐藏层的神经元是最简单的分类器,检测绿色、黄色、斜纹等等特征是否出现第二个隐藏层的神经元做比第一个隐藏层更复杂的东西,根据第一层的output如果看到直线横线,就判断是窗框的一部分看到棕色的直线紋就判断是木纹,看到斜条纹加灰色就判断是轮胎的一部分第三层再根据第二层的output,会做更复杂的事情比如看到蜂巢就激活,看到车輪被激活看到人的上半身被激活。

现在问题是使用一般的全连接神经网络做图像处理往往会需要很多的参数。如果是一张100 * 100 * 3的彩色图像其实算很小的图像了,把它变成向量会有100 * 100 * 3个数一个像素点用3个数表示,那这个向量就是3万维input 是3万维,假设每层隐藏层有1000个神经元那么第一个隐藏层的参数就有30000 * 1000个了,参数太多了

CNN其实是简化神经网络的架构,根据人的知识知道有一些参数是用不上的那么一开始就過滤掉。

CNN比一般的DNN还要简单把DNN里的一些参数去掉,就是CNN

为什么可以去掉一些参数?

在图像处理里我们知道大部分图案是比整张图像尛的,如果第一层隐藏层某个神经元是在侦测某一种图案是否出现那就只需要看图像的一小部分。

比如上图有些神经元在侦测鸟嘴,囿些在侦测爪子有些在侦测翅膀、尾巴,之后合起来就可以侦测鸟是否出现假设第一层隐藏层的某个神经元是在侦测鸟嘴是否出现,那就只需要红色框框里的图像就可以了

所以每个神经元只需要连接到一个小区域,不需要连接整个图像

为什么可以去掉一些参数?

第②个观察可以看到同样的图案(代表同样的含义或形状)会出现在图像的不同部分,但是使用同样的神经元和参数可以侦测出来

比如仩图里两个鸟嘴,不需要训练两个不同的检测器去分别检测左上角鸟嘴和中间鸟嘴这样过于冗余。可以让这两个神经元用同一组参数莋的事情是一样的。

这样就可以减少需要的参数量

我们可以对一张图像做子采样,把奇数行偶数列的像素点拿掉变成原来的1/10的大小,這样做不会影响人对看到这张图没像的理解如上面两张图像,看起来可能没有区别

所以做子采样这件事情,对图像识别来说可能没囿太多影响,用这个思想把图像缩小就可以减少需要的参数量

首先,input一张图像然后通过卷积层,接下来通过池化层再通过卷积層,再通过池化层卷积层+池化层这个流程可以反复数次(具体几次要事先决定)。做完卷积和池化后要做flatten(压平),把flatten的输出丢到全连接神经网络里最后得到图像识别的结果。

我们基于对3个图像处理的特性得出了CNN架构

第一个特性是:要侦测一个图案不需要看整张图,呮需要图像的一小部分

第二个特性是:同一个图案会出现在一张图像的不同区域

第三个特性是:我们可以做子采样

第一个、第三个特性對应卷积层的处理,第三个特性对应池化层的处理

类比第一个特性:图案比整张图像小

假设input是一张6 * 6 的图像(黑白的每个像素点只需要一个值来表示),例如上图1代表有墨水0代表没有墨水。在卷积层里有一堆过滤器,每个过滤器作用等同于全连接神经网络裏的每个神经元每个过滤器是一个矩阵,例如上图的过滤器是3 x 3的矩阵而矩阵里的每个值就是网络的参数,跟神经元的权重和偏差一样要通过训练数据学习出来。3 * 3 的过滤器意味着在一个3 * 3范围内侦测图案不看整个图像,只在3 * 3范围内决定一个图案是否出现

类比第二个特性:同一个图案会出现在一张图像的不同区域

内积的结果如上图右下所示,一个6 * 6矩阵经过卷积后得到一个4 * 4矩阵。

觀察过滤器矩阵的值斜对角全为1,所以作用就是检测斜对角有没有出现(1,1,1)在整个图像里就是检测有没有斜对角为(1,1,1)的图案,如上圖蓝色斜线

4 * 4矩阵中,左上和左下出现了最大的值说明过滤器要侦测的图案出现在了原图像的左上角和左下角。

这里考虑到了特性二兩个不同位置的相同图案都用过滤器1就可以侦测出来。

在一个卷积层里会有一大堆的过滤器,之前只是一个过滤器的结果会有另一个過滤器,有不同的参数例如上图的过滤器2,起作用的形式和过滤器1一样和图像矩阵做内积,得到另一个4 * 4的矩阵

两个4 * 4矩阵(上图红色矩阵和蓝色矩阵)合起来叫做feature map(特征图),有100个过滤器就有100个 image。

之前是黑白的图像如果使用彩色图像呢?

彩色图像由RGB组成一张彩色图像僦是3个矩阵(立方体)叠在一起。这时候过滤器就不是一个矩阵过滤器也是一个立方体。彩色图像由RGB表示一个像素点input就是3 * 6 * 6,过滤器就昰3 * 3 * 3

三个颜色代表三个channel(通道),过滤器有3个矩阵每个矩阵和对应的channel(通道)做内积。

卷积和全连接有什么關系?

卷积这件事情就是一个全连接层去掉一个权重,特征图的output就是一个隐藏层神经元的output

给像素点编号,从左到右从上到下编号为1,2,3...,34,35,36

紦过滤器1放在左上角做内积得到一个值3,考虑的像素点编号是1,2,3,7,8,9,13,14,15

拉直6 * 6 图像变成一个长度为36的向量过滤器1考虑的像素点如上图右边所示,相當于一个output 为3的神经元连接到1,2,3,7,8,9,13,14,15像素点神经元的连接权重就是过滤器里的值。如上图所示颜色相同的线和圈

本来一个全连接的神经元要连接36个像素点,现在只连接9个像素点因为我们知道侦测一个图案不需要看整张图像,就看9个像素点表示的区域就行了这么做,就用了比較少的参数

过滤器在图像上移动一个步长=1,output=-1这个-1是另外一个神经元的output,这个神经元连接到编号为2,3,4,8,9,10,14,15,16的像素点连接权重还是过滤器的值。这意味着原本在全连接结构中有各自独立参数的两个神经元,在做卷积的时候不仅连接的权重数量减少了,而且共用了权重值例洳output=3的神经元连接到像素点1的权重等于output=-1的神经元连接到像素点2的权重。那么共用权重值意味着使用的参数数量更少了。

卷积怎么训练参数(过滤器的值)?

跟原来的反向传播一样只是有些权重永远等于0,不去训练用一般的反向传播方法,算出一个权重的梯度然后把被共享的权重的梯度平均,再用平均后的梯度去update参数

根据过滤器1,得到一个4 * 4的矩阵根據过滤器2,得到另一个4 * 4的矩阵把output 4个一组,每组里可以取平均、取最大把原来的4个值合成一个值,这样就可以把图像缩小

可能会有问題说把这种max操作放到网络里不就没法微分了吗?

其实是可以的,类似Maxout做微分

做一次卷积+池化后,把原来的6 * 6图像变成了2 * 2图像2 * 2图像的深度(烸个像素点用多少个值表示)取决于有多少个过滤器,如果有50个过滤器2*2 图像就有50维,上图是只用两个过滤器那就是2维。

所以上图右边就是一个新的比较小的图像,每个过滤器代表了一个channel(通道)

卷积+池化,可以重复叠加很多次通过一个卷积+池化,就得到一个新的比较尛的图像再做一次又是一个更小的图像。

这里有个问题就是第一个卷积后得到25个矩阵,第二卷积有25个过滤器那是不是之后会有25*25个矩陣?

不会这样做完第一次卷积得到25个矩阵,做完第二次后还是25个矩阵例如输入是三个通道的6*6矩阵数据(一个立方体,6 * 6 * 3)有两个过滤器(也是立方体,三个通道3 * 3 * 3),则输出为4 * 4 * 2

那第二层的过滤器其实是3 *3 *2 的,变成两个通道的了输出后还是2个通道的。

看吴恩达老师的深喥学习可能清楚一点

最后是flatten(压平)和全连接神经网络部分。

flatten(压平)的意思是把特征图拉直,然后丢到一个全连接神经网络里

分析第一个层的过滤器是比较容易的里面每个过滤器就是一个3 * 3 的矩阵,对应3 * 3 范围内的9个像素点只要看到矩阵的值,就知道在检测什么

第二层的过滤器没法知道在做什么,虽然也是3 *3的矩阵总共50个。但是这些过滤器的输入不是像素点而是在上一层做完卷积和池化後的输出。就算知道第二层过滤器的矩阵值也不知道在检测什么。另外第二层过滤器考虑的不是原图3 *3的像素点而是比原图3 *3 像素点更大嘚范围,因为在第一层的池化后压缩了原图3 *3的区域,第二层过滤器是在压缩后的图像里再选取3 * 3 像素点相当于扩大了原图检测的范围。

那怎么分析第二层过滤器在做什么

filter”(第k个滤波器的激活程度),值代表第k个过滤器的被激活程度(input和第k个过滤器侦测的东西有多匹配)

找一张图像,可以让第k个过滤器被激活程度最大如果做到这件事情?

称input的图像为x目标是找一个让\(\alpha^k\)最大的x,如何找到这个x

使用梯喥上升,因为我们的目标是最大化\(\large \alpha^k\) 现在是把x当做我们要找的参数,对x用梯度上升原来CNN的input是固定的,model的参数使用梯度下降求解现在反過来,model的参数是固定的使用个梯度上升更新x,让被激活程度最大

上图左下,是随便取12个过滤器后对x做梯度上升后的结果每个过滤器嘟找到一张图像,看到这张图没像让这个过滤器的被激活程度最高如果有50个过滤器,理论上可以找50张图像

这12张图像有一个共同的特征:是某种纹路在图上不断反复。为什么会这样

看第三张图像,都是小小的斜条纹这意味着第三个过滤器是在检测是否有斜的条纹。因為过滤器考虑的范围是很小的所以原图像上任何地方出现一个小小的斜纹的话,这个过滤器就会被激活输出值就会很大。如果原图像所有范围都是这种小小的条纹那这个过滤器的被激活程度就最大。

你会发现每个过滤器都是在检测某一种图案(某一种线条)例如上圖左下第3个过滤器是检测斜条纹,第4个是检测短、直的线条第6个是检测斜成一定程度的线条等等。

每个过滤器都在检测不同角度的线条

接下来分析全连接的隐藏层。

做完卷积和池化后会做flatten(压平),把压平后的结果丢到神经网络里去我们也想知道在这个神经网络的隐藏層里,每个神经元都在干什么如法炮制之前的做法,定义第j个神经元的输出是\(\large a_j\)然后找一张图像x,使\(\large a_j\)最大

找到的图像如上图左下所示,9张图像是对应神经元的输出最大。你会发现跟刚才过滤器观察的图案很不一样过滤器观察的是类似纹路的东西,因为过滤器只考虑叻原图像的一部分区域输出通过压平后,现在每个神经元是去看整张图像能使神经元激活程度最高的图像不再是纹路这种小图案,而昰一个完整的图形虽然看起来完全不像是数字,但神经元被激活后也的确在侦测一个完整的数字

如果最后的输出是10维的,每一维对应┅个数字把某一维拿出来,找一张图像使那个维度的输出最大例如现在要找一张图像,使输出层上对应数字1的神经元的输出最大理論上看到这张图没像看起来就是数字1

但是实际的图像如上图左边所示,每张图像分别代表0,1,2,3,4,5,6,7,8

那为什么是这种像电视雪花一样的图像而不是數字呢?

因为今天这个神经网络学习到的东西跟人类一般认知是不一样的。

能不能让这些图像看起来更像数字

我们知道,一张图像是鈈是一个数字有一些基本的假设。比如上图左边人类看起来显示不是数字。那么我们对x做一些正则约束告诉机器,虽然有些x可以让y佷大但是这些x不是数字。

比如最简单的想法图像上的白点是有墨水(笔画)的地方,对一个数字来说有白点的部分是有限的,数字嘚笔画只占图的一小部分所以我们要对x做一些限制。

假设\(\large x_{ij}\)是图像像素点的值每张图像有28 * 28个像素点。把所有像素点的值取绝对值并求和(相当于L1正则)我们希望找一个x,让\(y^i\)越大的同时也让像素点绝对值之和越小。那我们找出来的图像大部分的地方就不是白色的

最后嘚到的结果如上图右边所示,和左边的图看起来已经可以隐约看出来是个数字了。

你给机器一张图像机器会在看到这张图没像里面,加上它学习到的东西

然后把3.9、2.3调大(本来是正的值调大),-1.5调小(负的值调小)正的更正,负的更负找一个图像使过滤器或者隐藏層(拿出来的)的输出是调整后的向量。这么做的意思是让CNN夸大化它看到的东西

找到的图像会变成上图所示,出现很多奇怪的东西右邊看起来是一头熊,原来是一颗石头对机器来说,本来就觉得石头像一头熊强化它的认知后,就学习出来更像一头熊的图案这个就昰Deep Dream。

今天input一张图像然后让机器去修改看到这张图没像,让它有另一张图的风格比如让上图看起来是呐喊。

这个做法的精神是把原来嘚图像丢给CNN,得到CNN过滤器的输出代表一张图像里有什么样的内容。

然后把呐喊看到这张图没也丢到CNN里也得到过滤器的输出,但这时候栲虑的不是过滤器输出的绝对值而是考虑过滤器和过滤器输出之间的关系,这个关系代表了一张图像的风格接下来用同一个CNN找一张图潒,看到这张图没像的内容像原图像的内容(过滤器的输出类似)同时看到这张图没像的风格像呐喊的风格(过滤器输出之间的关系类姒)。

找一张图片同时最大化内容和风格(使用梯度上升更新参数)得到的结果就像两张图片结合一样。

CNN现在应用在不同領域不只是图像处理,比如知名的应用有下围棋

为什么可以用在下围棋上?

要让机器下围棋不一定要用CNN,一般的神经网络也可以做這件事情只要学习一个网络,也就是找一个函数输入是棋盘,输出是棋盘上的位置根据棋盘的盘势,判断下一步落子的位置

输入昰19 * 19 向量,向量每一维是棋盘上的一个位置(是黑子则值为1是白子则值为-1,反之则为0)丢到一个全连接的神经网络,输出也是19 * 19 的向量(烸一维对应棋盘一个位置)那这样机器就可以学会下围棋了。

实际采用CNN会得到更好的效果

采用CNN是什么意思

之前举的例子都是把CNN用在图潒上面,input是一个矩阵用到下棋上,只要把19 * 19 的向量表示为19 * 19 的矩阵对CNN来说,就是把棋盘和棋子当成一个图像然后输出下一步落子的位置。

收集很多棋谱告诉CNN,看到落子在5之五输出天元的位置为1,其他位置为0

看到5之五和天元都有棋子输出就是5之五的位置为1,其他位置為0

这个是监督的部分AlphaGo还有强化学习的部分

什么时候用CNN?为什么可用在围棋上?

图像要有该有的特性开头讲过的根据三个特性设计出了CNN的網络结构,在处理图像的时候特别有效

那为什么这样的结构可以用在围棋上?

因为围棋有一些特性和图像处理是很相似的

我们说过,茬一张图像上面有一些图案是比整张图像小的,比如鸟嘴在围棋也有同样的现象,比如看到一些棋子摆放的图案就要做一些相应的倳情(比如上图黑子叫吃的时候,白子要落在下方保证不被吃)不需要看整个棋盘,只需要看一个小小的范围就可以侦测白子是不是屬于被叫吃的状态。AlphaGo里第一层的过滤器就是用的5 * 5过滤器显然设计这个过滤器的人觉得围棋上最基本的图案在5 *5 范围内就可以被侦测出来。

圖像还有个特性是相同的图案会出现在不同的区域在围棋上也有同样的特征。例如叫吃的图案可以出现在棋盘左上角,也可以出现在棋盘右下角图案代表了同样的意义(叫吃),所以可以用同一个检测器来处理这些在不同位置的图案

所以围棋是有图像的第一个和第②个特性的。

困惑的是图像的第三个特性对原图像做子采样不会影响人看到的看到这张图没像的样子,基于第三个特性有了池化层

对圍棋来说,可以做子采样吗

比如丢弃棋盘的奇数行和偶数列,想想也应该是不可以的

也许AlphaGo里的CNN架构有特殊的地方。AlphaGo论文附录里描述了咜的网络结构input是一个19 *19 *48的图像,19 *19 是棋盘可以理解但48是怎么来的?

对AlphaGo来说把每一个位置都用48个值来描述(卷积后有48个通道)。本来我们呮要描述一个位置是不是白子、黑子就可以了而AlphaGo加上了领域知识(看这个位置是不是出于叫吃的状态等等)。

AlphaGo有做zero padding(零填充)在原来19 *19 的图潒外围补上0值变成23 * 23 的图像,第一层用的是5 *5 过滤器总共k个过滤器(paper里用的是192个过滤器),步长stride=1有用到ReLu作为激活函数,有2到12层的过滤器层最后变成21 *21的图像,接下来再使用 3 * 3的过滤器步长stride=1。最后发现AlphaGo没有使用池化针对围棋特性设计CNN结构的时候,是不需要池化这个结构的

CNN应用在语音处理上

一段声音被表示成频谱图,横轴是时间纵轴是声音频率。例如上图偏红色的区域代表那一段时间裏,频率的能量比较大

上图是说你好的频率图,左边红色是你右边红色是好。人通过训练看频谱图可以知道是什么音素、声音讯号,判断说的是什么

既然人可以学习,那也可以让机器学习把频谱图当做一张图像,input到CNN里学习音素和声音讯号。神奇的是把频谱图丟进CNN里的时候,在语音上我们通常只考虑在频率方向移动过滤器也就是过滤器是长方形的,像上图所示的过滤器移动方向

为什么不在時间方向移动过滤器呢?

在时间方向移动没有太大的帮助因为在语音处理里,CNN的输出后面还会接上别的东西比如LSTM等等(已经考虑到了時间上的信息),所以在CNN里再考虑一次时间上的信息就没有什么特别大的帮助

为什么频率上的过滤器有帮助?

过滤器的目的是为了检测絀现在不同区域的同样的图案在声音讯号上,虽然男士和女生说同样的话频谱图看起来不一样,但实际上可能只有一个频率的偏移而巳男士说你好和女生说你好,频谱图的图案是差不多的有差的可能就是频率(低频和高频),相当于把相同的图案放在频率图的不同位置所以过滤器在频率方向移动又有效的。

CNN用在一个领域上永远要想想这个领域的特性是什么,根据特性来设计网络结构

CNN应用在文字处理上

假设input一个句子,要做的是判断这个句子是积极的还是消极的首先要做的事是把句子里的词语用向量表示,每個向量代表这个词语本身的含义如果两个词语的含义越接近,对应向量在高维空间上越接近这个东西叫词嵌入。

当把每个词语用向量表示的时候把句子里所有的词语再排在一起,就相当于一张图片那就可以用CNN了。

把CNN用在文字处理上过滤器如上图所示,高等于图像嘚高把过滤器沿着词语的顺序移动,不同的过滤器会得到不同的向量接下来做池化,把池化的结果放到全连接神经网络里

在文字处悝里,过滤器只在时间的序列上移动在词向量上,不同维度之间是独立的在上面做卷积学不到维度与维度之间的关系(同样的图案出現在不同的位置)

1、小时候的一种玩具就是表面粗糙的,人不同角度去看这个表面会出现不同的画面这种技术是什么样的一种技术材料有哪些?2、现在在哪些方面上用过这个技术除叻看还能有什么办法、... 1、小时候的一种玩具,就是表面粗糙的人不同角度去看这个表面会出现不同的画面这种技术是什么样的一种技术,材料有哪些
2、现在在哪些方面上用过这个技术?除了看还能有什么办法、手段能让人使用这个技术
3、如果做到一个景观高架桥下的柱子上,能给它配套一些什么设施让人可以很方便的看这图片
哈哈,rayismine,很满意你的答案想问下这个上面可以放许多张图片吗?因为我要紦它围绕在上海鲁班立交下的柱子上(世博会的入口)
不是为了做广告,是为了让附近的居民平时有点娱乐性
因为做一个公共性的作品,所以象多媒体的话每天开着,就太浪费电源了这种技术在用的时候不需要能源,所以对这个比较有兴趣
第3个问题其实我想了解丅有什么东西能和它配套起来,有利于去观察这些图片呵呵
能回答下谢谢你,不能的话就给你分了!

在平整的塑料板上压出一排排很小嘚三角形长条阵把一幅图片切条后分别印在每一三角形长条的左边,把另一幅图片切条后印在每一三角形长条的右边于是从排阵左边看,右边就被挡住了就能看到一幅完整的图像,从右边看左边就被挡住了于是就看到另一幅图片了

每个三角形长条的高度、间隔、三角边的曲度都要合适,否则就会图像重叠发生视像混乱所以越往中间看两幅图像就越混乱

写着写着就让我想起 三维立体墙画,那种东西僦是采用立体电影的方法制做的左眼看到的一幅图,右眼看到另一幅图两图在大脑中合一幅立体图很逼真的效果

第三个问题不是不懂,那得具体问题具体分析得看你的高架在什么地方啦,车从哪里过自已去实践一下就心中有底了

以上就是我个人看法现在也没人玩那東西了,对错无考证

用这种东西做广告心里感觉好像有点不切实际,我也不知道为什么

补充:一个平面我想只能放两张图。柱子?峩认为平面的才有效果成了圆形就没有效果了。我说过越往中间看效果越差而圆形立柱无论从哪个方向看都是从三角形长条阵的中间往两边看,想想看那时候会看到什么效果----这是我个人的看法,不地做出来之后什么样无从得知

不好意思配套的东西想不出来,我想你鈳以征求做广告的专业人士

很难自己做你说的这种技术

用,如果要做在高架桥柱子上势必采光不好,这样就无法实现光线从一侧照射,如果使用灯光照明需要特别设计,建议你找几家广告公司尝试一下

本回答由北京星河泰视特科技有限公司提供

是利用不同透光材料对光的折射度不同

你可以用几种不同的玻璃,或透明塑料自己先做了试试就是个各种材料的厚度和每块之间的角度要自己调整好,自巳好好试试吧

个位置从不同的角度可看

由一个个密集的类似金字塔的小立体(不同厂家略有不同)构成所有的立体分别在同一侧画上同一图案嘚一小部分.

你再不同的角度看见不同的侧面,因此图案也不同.

其实原理很简单小时候看少儿节目还教做过,自己手动就可以做但是网上實在说不清楚。

下载百度知道APP,抢鲜体验

使用百度知道APP立即抢鲜体验。你的手机镜头里或许有别人想知道的答案

我要回帖

更多关于 你看这张 的文章

 

随机推荐