右上角有dmm的一张动图,趴在窗上。

人脸识别的一般流程是:人脸检測-人脸对齐-人脸表达-人脸分类识别自从深度学习发展起来,人脸识别技术获得了很大发展基本已经可以落地商用,比如支付宝的人脸識别支付本文重点梳理下这块知识。人脸识别的流程里主要用到的是计算机视觉的三个基本问题:分类、回归和检测 下面分别从人脸檢测、人脸关键点对齐、人脸表达和识别三个方面进行梳理。

说到检测首先来瞻仰下,看他发的paper就知道检测技术的推动,rgb简直就是教父级別的存在瞻仰完了,我们还是从检测基本概念开始熟悉,可以看下

1)评估指标AP的概念:讲的很明白其实就是pc曲线的对recall轴的积分值。类似ROC曲线

2)这篇文章很好地解释了:检测是什么以及检测的发展脉络。

接下来言归正传,从人脸检测几个重要的方法梳理下: 引用自

方法┅:adaboost+har特征也称作vj框架,有很多变种

1)har特征就是设计很多小矩形框左边像素和-右边像素和得到har值,对人脸这种刚体像素分布有一定规律,比较合适而且har特征相比于sift、lbf等计算估计会更快,因为可以用积分图的方法解决早期人脸检测速度慢的问题。

1)直接对原图使用图潒金字塔

2)对金字塔图层以固定尺度的滑动窗遍历送入第一级12x12输入尺寸的二分类cnn网络,快速过滤掉90%滑动窗(12x12cnn是预先训练好的人脸二分類模型)

3)将剩下的滑动窗,通过12x12的矫正网络矫正人脸区域。(策略也很简单应该是将人脸框上下左右平移一些,判断那个位置最佳)

5)保留下来的候选窗口放缩到24x24cnn网络下面步骤同2)

6)同样,将24x24cnn网络过滤下来的候选框送入4848cnn网络

7)48x48网络矫正后,nms的结果为最终输出

0) 據说是:ssd出世前,百度深度学习研究院的ssd

2)将vgg网络最后两层featrue作了融合,最后在输出feature map上每个像素位置预测该感受野存在框的box和置信度输絀fp为5通道,每个通道分别表示置信度和4个坐标差

3)加入关键点回归,多任务学习效果会好。

2)输入不一样:cascade用滑动窗逐个送入一级网絡mtcnn直接多层下采样得到图像金字塔(更厚),直接将每层金字塔送入一级网络大大提升了速度。

3)矫正阶段不一样:cascade是固定模式偏移給出最佳位置mrcnn是直接回归目标检测框得到位置。

4)每一级网络加入关键点回归任务多任务学习。

5)将人脸检测和对齐放到了一个网络Φ终端机型20~30fps,有实际商用

2)加入OHEM,解决样本不均衡问题

1)额外标注了人脸 5 点信息并以此引入人脸对齐的额外监督信息损失函数。

3)个人感受:貌似由于主动标注训练集加入多任务学习,带来了很大提升

4)基础检测网络用的类似RetinaNet,即用fpn特征金字塔(解决多尺度问題)+ focal loss(解决正负样本不均衡问题)

1)人脸检测,遵循通用物体检测的一般套路需要解决多尺度人脸、多角度人脸等问题。在多尺度问題常用做法有3种:多尺度输入(图像金字塔,如casecade cnn/ mtcnn)、多尺度特征(特征金字塔如retinaFace中用的fpn)、anchor机制(如denseBox, Face r-cnn)

2)多任务学习一般对深度學习任务是有效的。

1)将关键点分成内部点和外部轮廓点分开预测,避免loss不平衡问题内部点比较精细,只能作为粗略点需要进一步級联网络进行精修

2)级联网络精修内部点:内部点按照part分成几个并行的独立子网络,分别预测达到精修的目的。提升内部part的分辨率能囿效提升效果。缺点:失去上下文约束导致点的抖动。改进:舍弃子网络还是用1个网络直接输出,提升下图像输入的分辨率

3)为避免检测器不准带来的影响,在检测器基础上加入第一级预测人脸边界框在视频流中,可以直接用上一帧关键点的外接框作为输入滑动佷大的时候,加入人脸判断分支以便判断上一帧关键点外接框对应的本帧区域是否为有效人脸,如果否则启动检测。最大化减弱检测對人脸关键点效果的影响

4)个人感受:这种优化,类似人的先粗后细的主观感受即先整体扫描一把,把能确定的先确定;再放大局部(比如眼睛处)进行更精细地定位。

1)multi_task: 将人脸姿态、是否戴眼镜、性别、是否微笑等分类任务加入人脸关键点网络共享特征,组成多任务学习网络效果提升不少,而且相比于DCNN等级连网络速度上也有很大优化。

2)对每种子任务的loss_weight进行了精细的调参

3)个人感受:这种優化思想带有一点“对不同类型的人脸数据(比如大侧脸、戴眼镜的脸)独立预测”的意思。这也符合人的主观感受降低训练数据集的難度。

方法三:MTCNN (2016年检测最佳关键点在部分数据集最佳)

1)ONet中,相应增大关键点分支的loss权重

和TCDCN在思想上有点类似利用的信息是:不同姿态、属性的人脸数据,独立开来训练效果更好。只不过是从特征层面划分;而TCDCN是通过多任务训练来曲线救国,达到这种目的因为矗接划分数据,是不太好训练的只能从网络结果上体现不同数据,独立训练这一潜在提升点

1)级连又来了,这次级连不是候选子图送入后面的网络,而仍然是全图而且是利用前级网络的结果对原图warp转正后的图送入后续网络。这种级连解决了脸部转正的问题(视频鋶中就没必要这么做,直接用前帧结果作为后帧的对齐矩阵即可)

2)整张图片提取特征更为精确。

3)引入heatmap效果更佳。这貌似是关键点萣位领域第一次引入heat map思路。从此用heat map思路做人脸关键点,独成一派

1)回归类型上有两种思路:坐标点回归思路和heat map回归思路。

2)策略:包含人脸的整张图片(DAN)、分各个part输入(face++)、先粗后细级联(face++)、图像金字塔级联(MTCNN)、转正人脸级联(DAN)

3)围绕“不同姿态、属性的人脸數据,独立开来训练效果更好”的潜在提升点展开优化:多任务学习的TCDCN、特征聚类的TCNN。

1)直接在网上爬取2万人、共5M数据集

2)作者构建的鉮经网络没有采用任何特殊的技巧简单训练即可在lfw达到超过人类。

3)作者用了一些在当时比较好点的、相对复杂点的算法在自己的数据集上做实验发现效果提升微乎其微。说明算法影响随着数据量的上升被谈化

4)貌似对当时很多公司鼓吹自家的人脸识别算法超越人类嘚批判;同时也揭示了人脸识别一个难题:就是没有一个很好的公开评测集(与实用挂钩的评测集)

1)人脸识别流程是:人脸检测-对齐-表達-分类

2)在对齐这一步,用公开的标准3d模型将大角度如侧脸等转成正脸。方法是:根据关键点将脸裁剪出,建立三角剖分参考3d模型,将3d模型比对到图片上仿射变换生成正脸。

3)个人感受:针对脸部姿态、不可见部分借助2d人脸关键点和公开的标准3d人脸模型,高保真還原为正脸再去识别这张脸是谁。

1)采集人的不同姿态角度的2d图片用深度学习模型,直接学习出观察模型即给出一张2d图片,观察模型能生成这张2d图片的正面人脸图像同时能保持不同个体之间差异,而相同的个体之间差异减小

2)个人感受:相当于是训练一个深度神經网络,替代人脸重建的3d模型直接学习得到大姿态角的人脸到正脸的变换关系。

1) triplet loss 三元组,让相同个体之间的距离拉近让不同个体之間的距离拉远,设计而成

1)通过已有训练集进行data_augment, 生成多种pose\shape\expression的训练数据360度无死角地训练认识一个人。在LFW和IJB-A数据集上取得了和百万级人臉数据训练一样好的结果

2)pose augment: 通过2d人脸图像的人脸关键点和开放的Basel 3D face set数据库的人脸模板,估计出该2d图像的3d模型利用3d模型生成更多新的角度嘚2d人脸图像,用于训练

2)shape augment: 从公开的3d人脸模型数据库中挑选出10种高质量的脸型,融合训练数据中的2d图像到这10种3d脸型上得到该人的10种脸型數据,用于训练

3)expression augment:通过张口表情图像,可以生成闭嘴表情图像用于训练。

4)算法模型:常规的vgg模型

5)个人感受:这是一个比较实用嘚方法对于小公司很难获取百万级的人脸数据集。这时候可以借鉴这些data_augment的方法。而目前一个更好的人脸图像生成的方法是:GAN

1)与deep Face不哃的时,不再利用公开的3d人脸模型而是设法给每个个体重建3d人脸模型。难点:一3D重建模型训练数据获取;二,3D重建模型训练

2)用了多圖像3DMM生成方法(2016年)一,从CASIA数据集选取500K个图像来估计3DMM参数二,同一个体不同照片用来finetune 3DMM从而训练得到单个个体的3DMM

3)个人感受: 通过一些公开的训练数据和每个个体的训练数据,训练得到生成3DMM的特征向量根据这个特征向量就可以得到每个个体的3DMM模型,通过3DMM模型反过来生荿大量的2d训练数据解决人脸识别中脸部多样性的难题,将问题化繁为简了

4)个人感受二: 人脸3dMM重建是一个热点方向,换脸/变脸等

1)深度學习火了之后用简单的深度模型,很快就秒杀了人脸识别公开评测集:LFW为了将人脸识别商用起来,百万级训练数据开始建立或者生成

2)在训练集问题上,出现了很多方法:一种是将潜在人脸姿态变简单即将多种姿态人脸转化成正脸,方法有DeepFace(用2d人脸关键点和公开3d模型的方法转正人脸)和FR+FCN(训练深度学习模型将非正脸转成正脸);另一种是根据小训练集,进行数据生成有pose/shape/expression扩增方法(也是通过2d关键點和公开的3d模型库进行生成)和3DMM方法(直接给每个个体重建3d人脸模型,反过来生成2d训练数据)

在线学习回归器也就是在前一帧人脸附近采样,获取局部ROI将候选框作为训练数据,online learning人脸二分类用前一帧学习出来的人脸分类器,对当前帧人脸局部区域进行识别

有点小清新感觉的不是真人图。... 有点小清新感觉的不是真人图。

可不可以只要是一男一女就行啊!!你若要图片的话就求助我。

你对这个回答的评价是

你对这个囙答的评价是?


你对这个回答的评价是

下载百度知道APP,抢鲜体验

使用百度知道APP立即抢鲜体验。你的手机镜头里或许有别人想知道的答案

问:在日本dmm上买了一部正版电影丅载后所有播放器都不能放要获得什么许可证点了么有人没用到底该怎么放啊我是正版的啊!好像是WMV文件... 问:在日本dmm上买了一部正版电影 下載后所有播放器都不能放 要获得什么许可证 点了么有人没用 到底该怎么放啊 我是正版的啊!好像是WMV文件

推荐于 · TA获得超过1108个赞

dmm下的电影要用dmm專属播放器才可以放的==

这种某些WMV格式的视频无法用第三方播放器播放,必须要是windows media player才能播放而且必须在线播放,不能脱机因为它需要連接网络进行验证DRM数字签名,获取了许可证之后才可以播放

原来是有很多视频难以下载自从使用的影音神探以后,问题全部迎刃而解了

现在又遇上了WMV格式的视频下载后,播放时需要许可证的问题表现为:

3、下载该视频文件后,发现其“属性”为“受保护的内容”;状態栏显示为受保护:是;

这种wmv视频最大的弊病是:

1、不利于传播(部分禁止刻盘);

2、不方便观看(部分要求每次播放都下载许可证);

3、许可证过期后无法播放;

4、无法进行加工和再利用

而以上这些恐怕正是制作者对其进行加密的真正目的。

如何播放受保护的这样文件

上网连线获取签名许可证,这个是这类软件正常观看方法

如果无法上网想脱机观看:使用软件方法去掉wmv中的许可证验证信息。

另外還有个方法使用软件录下来你看到的视频,然后制作成视频格式

收集整理一些破解的方法,说明如下:

2、无论是使用DRMGUI还是FairUse4WM破解许可证限淛都有一个共同的前提:必须拥有该媒体文件至少一个能正常使用的许可证类似于凤凰卫视那样,必须使用账号下载许可证方可播放的 wmv 視频这两款软件均无能为力。

有的播放wmv提示升级DRM组件,可以直接点击提示升级

也可以直接点击下边的微软官方的下个网址完成升级。

需要获取一个已激活的许可文件登录 ,点击upgrade按钮稍后会弹出已获取许可证的窗口(或者提示upgrade complete),点击是就可以了重新启动完成安裝。

个人认为:CCTV应该使用的是当今较为先进的加密技术

必须确保菜单-工具-选项-隐私-“自动获取受保护内容的许可证”项已被勾选,否则無法播放

播放前有提示正在下载许可证。

正常播放时查看菜单文件-属性-许可证-许可证详细信息。

右击该文件查看属性-许可证 为“受保護的内容”;

状态栏显示“受保护:是”

再次查看菜单文件-属性-许可证-许可证详细信息(框中内容全部消失);

右击该文件查看 属性连“许可证”选项卡都不见了;

状态栏显示“受保护:否”

使用暴风影音能进行播放;

转移到其它未上网的电脑上能正常播放;


· 贡献了超過273个回答

· 贡献了超过108个回答

推荐1935549在日本dmm上买了一部正版电影 下载后所有播放器都不能放 要获得什么许可证 点了么有人没用 到

下载百度知噵APP,抢鲜体验

使用百度知道APP立即抢鲜体验。你的手机镜头里或许有别人想知道的答案

我要回帖

更多关于 dmm怎么用 的文章

 

随机推荐