一种类似视频场景分割的家庭数字照片分类方法研究

一种类似视频场景分割的家庭数字照片分类方法研究

一、一种类似视频场景分割的家庭数字照片分类方法研究(论文文献综述)

黄小倚[1](2020)在《基于乐景融合的VLOG智能生成系统设计》文中指出随着新媒体逐渐呈现出技术赋能的发展趋势,视频博客(Video Blog,简称“Vlog”)以一种活跃增长的方式呈现在大众面前,并且以精细优质的内容产出成为一种广受欢迎的分享形式。在此环境下,Vlog视频拍摄与编辑软件不断迭代更新,软件功能同质化严重、缺乏创新性及智能性等痛点也随之而来。因此,本文旨在为Vlog创作提供更优、更合理的理论支持与解决方案,为视频创作者提供更智能、更便捷的操作指南与工具平台,进行了基于乐景融合的Vlog智能生成系统设计。本文研究围绕Vlog智能生成,做了以下工作:(1)首先提出了基于乐景融合的Vlog智能生成系统设计模型——MES模型,模型包含音乐、情感、场景三大关键要素,三者之间相互联系。该模型支持用户为导向、数据为资源、技术为手段的Vlog智能生成系统设计的研究方法,为全文工作奠定了理论基础;(2)构建了包含6大Vlog热门场景的场景库与Vlog音乐库,以MES模型为研究理论基础进行了“音乐-情感-场景”之间的映射关系实验,实验结果表明:纯音乐情感受场景情感影响,场景与音乐正确结合能够很好地提升视频总体的视听体验,并且音乐本身的信息与表达的情绪也会影响用户对于场景画面的选择;(3)提出了基于音乐节奏识别的音乐分析与视频合成方法,其具有自动标记音乐节奏点的特点。通过用户主观评价实验,将该方法与其他文章提出的方法进行比较,验证了本方法的有效性;(4)对上述工作进行整合,设计开发了网页版的AutoVlog智能生成系统,并通过用户体验实验验证了系统具有良好的有效性、效率性以及可用性。该系统为用户提供了个性化、智能化、一体化的创作体验,解决了现有视频剪辑工具同质化、非智能化、操作复杂化等问题。本文工作为“音乐-情感-场景”关系研究提供了有益的参考,也为视频生成产业贡献了一项可借鉴的应用案例。

孙金[2](2019)在《基于主动学习的人脸标注研究》文中研究说明由于移动电子设备的普及,人们可以随时随地接收和发送一些多媒体信息,越来越多的人通过社交网络例如Facebook、Instagram分享他们的照片、视频,从而导致了大量图片数据的产生。如何管理这些大量的图片成为一个亟待解决的问题。在这些大量的图片中大部分和人脸相关,因此人脸标注对于图片的管理、分类来说是一个非常重要的工具。传统的人脸标注方式有手工标注和自动化标注。手工标注是一个准确率较高的标注方式,但同时也是一个耗时、费力的方式。而自动化人脸标注依赖大量的标记数据训练模型。由于手工标注成本较大以及自动标注方式对标记数据的依赖,本文以人脸标注研究为基础,基于主动学习的半自动人脸标注方式为研究对象,利用结合了人脸的先验约束和上下文信息的分类模型,提出了高效的人脸标注方法。传统的分类模型基于样本之间的相似度进行分类,但由于人脸受到光线、角度、遮挡等诸多因素的影响,往往性能较差。本文利用人脸样本之间的约束(例如在同一张图片上出现的两张人脸肯定来自不同的人),提出了一个半自动人脸标注模型。该模型以马尔可夫随机场为基础,加入样本之间的匹配和非匹配约束,采用置信度传播算法更新样本状态,预测样本的标签。实验结果表明,在传统分类算法模型基础上加入人脸之间的约束可以提高分类的正确率。近年来,卷积神经网络得到了深入研究,并且取得了很多优秀的成果。不同于传统的分类模型,卷积神经网络直接将图片样本作为网络的输入,不需要对图片的抽象特征进行预提取,而人脸的特征提取一直是具有挑战性的任务。本文在卷积神经网络基础上,提出了一种基于平滑假设的半自动人脸标注模型。该模型利用了人脸样本之间的约束、上下文信息,并在网络更新的过程中加入基于平滑假设的平滑约束。实验结果表明加入了平滑度、约束和上下文信息的半自动人脸标注模型可以获得更好的性能。

阎安[3](2017)在《空间视域下城市广电媒体发展研究 ——以长三角城市台为例》文中研究说明城市广电媒体是城市现代传播体系的重要子系统,是地方党和政府的“喉舌”,也是满足市民精神文化需求和城市形象传播需要的窗口。本文从空间视域出发,在空间动力作用机制分析的基础上,着眼长三角城市广电媒体的现实问题,从第一空间规模对渠道的影响、第二空间需求对内容的影响、网络信息空间对媒体平台功能和架构的影响等三个方面进行分析,并对其典型案例、实践经验和未来可能的发展模式予以研究。从空间视域考察,大众传媒发展的现实过程是由多层次动力交互作用推动的,并存在多个维度的空间动力机制。在物质的第一空间,城市化进程推动了城市空间的扩张和人口的大规模集聚,进而带动基础设施建设和传媒相关产业发展,为大众传播提供了渠道资源。在精神与文化的第二空间,大众传媒进行精神生产,通过塑造“公共空间”和重建“想象的共同体”,在第二空间建构过程中发挥重要功能。城市精神文化空间建设的现实需求,也直接牵引大众传媒内容的生产方向。在由信息网络构成的“新的空间”,互联网实现了城市另一个界面的“可沟通性”,并重塑人类多个面向的社会关系。人与人的空间连接、人与城市的空间连接被技术重构,也进而导致大众传媒的功能转换与平台迁移。从第一空间维度看,城市化进程中,人口、资源、产业在特定空间的集聚产生了规模效应,驱动媒体渠道的空间扩张。高密度社区降低了广播电视基础设施建设的单位成本,使更加先进的通讯网络在城市化区域率先普及;受益于城市化区域旺盛的人口流动,广播电视无线传输渠道的移动优势得以发挥,以城市“动众”为服务对象的交通广播和移动电视成为城市广电新的增长点。对于城市广电而言,渠道的扩张和日益开放意味着“溢出效应”,但同时也意味着来自行业内强势媒体和行业外互联网巨头的更为激烈的市场竞争。随着信息技术的进一步发展,单纯的“规模驱动”将进入增速回落、直至增长乏力的阶段,而“创新驱动”将成为渠道拓展的新动力。对于城市广电来说,渠道资源将从垄断转向开放,从稀缺转向过剩。从第二空间维度看,当前中国城市呼唤理性、建设性的公共舆论空间,和具有包容度、亲近感的社会认同空间。正是上述需求,牵引着广电媒体的内容生产与创新。城市广电在电波和屏幕中,建构起一个虚拟的城市交流场域,在反映社会舆论的基础上设置议题、提供意见,并推动社会公众参与城市治理,由此促进公民社会的发展。城市广电发挥监测本土环境、沟通本地人群、传播地域文化、延续城市记忆、弘扬城市精神的功能,成为促成城市文明外化与具象化的重要媒介。城市台自办节目一直是城市民意表达与政治参与的窗口,在荧幕上呈现的家庭生活、日常礼节与习俗,为重建社会认同提供了帮助。对于城市广电来说,这是内容生产应该坚持的方向。从“一个新的空间”这一全新维度看,在城市空间被互联网深刻改造的背景下,城市广电的业务形态、组织架构和媒介功能也随之变革调整,作为内容产制者和渠道运营商的角色定位相应改变。城市广电转型发展而来的视听新媒体业务,尤其是带有网络社区特点的视音频网站,成为新技术条件下连接人与人的重要平台。这一转型延续并放大了广播电视自产生以来一直存在的促进社会沟通的功能,并融入了互联网社交化传播、生产主体民主化等特性优势。城市广电向城市综合信息平台的转型,不仅扩宽了传统节目类内容的传播渠道,更充分发挥了传统媒体信息整合的优势。通过对城市资讯、城市服务、城市消费等要素的整合,以大数据、物联网、云计算等为支撑,城市广电将转型成为推动智慧城市建设的重要力量。综合对“三个空间”动力作用趋势的判断,本文认为,第一空间的扩张驱动力将从“规模驱动”转为“创新驱动”,媒体渠道将从垄断变为“过剩”。在新的渠道生态下,城市广电应提高“善用渠道”的能力,着力降低渠道成本。通过区域资源整合与媒体协作、线上和线下渠道融合,实现渠道共享和内容价值最大化。在第二空间,由城市社会建设需求和精神文化需求牵引的内容生产仍将维系,城市广电仍是构建城市公共空间和社会认同的重要力量。通过深耕城市,捕捉城市化带来的新需求,可以推动城市广电不同类型的新节目研发;通过下沉到社区,实行“超级本地化”策略,可以以多样化的“小而美”生产赢得市场青睐。在网络信息空间,互联网越来越强的媒体属性和空间连接能力,将“倒逼”城市广电的融合与调整。通过广电媒体与新媒体的深度融合,实现节目、技术、平台、人才等生产要素逐步共享融通;通过探索平台经营的多元化战略,推动城市广电实现跨地域、跨媒体、跨行业经营。

陈泳瑾[4](2016)在《视频拥挤场景下快速目标检测算法的研究与实现》文中指出现代城市公安监控摄像头数量普遍达到万台以上,城市监控主要针对人、车两类目标,其中对于行人目标的检测,特别是在拥挤场景下行人目标快速准确的检测一直是该领域的一个难点,同时,目标检测也是计算机视觉和模式识别等领域的一个非常活跃的研究方向。本文首先分析研究了当前常用的目标检测算法,针对拥挤场景下的目标相互遮挡的难点,利用可变形部件模型(DPM)算法进行拥挤场景下的目标检测,达到了较好的检测准确性能,但由于该算法需要进行全局滑窗检测和金字塔计算,算法复杂度高,计算量大、实时性差,很难应用到实际智能视频分析系统中。本文针对实际智能视频分析系统的应用需求,提出分层检测原则,采用“由粗到精”的思想,对于给定的实验视频序列,首先通过对称差分提取动目标前景,快速定位潜在目标区域,利用可变形部件模型(DPM)对该潜在目标区域进行精确检测,在一定程度上降低了该算法的计算量,满足了特定视频拥挤场景下目标检测准确性和准实时的应用要求;同时,提出对快速粗定位目标潜在区域采用BING+DPM算法达到快速似物性检测,满足特定视频拥挤场景下快速目标检测的实时应用要求。本文利用INRIA和Pets2006等行人数据库对算法进行评估,获得算法对行人目标的准确率和查全率,得到PR曲线。再利用工程中心现有的实际系统平台的视频进行实验,实验结果表明虽然BING+DPM算法的目标检测正确率受BING算法性能的限制不如对称差分+级联DPM算法,但能够大幅提高检测速率,可以满足视频分析系统的实时性应用要求,对称差分+级联DPM算法能够获得较高的检测正确率,能够在一定程度上满足特定场景视频分析系统的实际应用要求,将两者有机结合可以在一定程度上满足特定视频拥挤场景下快速目标检测的准确性与实时性要求。

屈鉴铭[5](2015)在《智能视频监控中的运动目标检测与跟踪技术研究》文中进行了进一步梳理智能视频监控是近年来计算机视觉领域的研究热点,其核心目的是在图像处理、模式识别和人工智能等技术有效结合的基础上,利用计算机对所获取的图像数据进行自主的、逐层分步的计算与分析,实现对监控场景所蕴含的有效信息的感知、分析与理解。其研究成果已广泛应用于智能安防、智能交通、智能旅游、智慧城市及物联网建设等诸多领域,产生了巨大的社会经济效益。运动目标检测与跟踪技术是智能视频监控领域的核心基础与关键技术,尽管近年来针对这一技术的研究已经取得了巨太的进展,然而在各种复杂场景的条件下,仍然存在着算法准确性、鲁棒性及实时性不能完全满足应用需要的更深层次的技术挑战。本文在现有研究成果的基础上,以场景运动模式分析为出发点,针对运动目标检测与跟踪中的关键技术和难点问题展开更加深入的探索与研究,其主要工作概括如下:1)针对监控场景局部区域运动规律的感知与表达,提出一种基于网格划分的有向场景运动模式的建模和更新方法。该方法利用正方形网格将监控场景划分为多个子区域,通过建立一种运动速率加权的光流方向直方图,描述目标在不同子区域产生不同方向运动行为的概率。依据提取的序列图像中KLT角点特征,计算场景中的稀疏光流,再利用局部的光流信息采用线性插值算法对相应子区域的方向直方图进行加权投票,从而实现对有向场景运动模式模型的在线更新。针对监控相机与运动目标的空间关系,算法还引入了区域相关的权值补偿系数,以消除由于观测角度不同可能导致的投票失衡问题。通过实验分析证明,该算法能够较为准确地描述场景中局部区域的运动规律,并实现模型的快速在线更新。2)针对场景区域划分与场景运动模式之间的关系,提出一种基于背景分割的有向场景运动模式建模方法。该方法首先采用混合高斯模型提取监控场景的背景图像。通过基于K-means聚类的SLIC超像素分割方法,将其划分为多个与场景元素边缘吻合的超像素子区域。针对每个子区域,构建一种基于LK光流的速率方向二维直方图模型,用以描述局部区域的场景运动模式。实验表明,该模型能够利用数量较少的超像素子区域,更为有效地表达局部区域不同速率和方向的运动概率密度分布,在一定程度上克服了局部区域运动模式不一致的问题,提高了模型描述的准确性,并满足实时监控系统的性能需求。3)针对场景布局元素与场景运动模式之间的关系,提出一种基于有向场景运动模式的局部场景理解方法。该方法根据场景布局元素对目标运动的影响,将场景区域分为路径区域、出入口区域、徘徊区域和一般区域等类别,通过场景运动模式模型对不同子区域进行标注。首先依据速率方向直方图获取超像素子区域的高速运动概率分布,进而得到相邻子区域的运动行为的角度相似性距离和频率相似性距离,用以计算其运动转移概率。通过由子区域的邻接关系和运动转移概率所建立的有向图,将运动区域标注问题转化为对有向图的最优路径搜索问题,从而实现对场景中主要运动路径区域的标注。其后,对运动路径两端的子区域使用DBSCAN密度聚类,以标注不同的出入口子区域。最后,利用低速条件下不同方向运动概率的方差,来量化子区域的徘徊运动特性,实现对徘徊区域的标注。实验分析表明,该方法能够有效获取场景中的主要路径、出入口和徘徊区域,实现对局部场景的语义理解。4)针对运动目标检测与场景运动模式之间的关系,提出一种结合场景运动模式的并行级联有向AdaBoost运动目标检测方法。该方法首先提出一种改进的积分图算法与积分直方图算法,提取样本中的Haar-like特征与方向梯度直方图特征,用以描述目标图像的颜色与边缘特性;其后针对场景运动模式模型的不同方向簇,基于Cascade级联学习算法,对多个Gentle AdaBoost子分类器进行训练;最后利用局部场景运动模式作为检测先验,通过速率方向直方图对区域运动的概率描述,并行地融合多个子分类器,形成对运动目标检测结果的最终决策。实验表明,这种目标检测方法能够有效提高AdaBoost目标检测算法的分类性能,明显地改善目标检测的准确性和实时性。5)针对运动目标跟踪与场景运动模式之间的关系,提出一种结合在线场景运动模式模型的粒子滤波运动目标跟踪方法。该方法首先采用通道加权的HSV空间颜色直方图描述运动目标特性,通过定义色调通道的循环相关矩阵以消除光照变化造成的目标色调分布平移问题。其次,使用场景运动模式模型对粒子的似然概率进行修正,加快其向目标真实状态收敛的速度,并采用MCMC重采样算法以克服粒子滤波的样本退化和样本枯竭问题。为实现场景运动模式的在线学习,本文还提出一种基于凸多边形扫描线种子填充的遍历算法,实现对目标运动覆盖的场景子区域的快速枚举。通过对两个不同特点的公共数据集视频进行目标跟踪实验,表明了该目标跟踪算法的平均跟踪误差明显低于标准的粒子滤波跟踪算法,能够明显改善粒子滤波跟踪算法的跟踪精度。

孙伟[6](2014)在《多特征融合的室内场景分类研究》文中指出室内场景分类是场景分类的一个研究领域,同时也是场景分类的一个研究难点。如有效解决室内场景分类精度低的问题,将有助于室内场景分类在场景图片检索、视频检索及机器人等领域的应用。因此,室内场景分类的研究具有重要的意义。当前应用室内场景分类主要两种特征模型:第一种是David G等人提出的空间金字塔模型以及Bosch A等人提出的金字塔梯度直方图模型;第二种是Oliva等人提出的场景形状整体空间包络模型。本文提出了一种局部特征和全局特征融合的室内场景分类方法。这种方法结合了局部特征的细节性和全局特征的全貌性,适当提高了室内场景分类精度。首先,本文综述了室内场景分类相关的背景知识,以及它的研究意义;分析了室内场景分类的研究现状。其次,本文阐述了获取尺度不变特征转换(SIFT, Scale-invariant feature transform)的详细过程,Gist特征概念及获取的过程,PHOG (Pyramid Histogram of Orientated Gradients)特征概念及获取过程,SVM分类器,PCA(Principle Component Analysis)降维。其中SIFT特征和PHOG特征属于场景图像的局部特征,Gist特征属于场景图像的全局特征。另外,本文还阐述了在多特征下进行多特征融合的方法。第三,本文提出了改进的SIFT特征提取方法。经典空间金字塔模型在提取场景图像SIFT特征时,会生成n*128维的特征矩阵,其中n为关键点的个数,也就是矩阵行数,128为关键点的特征维度。这种情况下场景图像特征矩阵存在大量0元素,从而导致场景分类精度很低。为此,本文根据关键点位置进行聚类处理,再提取SIFT特征,得到统一维度的SIFT特征矩阵后再进行降维处理。另外,本文详细阐述了Gist特征和PHOG特征获取的具体的步骤、详细分析了多特征融合的室内场景分类方法的整体架构及具体研究了室内场景多特征的生成。第四,本文进行了实验与结果分析。首先进行了室内场景图像的训练集和测试集占比的实验,从实验得出最佳的占比,这有助于室内场景分类;然后进行了室内场景分类实验,通过对比可以得出相比单一特征的室内场景分类,多特征的室内场景分类确有优越性。最后在前两个实验的基础上,进行改进的多特征融合的室内场景分类实验,来进一步提高室内场景分类的精度。最后,本文总结了所做的工作,并对于当前研究内容进行了展望,提出需要改进地方,为下一步研究做指引。

刘华成[7](2014)在《人脸活体检测关键技术研究》文中研究表明人脸识别系统正面临着照欺骗的威胁,因为一张合法身份的照片也可以入侵人脸识别系统。人脸图像包含着丰富的图像特征信息,是复杂的机器视觉模式。数字化的人脸图像有形状,纹理,轮廓等一系列信息,可以表征年龄,肤质,人脸真伪,身份等。比如一张宽240像素,高320像素大小的RGB图像,像素维数可达240×320维,可见它反映一个人的信息是相当丰富的,也可以用来辨别图像的真伪。随着科学技术不断进步,计算机迅速发展,模式识别为图像取证开创了一片新天地。针对人脸真实图像和欺骗照片的特征差异,本文用不同方式提取数字照片的纹理统计信息,研究了鉴别人脸真实性的方法,本文算法只需要采集单张图像就能识别是真实人脸还是欺骗的照片,从获取的人脸图像规律出发,在人脸识别的活体检测中取得了良好的性能。(1) DCT变换能够将活体真实人脸图像的大部重要信息映射到DCT域低频部分,而高频部分大多为噪声。考虑到可以在DCT域将高频噪声因素去除,而低频系数更好的反映真实人脸与翻拍人脸的差异,提出了将人脸图像进行均值滤波、直方图均衡后再提取DCT系数低频系数作为特征,用SVM分类器能很好地将真伪人脸区分开来。(2)图像的纹理特征是场景组织构造的真实反映,不同的纹理算子描绘了图像灰度信息的分布规律。纹理分析是图像处理技术中一种重要的手段。纹理是表征活体真实人与翻拍照片轮廓细节信息的有效方式,因此选择合适的纹理描述算子可以将两者区分开。选取灰度共生矩阵,边缘方向直方图,LBP等作为图像特征提取的研究目标。通过测试比较,提出了基于Tamura纹理特征和LAP纹理等检测算法,在区分活体真实人照片与翻拍照片上得了很好的效果。(3)数字图像直方图在图像的分析与观察中占有重要地位,一幅图像的直方图描述了不同色阶在当前图像中的比例,反映了色彩的统计规律,它在图像模式识别和图像分割中有着重要意义。在研究了真实人脸照片和假冒的翻拍照片之后,发现两类照片直方图呈现不同分布,因此提出了基于HSV颜色直方图的活体检测方法。(4)由于图像的像素灰度值可构成一个矩阵,可以用矩阵的奇异值来描述图像的内在属性。奇异值是对矩阵中数字信息的本质反映,而且奇异值对矩阵中的数字轻微波动并不敏感,具有镜像稳定性、比例不变性、旋转不变性等优点,在进行图像识别时鲁棒性更强。经实验发现,用不同方式提取图像的奇异值在区分能力上,也有较大差别。因此本文提出了一种合理的特征提取方式,用来进行活体检测。

徐俊瑜[8](2013)在《数字视频被动取证技术研究》文中指出以数字图像、数字视频为代表的数字多媒体资源具有易编辑、易复制、易传播等特性,普通用户借助通用多媒体编辑软件便可对其进行非常逼真的编辑或篡改,且不会留下直观的视觉痕迹。数字多媒体被动取证技术就是在这种背景下应运而生的,它是在无预先嵌入特定指示性信息的情况下,“被动”地检测数字媒体的来源,及其真实性和完整性的新型认证技术。本文以数字视频资源为研究对象,围绕数字视频来源取证与典型篡改检测两个核心问题,对数字视频被动取证技术展开了较为深入的研究。主要创新性工作包括以下五个方面:(1)提出了一种基于编码开放模块差异的视频来源检测算法。通过深入分析现有视频压缩编码标准体系的特点,以视频编码标准中的两个开放模块——码率控制与运动预测为研究重点,分析并总结在MPEG-2编码标准下,不同来源的编码器之间的差异,然后基于这些差异构建了三类针对性的特征集,最后引入支持向量机实现多类视频资源的来源鉴别和追溯。(2)提出了一种针对MPEG-2标准的视频双压缩检测算法。通过定性和定量分析,发现MPEG-2标准下的数字视频在经历二次压缩编码过程后,其DCT系数分布发生规律性的变化,并以此为依据构建检测特征集,结合高性能分类算法,最终实现在多种编码参数条件下的二次压缩编码过程检测。(3)提出了一种针对MPEG-2格式转为MPEG-4格式的视频转码检测算法。在给出了重建DCT系数分布模型的基础之上,定量分析了视频转码操作对DCT系数分布造成的直接影响,并定义了全局和局部检测特征,其在不同的编码参数设置条件下,均能很好地区分原始视频资源与转码视频资源。(4)提出了一种基于高频能量变化的视频帧编辑检测算法。视频帧编辑操作会破坏原始视频帧类型分布,导致篡改视频帧序列中存在周期性的帧类型转变。同时不同编码类型帧之间对应的高频能量也因非线性量化而存在差异。本文通过构建帧高频能量特征,并引入Morlet小波分析其变化规律,在判断待测视频是否经过了帧编辑操作的同时,能够进一步探测帧编辑位置。(5)提出了一种基于频域残差的视频帧滤波检测算法。平滑滤波操作在消除噪声的同时,也会导致视频帧的高频信息大量损失,检测算法通过引入再次滤波过程,利用频域残差来分析视频帧的高频损失程度。最后,借助Radon变换与曲线建模的方法,能有效地区分原始视频帧与经过平滑处理的视频帧。

陶玮[9](2013)在《基于条件随机场和关联分析的场景分类》文中提出随着成像技术、计算机技术、网络技术和存储技术的快速发展,图像处理方面的研究也越来越得到学者们的重视。图像因其能传递丰富内涵信息,成为信息的重要载体。场景图像内容的合适表述和分类是解决图像有效的管理与快速的检索这一问题的两个关键技术。而场景分类整个过程涵盖了从分割,标注,识别到上下文推导等图像处理技术的多个方向。本论文从分割入手,对图像中物体类别的分类和场景类别的推导进行了相关研究。由于任何一种分割算法都无法完美的实现普适的图像分割问题。本文采用多尺度分割方法,希望得到多层的分割结果,为以后的物体识别提供更多层面的线索。本文运用采用森林结构的语言纹理基元分割算法得到过分割结果,在此基础上,提出了一种二叉树结构的归并算法得到较小分割部分的多尺度分割结果。最终提取其中的两层结果。本文将场景中的物体分成两大类:前景和背景。借助于多尺度分割提取的两层结果,运用一个条件随机场来描述这四层内容。通过训练,实现场景中物体类别的分类。本论文利用关联分析的方法挖掘物体类别与场景类别之间的关系。通过建立各个场景类别中物体类别的频繁项集,得到场景类别和物体类别之间的关系。本文还对信息缺失、重叠等情况进行了讨论,并提出解决方案。

邵军[10](2013)在《基于场景分类的图像质量评价》文中提出随着计算机与数字多媒体的迅速发展,图像的场景理解与质量评价迅速成为迫切需要解决的问题。本文的工作主要分为两大类:图像场景分类算法研究与图像质量评价算法研究。本文首先从场景图像中提取传统的特征描述子,并使用ScSPM方法来对所提取出来的特征进行编码,以减小特征之间的重复性,提高分类准确率。本文提出了组合贝叶斯网络分类模型,组合贝叶斯网络是在贝叶斯网络与随机森林算法的基础上提出的一种分类算法。经过大量实验验证,组合贝叶斯网络继承了贝叶斯网络与随机森林的优点。组合贝叶斯网络方法能快速的对数据集进行分类,并且拥有贝叶斯网络的特征之间关系的可视化的优点,保持了贝叶斯网络概率模型。同时组合贝叶斯网络又具有随机森林算法的不过拟合的特性,并且能够通过分析得到数据集内部的变量之间的重要性排名。使用本文提出的组合贝叶斯网络算法能够快速准确得到场景的分类结果。在场景分类的基础上,本文提出了一种评价图像质量的方法。通过场景分类,可以得到图像的内容,从而针对不同的图像内容使用不同的目标区域提取的方案。本文根据图像的色彩与结构特点提出了新的全局特征和局部特征来评价图像质量,并且这些特征有较高的准确率。通过在大量数据集上所做的大量实验可以显示出目标区域提取方法和所提出的特征在不同种类的图像中都能够取得理想的分类效果。

二、一种类似视频场景分割的家庭数字照片分类方法研究(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、一种类似视频场景分割的家庭数字照片分类方法研究(论文提纲范文)

(1)基于乐景融合的VLOG智能生成系统设计(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景
        1.1.1 视频制作智能化的发展趋势
        1.1.2 乐景融合研究的必要性
    1.2 研究动机与研究方向
        1.2.1 研究动机
        1.2.2 研究方向
    1.3 研究意义与价值
    1.4 研究思路与组织架构
第2章 国内外相关理论研究与应用文献综述
    2.1 乐景探究之线索
        2.1.1 声音的特性
        2.1.2 自然之声与音乐创作
        2.1.3 乐景融合的情感体验
        2.1.4 本节小结
    2.2 基本乐理与音乐特征
        2.2.1 基础要素
        2.2.2 音乐表达方式
        2.2.3 本节小结
    2.3 情感模型与维度
        2.3.1 离散情感模型
        2.3.2 连续情感模型
        2.3.3 特定场景的情感维度
        2.3.4 本节小结
    2.4 视频自动生成应用文献综述
        2.4.1 音乐驱动视频生成
        2.4.2 视频内容驱动视频生成
        2.4.3 本节小结
    2.5 本章小结
第3章 VLOG智能生成系统设计模型研究
    3.1 模型关键要素
        3.1.1 Vlog解构
        3.1.2 场景、情感与音乐
    3.2 MES模型构建
    3.3 MES模型应用实践方法
        3.3.1 设计思路
        3.3.2 实施框架
    3.4 本章小结
第4章 MES模型映射关系研究
    4.1 研究目标与框架
        4.1.1 研究问题与目标
        4.1.2 研究方法与框架
    4.2 目标用户与实验群体分析
    4.3 VLOG音乐实验库构建
        4.3.1 音乐实验库数据基础与构建流程
        4.3.2 音乐筛选
        4.3.3 音乐实验库构建
    4.4 VLOG场景实验库构建
        4.4.1 场景实验库构建流程
        4.4.2 场景筛选
        4.4.3 场景实验库构建
    4.5 MES模型映射关系实验
        4.5.1 实验方法与框架
        4.5.2 实验调研表设计
        4.5.3 实验过程
    4.6 MES模型映射关系实验结果与分析
        4.6.1 音乐与情感映射关系
        4.6.2 场景与情感映射关系
        4.6.3 音乐与场景映射关系
        4.6.4 实验结果总结
    4.7 MES模型映射关系验证实验
        4.7.1 验证方法
        4.7.2 验证过程
        4.7.3 验证结果与分析
    4.8 本章小节
第5章 AutoVlog整体设计案例实践
    5.1 整体设计框架
    5.2 参数选择方法
    5.3 音乐推荐方法
    5.4 音乐分析方法
        5.4.1 音乐节奏识别算法设计框架
        5.4.2 音乐特征提取
        5.4.3 模式定义与识别
        5.4.4 结果优化排序
    5.5 视频合成方法
    5.6 AutoVlog软件系统设计
        5.6.1 系统交互流程
        5.6.2 高保真界面设计
    5.7 模块整合与系统开发
    5.8 本章小节
第6章 AutoVlog用户体验实验
    6.1 音乐节奏识别算法效果验证
        6.1.1 验证方法与指标
        6.1.2 用户实验设计
        6.1.3 验证实验结果
    6.2 AutoVlog用户体验实验
        6.2.1 实验方法与框架
        6.2.2 可用性量表设计
        6.2.3 实验过程
        6.2.4 体验结果与分析
    6.3 本章小节
第7章 总结
    7.1 研究要点
    7.2 不足与展望
参考文献
攻读硕士学位期间的主要研究成果
致谢

(2)基于主动学习的人脸标注研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景及意义
        1.1.1 研究背景
        1.1.2 研究意义
    1.2 国内外研究现状
    1.3 研究内容、研究方法和研究技术路线
        1.3.1 研究内容
        1.3.2 研究方法
        1.3.3 研究技术路线
        1.3.4 研究可行性分析
    1.4 本文组织结构
第二章 相关工作
    2.1 人脸标注相关研究
        2.1.1 基于个人相册集的人脸标注
        2.1.2 基于网络的人脸标注
        2.1.3 基于监督学习的人脸标注
        2.1.4 基于无监督学习的人脸标注
        2.1.5 基于视频的人脸标注
    2.2 基于主动学习的半自动人脸标注研究
    2.3 本章小结
第三章 基于主动学习的人脸标注流程
    3.1 数据预处理
        3.1.1 人脸目标检测
        3.1.2 人脸矫正和图像预处理
        3.1.3 人脸特征提取
    3.2 基于主动学习的人脸标注
        3.2.1 人脸标注框架
        3.2.2 主动学习算法的选择
    3.3 本章小结
第四章 基于马尔可夫随机场的半自动人脸标注方法
    4.1 问题提出
    4.2 相关定义
        4.2.1 马尔可夫随机场
        4.2.2 人脸约束
    4.3 马尔可夫随机场模型
        4.3.1 约束的生成
        4.3.2 判别模型
        4.3.3 主动学习选择样本
    4.4 实验及结果分析
        4.4.1 实验数据集介绍
        4.4.2 数据集预处理
        4.4.3 实验结果分析
    4.5 本章小结
第五章 基于平滑假设的半自动人脸标注方法
    5.1 问题提出
    5.2 相关定义
    5.3 平滑约束
        5.3.1 上下文信息
        5.3.2 平滑度计算
    5.4 交互式人脸标注框架
        5.4.1 框架
        5.4.2 人工标注
    5.5 实验及结果分析
        5.5.1 实验数据集介绍
        5.5.2 数据集预处理
        5.5.3 实验结果分析
    5.6 本章小结
第六章 总结与展望
    6.1 本文总结
    6.2 展望
参考文献
致谢
在学期间的研究成果及发表的学术论文

(3)空间视域下城市广电媒体发展研究 ——以长三角城市台为例(论文提纲范文)

摘要
Abstract
绪论
    一、问题的提出与选题意义
    二、研究对象及概念界定
    三、相关理论和研究综述
    四、研究思路、方法与总体设计
第一章 城市广电发展的空间动力机制
    第一节 第一空间演进及其发展驱动力
        一、第一空间特征
        二、城市第一空间的历史演变
        三、第一空间动力机制——规模驱动
    第二节 第二空间建构及其发展驱动力
        一、第二空间特征
        二、大众传媒与第二空间的建构
        三、第二空间动力机制——需求牵引
    第三节 “一个新的空间”的诞生及其发展驱动力
        一、“一个新的空间”及其特征
        二、“新的空间”对城市第一、第二空间的改造
        三、一种新的动力机制——功能拓展
    本章小结
第二章 第一空间维度:规模驱动与城市广电的渠道扩张
    第一节 空间集聚效应下的渠道扩张
        一、渠道扩张的人口动力来源
        二、城市规模与广电媒体渠道扩张之关系探讨
        三、长三角广电网络整合及对城市台的影响
        四、网台关系新格局下的城市广电发展
    第二节 空间流动机遇下的渠道扩张
        一、渠道扩张的交通动力来源
        二、城市交通与广电媒体渠道扩张之关系探讨
        三、长三角交通广电发展现状及趋势分析
        四、移动终端挑战与渠道发展的新机遇
    本章小结
第三章 第二空间维度:需求牵引与城市广电的内容优化
    第一节 空间治理需求牵引下的内容优化
        一、长三角城市媒体公共空间建设需求分析
        二、城市广电参与社会公共空间建设的机制与作为
        三、公民社会建设中的城市广电内容生产
        四、个案分析:城市民意表达与政治参与的窗口——《民声》
    第二节 空间认同需求牵引下的内容优化
        一、长三角城市居民社会认同建构需求分析
        二、广电媒体参与城市认同空间重构的机制与作为
        三、“家园城市”建设中的广电媒体内容生产
        四、个案分析:城市认同建构的真人秀样本——《新老娘舅》
    本章小结
第四章 新的空间维度:功能拓展与城市广电的平台再造
    第一节 适配城市社交空间的平台再造
        一、重构人与人的空间连接
        二、实践一:从广播电视台到视音频社区
        三、服务于社交城市的平台运营方式及空间属性
        四、个案分析:独具特色的城市视频社区——“葫芦网”
    第二节 融合城市智慧空间的平台再造
        一、重构人与城市的空间连接
        二、实践二:从内容媒体到城市综合信息平台
        三、服务于智慧城市的平台运营方式及空间属性
        四、个案分析:活跃于掌端的智慧城市——“无线苏州”
    本章小结
第五章 长三角城市广电媒体发展的策略与构想
    第一节 整合与开发:城市广电渠道延伸的新命题
        一、对第一空间动力作用趋势的基本判断
        二、整合:区域一体化趋势卞的城市台联盟合作
        三、开发:打通“线上+线下”的新媒体渠道
    第二节 深耕与下沉:城市广电内容创新的新理念
        一、对第二空间动力作用趋势的基本判断
        二、深耕:深度满足城市化需求的节目研发
        三、下沉:紧贴社区生活的“小而美”内容生产
    第三节 融合与跨界:城市广电平台升级的新思路
        一、对“新的空间”动力作用趋势的基本判断
        二、融合:推动城市广电与新媒体深度融合
        三、跨界:积极探索平台经营的多元化战略
    本章小结
研究总结与展望
    一、研究总结与衍生讨论
    二、研究局限与未来展望
附录A
附录B
参考文献
后记
在读期间相关成果发表情况

(4)视频拥挤场景下快速目标检测算法的研究与实现(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究的背景与意义
        1.1.1 研究背景及意义
        1.1.2 目标检测技术难点
    1.2 目标检测算法及研究现状
    1.3 论文主要内容及章节安排
        1.3.1 论文主要工作
        1.3.2 论文结构安排
第二章 快速提取潜在目标区域算法
    2.1 帧间差分法
    2.2 背景减除法
    2.3 光流法
    2.4 实验结果与分析
    2.5 本章小结
第三章 BING+DPM目标检测算法
    3.1 似物性检测
        3.1.1 BING算法
        3.1.2 实验结果与分析
    3.2 可变形部件模型
        3.2.1 HOG特征提取
        3.2.2 增强型的HOG特征
        3.2.3 可变形部件模型建模
    3.3 本章小结
第四章 可变形部件模型检测算法
    4.1 可变形部件模型检测
        4.1.1 可变形部件模型检测
        4.1.2 实验结果与分析
    4.2 可变形部件模型级联检测
        4.2.1 级联模型和检测算法
        4.2.2 剪裁阈值
        4.2.3 简化部件模型
        4.2.4 实验结果与分析
    4.3 可变形部件模型训练算法
        4.3.1 支持向量机
        4.3.2 隐支持向量机
        4.3.3 模型的训练
    4.4 本章小结
第五章 系统算法测试与分析
    5.1 视频拥挤场景下快速目标检测算法框架
    5.2 模型数据库
        5.2.1 模型训练数据库
        5.2.2 模型检测数据库
    5.3 算法测试与分析
        5.3.1 检测算法速度分析
        5.3.2 检测算法精度分析
    5.4 本章小结
第六章 总结与展望
参考文献
附录1 攻读硕士学位期间申请的专利
附录2 攻读硕士学位期间参加的科研项目
致谢

(5)智能视频监控中的运动目标检测与跟踪技术研究(论文提纲范文)

摘要
ABSTRACT
缩略语对照表
第一章 绪论
    1.1 研究背景和意义
        1.1.1 智能视频监控技术的动力和发展前景
        1.1.2 智能视频监控技术的应用
        1.1.3 智能视频监控的研究方向和内容
    1.2 国内外研究现状
    1.3 技术难点与研究思路
    1.4 主要工作与章节安排
        1.4.1 主要工作
        1.4.2 论文章节安排
第二章 基础理论与关键技术
    2.1 目标特征提取
    2.2 运动目标检测
        2.2.1 基于图像差分的运动目标检测
        2.2.2 基于特征分类的运动目标检测
    2.3 运动目标跟踪
        2.3.1 自底而上的运动目标跟踪
        2.3.2 自顶向下的运动目标跟踪
    2.4 场景运动模式分析
    2.5 公共实验数据集
    2.6 本章小结
第三章 场景运动模式建模及场景理解
    3.1 基于网格划分的有向场景运动模式模型
        3.1.1 Lucas-Kanade光流
        3.1.2 速率加权方向直方图模型
        3.1.3 投票权值补偿
        3.1.4 算法实现
    3.2 基于图像分割的有向场景运动模式模型
        3.2.1 混合高斯背景模型
        3.2.2 超像素场景划分
        3.2.3 速率方向直方图模型
        3.2.4 算法实现
    3.3 基于有向场景运动模式的局部场景理解
        3.3.1 运动路径提取
        3.3.2 出入口区域标记
        3.3.3 徘徊区域标记
    3.4 实验与结果分析
    3.5 本章小结
第四章 基于场景运动模式的运动目标检测
    4.1 AdaBoost学习模型
        4.1.1 集成学习概述
        4.1.2 AdaBoost训练过程
        4.1.3 Gentle AdaBoost分类学习模型
    4.2 基于场景运动模式的有向级联AdaBoost目标检测
        4.2.1 特征计算
        4.2.2 有向级联子分类器构造
        4.2.3 并行级联分类
    4.3 实验结果与分析
    4.4 本章小结
第五章 结合场景运动模式的目标跟踪方法研究
    5.1 模型驱动的目标跟踪框架
        5.1.1 卡尔曼滤波理论
        5.1.2 贝叶斯估计与序贯蒙特卡罗积分
        5.1.3 粒子滤波理论
    5.2 结合在线有向场景运动模式的MCMC粒子滤波目标跟踪方法
        5.2.1 状态空间与特征选取
        5.2.2 MCMC重采样
        5.2.3 结合场景运动模式的似然计算
        5.2.4 在线模型更新
    5.3 实验与结果分析
    5.4 本章小结
第六章 总结与展望
    6.1 论文工作总结
    6.2 本文主要创新点
    6.3 未来研究展望
参考文献
致谢
作者简介

(6)多特征融合的室内场景分类研究(论文提纲范文)

摘要
Abstract
目录
Contents
第一章 绪论
    1.1 场景分类研究背景
    1.2 室内场景分类研究背景
    1.3 室内场景分类研究意义
    1.4 室内场景分类研究现状
        1.4.1 基于低级特征的方法
        1.4.2 基于中层特征的方法
        1.4.3 基于视觉词包的方法
    1.5 论文主要工作与组织结构
        1.5.1 论文的主要工作
        1.5.2 论文的组织结构
    1.6 本章小结
第二章 室内场景分类算法的相关理论
    2.1 总体介绍
    2.2 SIFT特征介绍
    2.3 SIFT特征生成
        2.3.1 尺度空间的生成
        2.3.2 高斯金字塔的生成
        2.3.3 尺度空间极值点的检测
        2.3.4 定位精确的极值点
        2.3.5 为关键点指定方向参数
        2.3.6 生成关键点描述子
    2.4 主分量分析
    2.5 模糊C均值聚类
    2.6 支持向量机
        2.6.1 线性可分
        2.6.2 线性不可分
    2.7 PHOG特征
        2.7.1 图像梯度的定义
        2.7.2 HOG算法介绍
    2.8 Gist特征
        2.8.1 Gist概念
        2.8.2 Gist的计算模型
    2.9 多特征向量融合方法
        2.9.1 等权平均方法
        2.9.2 最小方差组合法
    2.10 本章小结
第三章 基于多特征融合的室内场景分类研究
    3.1 引言
    3.2 基于局部特征的室内场景分类算法
        3.2.1 改进的SIFT特征
        3.2.2 PHOG特征提取
    3.3 基于全局特征的室内场景分类算法
        3.3.1 Gist特征提取
    3.4 融合多特征的室内场景分类算法
        3.4.1 融合多特征总体框架
        3.4.2 多特征融合方式
    3.5 本章小结
第四章 室内场景分类实验与结果分析
    4.1 室内场景分类算法实验结果比较分析
        4.1.1 实验图像数据库和实验平台
        4.1.2 训练集与测试集的占比实验
        4.1.3 室内场景图像分类实验
        4.1.4 改进的多特征融合的室内场景分类实验
    4.2 室内场景分类的关键要素
    4.3 本章小结
结论和展望
参考文献
攻读学位期间发表的论文
致谢

(7)人脸活体检测关键技术研究(论文提纲范文)

论文摘要
Abstract of Thesis
引言
1 绪论
    1.1 研究背景和研究意义
    1.2 国内外研究现状
        1.2.1 基于视频场景的活体检测方法
        1.2.2 基于单张照片活体检测方法
        1.2.3 多膜态活体检测技术
        1.2.4 研究现状小结
    1.3 本课题研究思路及主要内容
2 图像数据库构建和相关理论分析
    2.1 用于活体检测的人脸图像库构建
        2.1.1 现有人脸库介绍
        2.1.2 活体检测图像库构建
    2.2 翻拍图像与真实人脸图像生成原理
    2.3 常用的图像处理技术
        2.3.1 图像灰度化
        2.3.2 图像的直方图均衡化
        2.3.3 同态滤波
    2.4 基于 Adaboost 的人脸检测方法
    2.5 SVM 分类器理论
    2.6 本章小结
3 基于 HSV 颜色空间直方图的活体检测技术研究
    3.1 双线性插值法
    3.2 RGB 颜色空间到 HSV 颜色空间转换
    3.3 基于 HSV 颜色直方图活体检测
    3.4 实验效果验证
    3.5 本章小结
4 基于 DCT 系数的活体检测算法
    4.1 离散余弦变换
    4.2 图像预处理
    4.3 图像 DCT 变换并提取 DCT 系数
    4.4 数据采集与实验分析
    4.5 本章小结
5 基于 SVD 和 HSV 直方图活体检测算法
    5.1 图像的奇异值提取
    5.2 图像奇异值特征的优点
        5.2.1 稳定性
        5.2.2 转置不变性
        5.2.3 旋转不变性
        5.2.4 镜像不变性
    5.3 基于奇异特征分解的图像特征提取
    5.4 实验
    5.5 本章小结
6 基于 Tamura 纹理和 LAP 的活体检测研究
    6.1 Tamura 纹理特征提取
        6.1.1 粗糙度
        6.1.2 对比度
        6.1.3 方向度
    6.2 LAP 特征提取
    6.3 LAP 与 Tamura 纹理特征实验
    6.4 本章小结
7 总结与展望
    7.1 本文工作总结
    7.2 研究工作展望
参考文献
在校研究成果
致谢

(8)数字视频被动取证技术研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 多媒体取证研究背景及意义
    1.2 数字多媒体取证技术
        1.2.1 基于数字签名的主动取证技术
        1.2.2 基于数字水印的主动取证技术
        1.2.3 数字多媒体被动取证技术
    1.3 研究内容与主要研究成果
    1.4 本文结构
第二章 数字媒体被动取证技术研究现状
    2.1 数字图像被动取证技术
        2.1.1 数字图像来源鉴别
        2.1.2 数字图像篡改检测
    2.2 数字视频被动取证技术
        2.2.1 数字视频来源鉴别
        2.2.2 数字视频篡改检测
    2.3 其他多媒体载体的被动取证技术
        2.3.1 打印机、扫描仪取证
        2.3.2 计算机生成图像取证
        2.3.3 音频取证
    2.4 媒体被动取证技术的对抗性攻击
    2.5 本章小结
第三章 数字视频来源取证算法
    3.1 引言
    3.2 研究现状
    3.3 基于编码开放模块差异性的来源取证算法
        3.3.1 视频编码标准的开放模块
        3.3.2 视频来源检测方案
    3.4 实验结果与分析
        3.4.1 编码器参数设置
        3.4.2 不同种类的来源识别
        3.4.3 相同种类的来源识别
    3.5 本章小结
第四章 数字视频双压缩检测算法
    4.1 引言
    4.2 研究现状
    4.3 基于原始压缩痕迹的双压缩检测算法
        4.3.1 原始 MPEG-2 视频压缩痕迹
        4.3.2 MPEG-2 双压缩检测算法
        4.3.3 实验结果与分析
        4.3.4 视频转码检测算法
        4.3.5 实验结果与分析
    4.4 本章小结
第五章 数字视频帧编辑检测算法
    5.1 引言
    5.2 研究现状
    5.3 基于高频能量变化的帧编辑检测算法
        5.3.1 高频能量分析
        5.3.2 帧编辑检测算法
    5.4 实验结果与分析
        5.4.1 相同输出码率下的检测分析
        5.4.2 不同输出码率下的检测分析
    5.5 本章小结
第六章 数字视频帧平滑滤波检测算法
    6.1 引言
    6.2 研究现状
    6.3 基于频域残差的滤波检测算法
        6.3.1 图像的频域残差分析
        6.3.2 检测方案
    6.4 实验结果与分析
        6.4.1 图像滤波检测
        6.4.2 视频帧滤波检测
    6.5 本章小结
第七章 总结与展望
    7.1 本文工作总结
    7.2 未来研究展望
参考文献
发表论文和科研情况说明
附录
致谢

(9)基于条件随机场和关联分析的场景分类(论文提纲范文)

摘要
ABSTRACT
1 绪论
    1.1 课题研究背景及研究意义
    1.2 场景图像分类的研究现状
        1.2.1 场景分类的主要研究方法
        1.2.1.1 基于低级特征的方法
        1.2.1.2 基于场景结构的方法
        1.2.1.3 基于视觉词汇的方法
        1.2.2 当前存在的主要问题
    1.3 本文的研究内容和组织结构
2 图像分割
    2.1 经典分割算法
    2.2 森林结构和 Texton 算法
        2.2.1 随机决策森林
        2.2.2 语义纹理基元森林(Semantic Texton Forests)
        2.2.3 Bag of Semantic Textons
        2.2.4 语义分割
    2.3 本章小结
3 基于树结构的多尺度分割
    3.1 多尺度分割
    3.2 基于树结构的多尺度分割算法
    3.3 本章小结
4 条件随机场推断物体类别
    4.1 条件随机场理论
        4.1.1 有向图模型
        4.1.1.1 生成模型的局限性
        4.1.1.2 最大熵马尔可夫模型
        4.1.2 条件随机场的无向图结构
        4.1.3 最大熵理论
        4.1.4 势函数
        4.1.5 条件随机场模型参数估计
        4.1.6 条件概率的矩阵计算
    4.2 决策树场和回归树场
        4.2.1 决策树场
        4.2.2 回归树场
    4.3 运用条件随机场得到物体类别
    4.4 本章小结
5 由关联分析得到场景类别
    5.1 关联分析相关定义和性质
    5.2 经典方法
    5.3 算法实现
    5.4 对难区分样本的处理
    5.5 本章小结
6 结论与展望
参考文献
致谢
攻读学位期间发表的学术论文目录
附件

(10)基于场景分类的图像质量评价(论文提纲范文)

摘要
ABSTRACT
目录
1 绪论
    1.1 课题研究背景及研究意义
    1.2 课题的国内外研究现状
        1.2.1 场景理解
        1.2.2 图像质量评价的国内外研究现状
    1.3 本文的研究内容及组织架构
2 场景图像的特征提取与编码
    2.1 场景图像的局部特征描述
        2.1.1 SIFT 局部特征描述
        2.1.2 SURF 局部特征描述
    2.2 Bag-of-features 模型
    2.3 空间金字塔匹配
    2.4 稀疏编码
    2.5 本文使用的特征提取与编码
3 场景图像的分类
    3.1 贝叶斯网络
        3.1.1 贝叶斯网络推理
        3.1.2 贝叶斯网络的学习
        3.1.3 参数学习
        3.1.4 结构学习
    3.2 随机森林
    3.3 组合贝叶斯
        3.3.1 组合贝叶斯网络的构造
        3.3.2 变量的选择
        3.3.3 训练样本的选择
        3.3.4 结果预测
        3.3.5 变量重要性
        3.3.6 组合结构
    3.4 组合贝叶斯网络的评价
        3.4.1 评分指标
        3.4.2 训练集
        3.4.3 组合贝叶斯网络的组成网络大小分析
        3.4.4 组合贝叶斯网络大小的分析
        3.4.5 数据集大小的分析
    3.5 场景分类
4 图像质量评价
    4.1 目标区域提取
        4.1.1 类不均衡
        4.1.2 整体场景理解
    4.2 全局特征
        4.2.1 色调组成特征
        4.2.2 颜色饼
        4.2.3 场景组成
    4.3 局部特征
        4.3.1 暗通道
        4.3.2 Gabor 小波
    4.4 实验结果
5 总结与展望
参考文献
致谢
攻读学位期间已发表或录用的学术论文
附件

四、一种类似视频场景分割的家庭数字照片分类方法研究(论文参考文献)

  • [1]基于乐景融合的VLOG智能生成系统设计[D]. 黄小倚. 浙江大学, 2020(08)
  • [2]基于主动学习的人脸标注研究[D]. 孙金. 南京航空航天大学, 2019(02)
  • [3]空间视域下城市广电媒体发展研究 ——以长三角城市台为例[D]. 阎安. 南京师范大学, 2017(12)
  • [4]视频拥挤场景下快速目标检测算法的研究与实现[D]. 陈泳瑾. 南京邮电大学, 2016(02)
  • [5]智能视频监控中的运动目标检测与跟踪技术研究[D]. 屈鉴铭. 西安电子科技大学, 2015(03)
  • [6]多特征融合的室内场景分类研究[D]. 孙伟. 广东工业大学, 2014(10)
  • [7]人脸活体检测关键技术研究[D]. 刘华成. 宁波大学, 2014(03)
  • [8]数字视频被动取证技术研究[D]. 徐俊瑜. 天津大学, 2013(11)
  • [9]基于条件随机场和关联分析的场景分类[D]. 陶玮. 上海交通大学, 2013(10)
  • [10]基于场景分类的图像质量评价[D]. 邵军. 上海交通大学, 2013(07)

标签:;  ;  ;  ;  ;  

一种类似视频场景分割的家庭数字照片分类方法研究
下载Doc文档

猜你喜欢