搜索到222126篇“ COLORIZATION“的相关文章
Video Colorization:A Survey
2024年
Video colorization aims to add color to grayscale or monochrome videos.Although existing methods have achieved substantial and noteworthy results in the field of image colorization,video colorization presents more formidable obstacles due to the additional necessity for temporal consistency.Moreover,there is rarely a systematic review of video colorization methods.In this paper,we aim to review existing state-of-the-art video colorization methods.In addition,maintaining spatial-temporal consistency is pivotal to the process of video colorization.To gain deeper insight into the evolution of existing methods in terms of spatial-temporal consistency,we further review video colorization methods from a novel perspective.Video colorization methods can be categorized into four main categories:optical-flow based methods,scribble-based methods,exemplar-based methods,and fully automatic methods.However,optical-flow based methods rely heavily on accurate optical-flow estimation,scribble-based methods require extensive user interaction and modifications,exemplar-based methods face challenges in obtaining suitable reference images,and fully automatic methods often struggle to meet specific colorization requirements.We also discuss the existing challenges and highlight several future research opportunities worth exploring.
彭中正杨艺新唐金辉潘金山
Temporally consistent video colorization with deep feature propagation and self-regularization learning被引量:1
2024年
Video colorization is a challenging and highly ill-posed problem.Although recent years have witnessed remarkable progress in single image colorization,there is relatively less research effort on video colorization,and existing methods always suffer from severe flickering artifacts(temporal inconsistency)or unsatisfactory colorization.We address this problem from a new perspective,by jointly considering colorization and temporal consistency in a unified framework.Specifically,we propose a novel temporally consistent video colorization(TCVC)framework.TCVC effectively propagates frame-level deep features in a bidirectional way to enhance the temporal consistency of colorization.Furthermore,TCVC introduces a self-regularization learning(SRL)scheme to minimize the differences in predictions obtained using different time steps.SRL does not require any ground-truth color videos for training and can further improve temporal consistency.Experiments demonstrate that our method can not only provide visually pleasing colorized video,but also with clearly better temporal consistency than state-of-the-art methods.A video demo is provided at https://www.youtube.com/watch?v=c7dczMs-olE,while code is available at https://github.com/lyh-18/TCVC-Tem porally-Consistent-Video-Colorization.
Yihao LiuHengyuan ZhaoKelvin CKChanXintao WangChen Change LoyYu QiaoChao Dong
基于双参考帧的多源着色结果融合的视频着色方法
2024年
对黑白视频着色时,为了更好地利用参考帧信息,提出一种基于双参考帧的多源着色结果融合的着色方法.首先,采用硬注意力融合子模块融合双参考帧提供的颜色信息,以防止双帧语义匹配模块着色时不合理参考信息导致的颜色模糊问题.然后,使用多源着色结果融合模块融合通过双帧光流传播模块、双帧语义匹配模块以及遮挡信息得到的着色结果,进而产生更优质的着色结果.实验结果表明,该方法在Davis30测试集上的峰值信噪比(PSNR)、结构相似性(SSIM)和颜色分布一致性指数(CDC)分别为37.36 dB、0.980 5、0.003 748,说明该方法能够通过多种融合方式充分利用双参考帧的信息为灰度帧着色,并生成美观且具有较好时间一致性的着色结果.
孟桦唐金辉代龙泉
关键词:遮挡
迎接“AI+设计”:以彩色化技术研究进展为例
2024年
目的以彩色化技术为主要研究内容,从人工智能结合设计的角度重点阐述了彩色化研究的技术特点及适用场景,结合人工智能背景对智能设计发展趋势进行思考和总结。方法首先,对人工智能彩色化研究的技术需求、应用场景进行融合分析,推导人工智能与设计创作结合的可能性;其次,对彩色化传统方法与人工智能基础技术进行调研,以交互设计的理念为灵感启发,将人工智能的彩色化方法分为显式交互彩色化和隐式交互彩色化并进行归纳和总结;最后讨论研究彩色化技术的应用对象、预处理步骤和实践体验。结果总结概括彩色化技术结合人工智能设计的发展趋势与未来技术重点。结论“AI+设计”的趋势背景下,以彩色化为代表的人工智能数字图像处理技术正成为设计师的辅助工具,在科技、艺术、影视、人文等领域展现出交叉融合的大趋势。
夏天琳李宇航黄丽婷丁友东姜佳琦黄文宣
关键词:彩色化图像处理
有限色彩空间下的线稿上色
2024年
目的 线稿上色是由线条构成的黑白线稿草图涂上颜色变为彩色图像的过程,在卡通动画制作和艺术绘画等领域中是非常关键的步骤。全自动线稿上色方法可以减轻绘制过程中烦琐耗时的手工上色的工作量,然而自动理解线稿中的稀疏线条并选取合适的颜色仍较为困难。方法 依据现实场景中特定绘画类型常有固定用色风格偏好这一先验,本文聚焦于有限色彩空间下的线稿自动上色,通过约束色彩空间,不仅可以降低语义理解的难度,还可以避免不合理的用色。具体地,本文提出一种两阶段线稿自动上色方法。在第1阶段,设计一个灰度图生成器,对输入的稀疏线稿补充线条和细节,以生成稠密像素的灰度图像。在第2阶段,首先设计色彩推理模块,从输入的颜色先验中推理得到适合该线稿的色彩子空间,再提出一种多尺度的渐进融合颜色信息的生成网络以逐步生成高质量的彩色图像。结果 实验在3个数据集上与4种线稿自动上色方法进行对比,在上色结果的客观质量对比中,所提方法取得了更高的峰值信噪比(peak signal to noise ratio,PSNR)和结构相似性(structural similarity index measure,SSIM)值以及更低的均方误差;在上色结果的色彩指标对比中,所提方法取得了最高的色彩丰富度分数;在主观评价和用户调查中,所提方法也取得了与人的主观审美感受更一致的结果。此外,消融实验结果也表明了本文所使用的模型结构及色彩空间限制有益于上色性能的提升。结论 实验结果表明,本文提出的有限色彩空间下的线稿自动上色方法可以有效地完成多类线稿的自动上色,并且可以简单地通过调整颜色先验以获得更多样的彩色图像。
陈缘赵洋张效娟刘晓平
关键词:卡通绘画
结合注意力机制与多尺度特征融合的视频彩色化方法
2024年
针对现有视频彩色化方法难以同时保证着色质量和时间一致性的问题,提出一种结合注意力机制和多尺度特征融合的视频彩色化方法AMVC-GAN。首先,提出以GAN为主体的视频彩色化网络模型,通过在GAN的生成器中设计以循环时间网络为主体的多尺度特征融合模块,来获取不同时间频率的信息;其次,为了有效地考虑相邻帧之间的关系,将不同时间频率提取的特征进行融合,加强帧与帧之间的联系,以此增强彩色化的时间一致性;最后,为了获取更多的有效信息,在主网络的上采样部分引入了注意力模块,并通过使用PatchGAN来对结果进行优化训练,以增强最终的着色效果。在DAVIS和VIDEVO数据集上与先进的全自动视频彩色化方法进行对比实验。结果表明,AMVC-GAN在多项指标上排名第一,具有更好的时间一致性和着色效果。相比于其他方法,AMVC-GAN能够有效地减少时间闪烁,同时保证着色效果更为真实、自然。
周柯明孔广黔邓周灰
关键词:多尺度融合彩色化
基于城市印象理论的道路植物景观彩化规划
2024年
当前我国宏观层面的城市绿地系统规划和城市道路植物景观设计之间缺乏具体的参数指标导控,大多数城市道路景观普遍较为单一,存在“绿化有余、彩化不足”的共性问题。据此,文章基于城市印象理论,以浙江湖州南太湖新区道路植物景观彩化规划为例,提出城市中观尺度层面上的植物景观彩化规划和设计指标导控等策略,为改善城市道路景观品质和提高植物和植物景观多样性提供借鉴和参考。
汤珏李瑛褚李飞饶显龙
关键词:城市道路植物景观
一种改进CycleGAN的素描头像彩色化算法
2024年
针对现阶段由素描头像生成的彩色头像图像清晰度低、人脸识别率不高和视觉质量不佳等问题,提出一种改进CycleGAN的素描头像彩色化算法:对U-Net自编码器的第一个特征提取模块进行优化,设计一种多尺度自注意力机制特征提取模块,从多个尺度提取输入图像以减少输入图像的细节信息丢失,将提取的特征用通道堆叠的方式进行特征融合,对融合的特征嵌入SENet自注意力机制,以引导模型对特征重点区域的关注度,最后再降低融合特征的通道维数;对生成头像与真实头像添加L1像素损失和感知损失,以进一步提升生成头像的质量.实验结果表明:较基础模型CycleGAN生成的彩色头像,在CUHK数据集FID值降低了22.23、Rank-1值提高了16%,在AR数据集FID值降低了15.34、Rank-1值提高了9.3%.
廖振林国军黄丹胡鑫游松兰江海周旭金若水
TOD模式下轨道交通沿线植物景观彩化规划——以苏州轨道交通11号线为例
2024年
基于城市更新与TOD模式,以苏州轨道交通11号线开发建设为契机,针对沿线街区植物景观绿量充足但彩化不足问题,提出植物景观彩化规划策略,即从中观尺度确立植物段落主题风貌和彩化指标导控,围绕轨道交通站点塑造主题站前花园,分类嵌入风景化海绵模块并融入生态体系,以期为相关实践提供参考。
朱巧珍梅晓芳
关键词:TOD模式植物景观
Cross-CNN:基于CNN和Transformer混合模型的动画跨帧线稿着色算法
2024年
对长序列的动画线稿帧进行着色是计算机视觉中一项具有挑战性的任务.一方面,线稿中包含的信息较为稀疏,需要着色算法对缺失的信息进行推断;另一方面,连续帧之间的色彩需要保持一致,以确保整个视频的视觉质量.现有的着色算法多数只针对单张图片进行着色,这类算法只给出一个开放性的符合合理范围的色彩结果,无法适用于帧序列着色.另一些基于参考帧的着色算法,并没有将2帧之间的关系有机地联系起来,导致着色效果不够出色.在同一镜头序列中,同一对象的特征往往不会发生太大变化,因此,可以设计一个根据给定参考帧,即可给线稿自动着色的模型.为此,本文提出了基于CNN(Convolutional Neural Networks)和Transformer相结合的模型Cross-CNN,该模型能够从参考帧中寻找并匹配颜色,从而保证时间维度上的特征一致性.Cross-CNN模型参考帧和线稿帧在通道维度叠加,输入预训练的Resnet50网络提取局部融合特征,将融合特征图传给Transformer结构进行编码以提取全局特征.在Transformer结构中设计了交叉注意力机制更好地匹配远距离特征.最后使用带有跳层连接的卷积解码器完成着色图片输出.本文在数据集方面从8部电影中截取画面并经过严格筛选,最终制作了一个包含20000对二元组的数据集用于实验研究.Cross-CNN的SSIM(Structural SIMilarity)达到了0.932,高于SOTA算法0.014.本文算法代码链接:https://github.com/silenye/Cross-CNN.
余毅丰钱江波严迪群严迪群董理
关键词:TRANSFORMER动画制作

相关作者

郭育红
作品数:37被引量:59H指数:4
供职机构:河西学院数学与统计学院
研究主题:正整数 有序分拆 分拆 N- 恒等式
李亮之
作品数:33被引量:79H指数:4
供职机构:上海立信会计金融学院
研究主题:COLOR 包豪斯 标识牌 图书馆 装饰
曹燕
作品数:19被引量:29H指数:3
供职机构:哈尔滨理工大学
研究主题:导子 李超代数 CONTACT 型心 李三系
张健
作品数:304被引量:619H指数:12
供职机构:东北林业大学
研究主题:图像加密算法 图像加密 混沌映射 置乱 DNA编码
吕焕培
作品数:12被引量:50H指数:4
供职机构:宁波大红鹰学院
研究主题:甘蔗收割机 MOLDFLOW COLOR 装配流程 PETRI-NETS