老照片上色的AI技术

新知榜官方账号

2023-10-02 22:32:28

老照片上色的AI技术

本文介绍了使用深度神经网络进行老照片上色的技术,并提供了基于PyTorch的教程和代码。

如今,人们已经开始培育深度神经网络,来给老照片和老电影上色了。来自哈佛大学的LukeMelas-Kyriazi(我叫他卢克吧),用自己训练的神经网络,把卓别林变成了彩色的卓别林,清新自然。作为一只哈佛学霸,卢克还为钻研机器学习的小伙伴们写了一个基于PyTorch的教程。

卢克说,给黑白照片上色这个问题的难点在于,它是多模态的——与一幅灰度图像对应的合理彩色图像,并不唯一。而深度神经网络,除了灰度图像之外,不需要任何额外输入,就可以完成上色。在彩色图像里,每个像素包含三个值,即亮度、饱和度以及色调。而灰度图像,并无饱和度和色调可言,只有亮度一个值。所以,模型要用一组数据,生成另外两足数据。换句话说,以灰度图像为起点,推断出对应的彩色图像。

为了简单,这里只做了256x256像素的图像上色。输出的数据量则是256x256x2。关于颜色表示,卢克用的是LAB色彩空间,它跟RGB系统包含的信息是一样的。但对程序猿来说,前者比较方便把亮度和其他两项分离开来。数据也不难获得,卢克用了MITPlaces数据集,中的一部分。内容就是校园里的一些地标和风景。

神经网络里面,第一部分是几层用来提取图像特征;第二部分是一些反卷积层(DeconvolutionalLayers),用来给那些特征增加分辨率。具体来说,第一部分用的是ResNet-18,这是一个图像分类网络,有18层,以及一些残差连接(ResidualConnections)。给第一层做些修改,它就可以接受灰度图像输入了。然后把第6层之后的都去掉。

预测每个像素的色值,用的是回归(Regression)的方法。损失函数(LossFunction)所以,用了一个均方误差(MSE)损失函数——让预测的色值与参考标准(GroundTruth)之间的距离平方最小化。这里是用AdamOptimizer优化的。

训练结果还是很自然的,虽然生成的彩色图像不是那么明亮。卢克说,问题是多模态的,所以损失函数还是值得推敲。如果想要更加有声有色的结局,就不能继续偷懒了。

本页网址:https://www.xinzhibang.net/article_detail-15023.html

寻求报道,请 点击这里 微信扫码咨询

关键词

老照片 上色 AI技术

分享至微信: 微信扫码阅读

相关工具

相关文章

相关快讯