前言
之前实现了一篇《Adaptive Local Tone Mapping Based on Retinex for High Dynamic Range Images》论文,虽然在低光照的色彩恢复效果很好,但是对我自己的图片(人脸相关的)处理效果并不是太好,然后调研过程中看到了这篇论文《Adaptive Logarithmic Mapping For Displaying High Contrast Scenes》,实现了一下发现对我自己的图片处理效果也是相当好的,所以在这里分享一下。论文链接:添加链接描述,顺便说一下,这篇论文是2003年的,好古老了。
原理
还是老规矩,虽然我看完了论文,但是这里只介绍和代码实现相关的东西。首先论文第一个重要的公式是:
Ld=log(Lmax+1)log(Lw+1),其中 Ld代表每个像素的显示亮度, Lw代表原图像亮度, Lmax是原图像亮度的最大值。第二个重要的公式是: logbasex=log(base)log(x),这就是高中的换底公式了。第3个公式是 biasb(t)=tlog(0.5)log(b),这个公式的来源为,经过实验表明人眼对亮度的适应比较符合对数曲线,为了使得对数变换变得"平滑",使用了这个 bias变换,这个变换就是将一个数值t做一个指数变换,来达到调节的目的,当b=0.5时,即是 biasb(t)=t,当b取0.73时,得到的调整函数最接近 γ=2.2的伽马矫正结果,轮文中还尝试0.65,0.75,0.85,0.95的不同恢复结果,最后在代码实现部分选择了0.85,这个值看起来是最优秀的。第4个很重要的公式为: Ld=log10(Lwmax+1)0.01Ldmax∗log(2+8(LwmaxLw)log(0.5)log(b))log(Lw+1),其中 Ldmax是设定的一个比例因子,根据不同的显示器需要进行调整,CRT显示器可以取 Lmax=100cm/m2,这部分和Bias的取值建议去看论文,最后作者在实现过程中使用的是rgb转成ciexyz空间,然后在ciexyz空间进行变换后再转回rgb颜色空间。
代码实现
实现的时候几乎就是按照原理,照着搬运一下公式了,我这里奉献一下我写好的c++源码。
double Transform(double x)
{
if (x <= 0.05)return x * 2.64;
return 1.099*pow(x, 0.9 / 2.2) - 0.099;
}
struct zxy {
double x, y, z;
}s[2500][2500];
int work(cv::Mat input_img, cv::Mat out_img) {
int rows = input_img.rows;
int cols = input_img.cols;
double r, g, b;
double lwmax = -1.0, base = 0.75;
for (int i = 0; i < rows; i++) {
for (int j = 0; j < cols; j++) {
b = (double)input_img.at<Vec3b>(i, j)[0] / 255.0;
g = (double)input_img.at<Vec3b>(i, j)[1] / 255.0;
r = (double)input_img.at<Vec3b>(i, j)[2] / 255.0;
s[i][j].x = (0.4124*r + 0.3576*g + 0.1805*b);
s[i][j].y = (0.2126*r + 0.7152*g + 0.0722*b);
s[i][j].z = (0.0193*r + 0.1192*g + 0.9505*b);
lwmax = max(lwmax, s[i][j].y);
}
}
for (int i = 0; i < rows; i++) {
for (int j = 0; j < cols; j++) {
double xx = s[i][j].x / (s[i][j].x + s[i][j].y + s[i][j].z);
double yy = s[i][j].y / (s[i][j].x + s[i][j].y + s[i][j].z);
double tp = s[i][j].y;
//修改CIE:X,Y,Z
s[i][j].y = 1.0 * log(s[i][j].y + 1) / log(2 + 8.0*pow((s[i][j].y / lwmax), log(base) / log(0.5))) / log10(lwmax + 1);
double x = s[i][j].y / yy*xx;
double y = s[i][j].y;
double z = s[i][j].y / yy*(1 - xx - yy);
//转化为用RGB表示
r = 3.2410*x - 1.5374*y - 0.4986*z;
g = -0.9692*x + 1.8760*y + 0.0416*z;
b = 0.0556*x - 0.2040*y + 1.0570*z;
if (r < 0)r = 0; if (r>1)r = 1;
if (g < 0)g = 0; if (g>1)g = 1;
if (b < 0)b = 0; if (b>1)b = 1;
//修正补偿
r = Transform(r), g = Transform(g), b = Transform(b);
out_img.at<Vec3b>(i, j)[0] = int(b * 255);
out_img.at<Vec3b>(i, j)[1] = int(g * 255);
out_img.at<Vec3b>(i, j)[2] = int(r * 255);
}
}
//cv::imshow("result", out_img);
//cv::imwrite("E:\\NCNN_work\\result.jpg", out_img);
//waitKey(0);
return 0;
}
效果还是很不错的,在这篇博客上的图片:https://www.cnblogs.com/Imageshop/p/8420828.html 得到转化后的结果和这个博主大致相同,当我在测试自己的图片时发现,会随机出现一些亮斑,且肤色效果没有他的那个工程转换得好,难道是有什么细节被忽略了?我正在定位这个问题,初步怀疑是RGB和CIEXYZ互转出现了丢失精度的问题,正在尝试解决这一问题,如果解决了,将放上分享。这个代码是未带任何优化的,速度在720p上是70ms,等待优化。
我试了一下https://www.cnblogs.com/Imageshop/p/8420828.html这个博主在计算 Ld时使用的方法,得到的结果和这个博主得到的结果几乎一致,实现就是将计算时候的公式替换为这个博主的公式,然后对每个像素乘以计算出来的缩放因子即可。经过测试,就不会出现不平滑的问题,并且在720p图像上速度为8ms,很快了,不过rgb转ciexyz还可以进行优化,因某些原因这部分代码就提供思路不开源了。