前言

之前实现了一篇《Adaptive Local Tone Mapping Based on Retinex for High Dynamic Range Images》论文,虽然在低光照的色彩恢复效果很好,但是对我自己的图片(人脸相关的)处理效果并不是太好,然后调研过程中看到了这篇论文《Adaptive Logarithmic Mapping For Displaying High Contrast Scenes》,实现了一下发现对我自己的图片处理效果也是相当好的,所以在这里分享一下。论文链接:添加链接描述,顺便说一下,这篇论文是2003年的,好古老了。

原理

还是老规矩,虽然我看完了论文,但是这里只介绍和代码实现相关的东西。首先论文第一个重要的公式是:
L d = l o g ( L w + 1 ) l o g ( L m a x + 1 ) L_d=\frac{log(L_w+1)}{log(L_{max}+1)} Ld=log(Lmax+1)log(Lw+1),其中 L d L_d Ld代表每个像素的显示亮度, L w L_w Lw代表原图像亮度, L m a x L_{max} Lmax是原图像亮度的最大值。第二个重要的公式是: l o g b a s e x = l o g ( x ) l o g ( b a s e ) log_{base}x=\frac{log(x)}{log(base)} logbasex=log(base)log(x),这就是高中的换底公式了。第3个公式是 b i a s b ( t ) = t l o g ( b ) l o g ( 0.5 ) bias_b(t)=t^{\frac{log(b)}{log(0.5)}} biasb(t)=tlog(0.5)log(b),这个公式的来源为,经过实验表明人眼对亮度的适应比较符合对数曲线,为了使得对数变换变得"平滑",使用了这个 b i a s bias bias变换,这个变换就是将一个数值t做一个指数变换,来达到调节的目的,当b=0.5时,即是 b i a s b ( t ) = t bias_b(t)=t biasb(t)=t,当b取0.73时,得到的调整函数最接近 γ = 2.2 \gamma = 2.2 γ=2.2的伽马矫正结果,轮文中还尝试0.65,0.75,0.85,0.95的不同恢复结果,最后在代码实现部分选择了0.85,这个值看起来是最优秀的。第4个很重要的公式为: L d = 0.01 L d m a x l o g 10 ( L w m a x + 1 ) l o g ( L w + 1 ) l o g ( 2 + 8 ( L w L w m a x ) l o g ( b ) l o g ( 0.5 ) ) L_d=\frac{0.01L_{dmax}}{log_{10}(L_{wmax}+1)}*\frac{log(L_w+1)}{log(2+8(\frac{L_w}{L_{wmax}})^{\frac{log(b)}{log(0.5)}})} Ld=log10(Lwmax+1)0.01Ldmaxlog(2+8(LwmaxLw)log(0.5)log(b))log(Lw+1),其中 L d m a x L_{dmax} Ldmax是设定的一个比例因子,根据不同的显示器需要进行调整,CRT显示器可以取 L m a x = 100 c m / m 2 L_{max}=100cm/m^2 Lmax=100cm/m2,这部分和Bias的取值建议去看论文,最后作者在实现过程中使用的是rgb转成ciexyz空间,然后在ciexyz空间进行变换后再转回rgb颜色空间。

代码实现

实现的时候几乎就是按照原理,照着搬运一下公式了,我这里奉献一下我写好的c++源码。

double Transform(double x)
{
	if (x <= 0.05)return x * 2.64;
	return 1.099*pow(x, 0.9 / 2.2) - 0.099;
}
struct zxy {
	double x, y, z;
}s[2500][2500];

int work(cv::Mat input_img, cv::Mat out_img) {
	int rows = input_img.rows;
	int cols = input_img.cols;
	double r, g, b;
	double lwmax = -1.0, base = 0.75;
	for (int i = 0; i < rows; i++) {
		for (int j = 0; j < cols; j++) {
			b = (double)input_img.at<Vec3b>(i, j)[0] / 255.0;
			g = (double)input_img.at<Vec3b>(i, j)[1] / 255.0;
			r = (double)input_img.at<Vec3b>(i, j)[2] / 255.0;
			s[i][j].x = (0.4124*r + 0.3576*g + 0.1805*b);
			s[i][j].y = (0.2126*r + 0.7152*g + 0.0722*b);
			s[i][j].z = (0.0193*r + 0.1192*g + 0.9505*b);
			lwmax = max(lwmax, s[i][j].y);
		}
	}
	for (int i = 0; i < rows; i++) {
		for (int j = 0; j < cols; j++) {
			double xx = s[i][j].x / (s[i][j].x + s[i][j].y + s[i][j].z);
			double yy = s[i][j].y / (s[i][j].x + s[i][j].y + s[i][j].z);
			double tp = s[i][j].y;
			//修改CIE:X,Y,Z
			s[i][j].y = 1.0 * log(s[i][j].y + 1) / log(2 + 8.0*pow((s[i][j].y / lwmax), log(base) / log(0.5))) / log10(lwmax + 1);
			double x = s[i][j].y / yy*xx;
			double y = s[i][j].y;
			double z = s[i][j].y / yy*(1 - xx - yy);

			//转化为用RGB表示
			r = 3.2410*x - 1.5374*y - 0.4986*z;
			g = -0.9692*x + 1.8760*y + 0.0416*z;
			b = 0.0556*x - 0.2040*y + 1.0570*z;

			if (r < 0)r = 0; if (r>1)r = 1;
			if (g < 0)g = 0; if (g>1)g = 1;
			if (b < 0)b = 0; if (b>1)b = 1;

			//修正补偿
			r = Transform(r), g = Transform(g), b = Transform(b);
			out_img.at<Vec3b>(i, j)[0] = int(b * 255);
			out_img.at<Vec3b>(i, j)[1] = int(g * 255);
			out_img.at<Vec3b>(i, j)[2] = int(r * 255);
		}
	}
	//cv::imshow("result", out_img);
	//cv::imwrite("E:\\NCNN_work\\result.jpg", out_img);
	//waitKey(0);
	return 0;
}

效果还是很不错的,在这篇博客上的图片:https://www.cnblogs.com/Imageshop/p/8420828.html 得到转化后的结果和这个博主大致相同,当我在测试自己的图片时发现,会随机出现一些亮斑,且肤色效果没有他的那个工程转换得好,难道是有什么细节被忽略了?我正在定位这个问题,初步怀疑是RGB和CIEXYZ互转出现了丢失精度的问题,正在尝试解决这一问题,如果解决了,将放上分享。这个代码是未带任何优化的,速度在720p上是70ms,等待优化。

我试了一下https://www.cnblogs.com/Imageshop/p/8420828.html这个博主在计算 L d L_d Ld时使用的方法,得到的结果和这个博主得到的结果几乎一致,实现就是将计算时候的公式替换为这个博主的公式,然后对每个像素乘以计算出来的缩放因子即可。经过测试,就不会出现不平滑的问题,并且在720p图像上速度为8ms,很快了,不过rgb转ciexyz还可以进行优化,因某些原因这部分代码就提供思路不开源了。