在群里面有人提到了这么一个实现:现有一段素材视频,想要对视频中的某个内容进行替换,换成自己的图片,这个怎么用 OpenGL 去实现呢?
首先要明确的是,视频是由一帧一帧图像组成的,它利用了人眼的视觉暂留效应,一秒内播放足够帧数的图片才会感觉到是连续的。
而想要对视频的内容进行替换,也就是要将每一帧图像的内容都进行替换了,一般来说这应该是属于视频后期处理了,用专业的 AE (Adobe After Effects)软件来处理会比较好。
处理思路
如果用 OpenGL 来处理,有这样的一个思路:
首先通过 MediaCodec 对每一帧图像内容进行解码,然后再通过 OpenGL 对当前解码的一帧图像进行处理,在原图像上加一个透明的遮罩层,遮罩层的要求就是对于要替换的内容区域是非透明的,其他区域透明,将遮罩层和原图像进行融合,最后得到的就是一帧被替换过内容图像了,再将处理过的一帧图像进行编码,重新编码成新的视频内容。
一直重复 解码 -> 处理 -> 编码这个过程,直到视频的每一帧内容都处理完了,就实现了对视频内容替换。
当然这仅仅是个思路,难点在于如何找到合适的遮罩层,如果视频图像内容是变动的,要替换的内容不是固定的,那么对于遮罩层要求更高了,每一帧处理都得有个合适的遮罩。
下面会针对视频的一帧图像内容进行处理,如何将一帧的图像内容替换了。
直接效果
效果如下:
代码实现的效果,左上方的内容被右上方内容替换了,最后成了右下角的图片。
准备工作
不会做设计的开发不是好码农
是时候掏出我的大宝石软件 Sketch 切个图了:
准备一张待替换内容:
然后再切一张同等大小,并把中间圆形位置的图片替换成想要的图片,其他周边内容设置透明度为 0 。
接下来的事情就是将两张图片融合,分别介绍基于着色器和颜色混合来替换内容。
这两个方案都有一个共同点,就是要将带遮罩的图片覆盖在原图上,不同的是如何处理两个图片之间的覆盖,透明度就是一个比较好的切入点。
使用着色器进行替换
在 OpenGL 的渲染管线中,会先构建图形,然后进行光栅化,光栅化后对每一个片元着色,在这个着色过程中可以根据需要对片元进行处理,包括抛弃某些片元等,简单说在 OpenGL 中就是先有形后有色,而在有形有色的过程中可以搞点小操作~~
对片元进行处理就是我们的片元着色器脚本了。
precision mediump float;
varying vec2 vTextureCoord; //接收从顶点着色器过来的参数
uniform sampler2D sTexture;//纹理内容数据
void main() {
vec4 bcolor = texture2D(sTexture, vTextureCoord);//给此片元从纹理中采样出颜色值
if(bcolor.a<0.6) {
discard;
} else {
gl_FragColor=bcolor;
}}
我们的遮罩图除了要替换的内容,其他地方都是透明的,根据采样出的透明度值小于阈值,就抛弃该片元,直接就不显示了。
而透明度满足要求的就会显示,并且在最后映射到视口上时,直接覆盖了原有的颜色。
通过这种方式就实现了内容替换。
使用颜色混合进行替换
使用颜色混合的方式不像着色器那样简单粗暴,要么抛弃某些片元,要么直接覆盖了。
它是根据一定的计算规则,来计算两个颜色之间的融合。
在 OpenGL 中使用颜色混合要设置合理的混合因子。
glEnable(GL_BLEND);
glBlendFunc(GL_SRC_ALPHA, GL_ONE_MINUS_SRC_ALPHA)
// 绘制
glDisable(GL_BLEND)
混合因子的设置使得如果遮罩图是透明的,使用被遮罩图的颜色,如果不是透明的,使用遮罩图的颜色,这样就不是直接抛弃某些片元了。
效果如下:
代码实现
在具体的代码实现中,采用了 EGL 来实现离屏的渲染。
在非主线程中,初始化 EGL 环境,然后准备好绘制的必要工作,接着执行绘制,最后把绘制的结果通过 glReadPixels 读取出来。
Observable.fromCallable {
// 初始化 EGL 环境
return@fromCallable initEgl()
}.map {
// 设置各种矩阵
prepare(width, height)
return@map it
}.map {
// 执行绘制
replaceContent(isBlend)
return@map it
}.map {
// 读取像素
val result = readPixel(width, height)
it.destroy()
return@map result
}.subscribeOn(Schedulers.computation())
.observeOn(AndroidSchedulers.mainThread())
.subscribe({
// 设置效果
mResultImage.setImageBitmap(it)
}, {
showToast("replace failed")
})
具体的绘制过程比较简单,如果采用了颜色混合就执行颜色混合的绘制,否则采用着色器的绘制,也体现了就是将遮罩图直接覆盖在原图上的思想。
private fun replaceContent(isBlend: Boolean) {
glClearColor(1f, 1f, 1f, 1f)
glClear(GL_COLOR_BUFFER_BIT or GL_DEPTH_BUFFER_BIT)
mOriginImage?.drawSelf(mOriginTextureId)
if (isBlend) {
glEnable(GL_BLEND);
glBlendFunc(GL_SRC_ALPHA, GL_ONE_MINUS_SRC_ALPHA)
mReplaceImage?.drawSelf(mReplaceTextureId)
glDisable(GL_BLEND)
} else {
mAlphaTextureRect?.drawSelf(mReplaceTextureId)
}
}
在最后读取像素内容时要注意,glReadPixels 读取的内容是上下颠倒的,需要将它翻转过来。
for (i in 0 until height) {
for (j in 0 until width) {
pixelMirroredArray[(height - i - 1) * width + j] = pixelArray[i * width + j]
}
}
具体的实现可以参考我的 Github 项目,求一波 Star 。
后续想法
对于视频内容替换,这里仅仅是给出了一帧图像内容的替换,而且还是基于透明度的。
看到好莱坞有些电影场景拍摄时,后面都会给出一块纯色的幕布,然后在后期处理时把幕布内容替换成背景,这种替换通过着色器比较颜色的范围应该也是可以实现的。
当然了,要是搭配图像识别来替换内容玩法就更加丰富了。
最后
俗话说:
独学而无友,则孤陋而寡闻