从零实现 3D 渲染引擎 - 相机矩阵
上篇文章我们讲解如何利用矩阵来实现 3D 变换,但是每次编写的 WebGL 代码有点复杂,不太好想象出渲染的结果。这篇文章来讲解相机这个概念,我们利用相机这个工具从不同位置去观察一个物体,观察的结果就是最终渲染到屏幕上的结果。
想象一个场景,场景中有很多的物体排列在不同的位置。我们拿个相机从不同角度拍摄这个场景,相机拍到的就是最终渲染在屏幕上的内容。OpenGL 中并没有相机的概念,需要我们自己完成。相机也被称为眼,从哪个角度去拍或从哪个角度去看。
在深入之前,我们先来看下是怎么在代码中使用的。
constcamera=newCamera()
camera.position.x=0.5
camera.position.y=0.5
camera.position.z=0.5
//设置相机的位置
camera.lookAt([0,0,0])
//设置相机看向原点
constmatLoc=gl.getUniformLocation(program,'uMat')
gl.uniformMatrix4fv(matLoc,false,camera.viewMatrix)
//获取和设置uniform
gl_Position=uMat*aPos;
//在顶点着色器中将顶点乘上这个矩阵
要用相机去拍摄一个场景,我们需要知道相机的位置和相机拍摄的目标。上面代码中首先创建了一个相机实例,然后设置相机的位置,并让相机看向原点。camera.viewMatrix就是根据相机的位置和看向方向生成的矩阵,我们只需要将这个矩阵应用在物体上,最终渲染出来的画面就是相机拍下来的画面。
如果场景中的物体和相机一起移动,例如向前移动 10 米,那么相机拍摄出来的画面和移动前还是一样的。在 OpenGL 中有个惯例,就是将相机位置固定在原点,并且朝着 -Z 方向看。为了将相机移动到惯例位置,我们需要两个步骤。
将相机移动到原点旋转相机,让它看向 -Z 位置。视图矩阵上方的camera.viewMatrix矩阵一般称为视图矩阵,它可以让场景中的物体对相机做逆变换,向相机相反的位置移动和旋转。上面有提到场景中的物体和相机一起移动和旋转,那么相机拍摄的画面和移动前拍摄的画面是一样的。相机向前移动,那么场景中的物体就要向后移动,物体要和相机的变换相反。
第一步将相机移动到原点很简单,变换中有讲过,矩阵最右边那一列,就是平移的量。我们这里设置负的相机位置,这样就可以将相机移动到原点了。
[
1,0,0,-Px,
0,1,0,-Py,
0,0,1,-Pz,
0,0,0,1
]
第二步旋转相机,让它看向 -Z 位置,也就是要将相机的坐标轴和全局的坐标轴对齐。我们需要先求出相机它自己的坐标轴,如下图所示。
相机的坐标系还是右手坐标系,看向 -Z 方向。
我们可以通过相机的位置减去目标的位置并归一化得到相机坐标轴中的 Z 轴,我们不需要坐标轴的长度只要它的方向,所以将它归一化为单位矢量。
这里会用到矢量的各种计算,如果对矢量不太了解,可以回顾下矢量章节。
Z=normalize(cameraPosition-targetPosition)
我们需要一个up矢量来求出剩下两个轴,一般这个矢量是[0, 1, 0]也就是全局坐标系的 Y 轴。我们可以用它来叉成相机 Z 轴求出 X 轴。
X=normalize(cross(up,Z))
知道了 X 和 Z 轴,那么 Y 轴就可以直接用 Z 轴叉乘 X 轴来求得。
Y=cross(Z,X)
那么旋转矩阵如下所示。
[XxYxZx0XyYyZy0XzYzZz00001]
我们可以用上面矩阵分别乘上全局坐标的 X、Y 和 Z 轴。
rotation*[1,0,0,0]=X
rotation*[0,1,0,0]=Y
rotation*[0,0,1,0]=Z
我们可以发现上面矩阵将全局坐标轴变成了相机的坐标轴。可是我们需要将相机的坐标轴变成全局的坐标轴,需要它的逆矩阵。变换中我们提到过旋转矩阵是正交矩阵,它的逆矩阵就是它的转置矩阵,所以我们只需要将上面矩阵转置一下,就可以获得最终的旋转矩阵。
[XxXyXZ0YxYyYz0ZxZyZz00001]
现在我们已经求出了平移和旋转矩阵,是先平移后旋转,所以我们将旋转矩阵乘上平移矩阵就是最终的视图矩阵(viewMatrix)了。
viewMatrix=R?T=[XxXyXz0YxYyYz0ZxZyZz00001][100?Px010?Py001?Pz0001]=[XxXyXzX??PYxYyYzY??PZxZyZzZ??P0001]
我们可以将这个矩阵封装到我们的工具库中,后面就可以直接使用了。
classMat4{
staticidentity(out=[]){
returnObject.assign(out,[
1,0,0,0,
0,1,0,0,
0,0,1,0,
0,0,0,1
])
}
staticlookAt(eye,target,up,out=[]){
consteyeX=eye[0],eyeY=eye[1],eyeZ=eye[2];
constupX=up[0],upY=up[1],upZ=up[2];
consttargetX=tarGET@[0],targetY=tarGET@[1],targetZ=tarGET@[2];
letx0,x1,x2,y0,y1,y2,z0,z1,z2,
//相机Z轴
z0=eyeX-targetX;
z1=eyeY-targetY;
z2=eyeZ-targetZ;
//归一化Z轴
len=z0*z0+z1*z1+z2*z2
if(len0){
len=1/Math.sqrt(len)
z0*=
z1*=
z2*=
}else{
//相机和目标在同一位置
returnMat4.identity(out)
}
//叉积up和Z轴,求出X轴
x0=upY*z2-upZ*
x1=upZ*z0-upX*
x2=upX*z1-upY*
//归一化X轴
len=x0*x0+x1*x1+x2*
if(len0){
len=1/Math.sqrt(len);
x0*=
x1*=
x2*=
}else{
//up与Z平行
returnMat4.identity(out)
}
//Z叉乘X,求出Y轴
y0=z1*x2-z2*
y1=z2*x0-z0*
y2=z0*x1-z1*
//OpenGL中矩阵是列主序
out[0]=
out[1]=
out[2]=
out[3]=0;
out[4]=
out[5]=
out[6]=
out[7]=0;
out[8]=
out[9]=
out[10]=
out[11]=0;
out[12]=-(x0*eyeX+x1*eyeY+x2*eyeZ);
out[13]=-(y0*eyeY+y1*eyeY+y2*eyeZ);
out[14]=-(z0*eyeZ+z1*eyeY+z2*eyeZ);
out[15]=1;
return
}
}
一般将这个方法称为lookAt,它接收相机位置(也称为眼)、看向的目标位置和一个上矢量,返回一个视图矩阵,可以将相机移动到原点并看向 -Z 方向。
有了lookAt工具方法,我们可以来完成一开始写的Camera类了。
classVec3extendsArray{
constructor(x=0,y=x,z=x){
super(x,y,z)
}
getx(){returnthis[0]}
gety(){returnthis[1]}
getz(){returnthis[2]}
setx(v){this[0]=v}
sety(v){this[1]=v}
setz(v){this[2]=v}
}
classCamera{
constructor(){
this.position=newVec3()
this.up=newVec3(0,1,0)
this.viewMatrix=Mat4.identity()
}
lookAt(target){
Mat4.lookAt(this.position,target,this.up,this.viewMatrix)
}
}
渲染立方体现在就用上面刚完成的Camera,来渲染上篇文章中的立方体吧。我们将相机放在[0.5, 0.5, 0.5]的位置,让它看向[0, 0, 0]原点位置。上篇文章中我们封装了createBox工具方法,现在就可以直接用了,它默认会返回[-0.5, -0.5, -0.5]到[0.5, 0.5, 0.5]中心在坐标原点,长宽高都是 1 的立方体。
constgl=createGl()
constprogram=createProgramFromSource(gl,`
attributevec4aPos;
uniformmat4uMat;
voidmain(){
gl_Position=uMat*aPos;
}
`,`
precisionhighpfloat;
voidmain(){
gl_FragColor=vec4(gl_FragCoord.zzz,
}
`)
constbox=createBox()
//{index:{value:[],size:1},position:{value:[],size:3}}
constindexBuffer=gl.createBuffer()
gl.bindBuffer(gl.ELEMENT_ARRAY_BUFFER,indexBuffer)
gl.bufferData(gl.ELEMENT_ARRAY_BUFFER,box.index.value,gl.STATIC_DRAW)
const[posLoc]=createAttrBuffer(gl,program,'aPos',box.position.value)
gl.vertexAttribPointer(posLoc,3,gl.FLOAT,false,0,0)
gl.enableVertexAttribArray(posLoc)
constcamera=newCamera()
camera.position.x=camera.position.y=camera.position.z=0.5
camera.lookAt([0,0,0])
constmatLoc=gl.getUniformLocation(program,'uMat')
gl.uniformMatrix4fv(matLoc,false,camera.viewMatrix)
gl.enable(gl.DEPTH_TEST)
gl.enable(gl.CULL_FACE)
gl.clearColor(0,0,0,0)
gl.clear(gl.COLOR_BUFFER_BIT|gl.DEPTH_BUFFER_BIT)
gl.drawElements(gl.TRIANGLES,box.index.value.length,gl.UNSIGNED_SHORT,0)
functioncreateShader(gl,type,source){
constshader=gl.createShader(type)
gl.shaderSource(shader,source)
gl.compileShader(shader)
returnshader;
}
functioncreateProgramFromSource(gl,vertex,fragment){
constvertexShader=createShader(gl,gl.VERTEX_SHADER,vertex)
constfragmentShader=createShader(gl,gl.FRAGMENT_SHADER,fragment)
constprogram=gl.createProgram()
gl.attachShader(program,vertexShader)
gl.attachShader(program,fragmentShader)
gl.linkProgram(program)
gl.useProgram(program)
returnprogram
}
functioncreateAttrBuffer(gl,program,attr,data){
constlocation=gl.getAttribLocation(program,attr)
constbuffer=gl.createBuffer();
gl.bindBuffer(gl.ARRAY_BUFFER,buffer)
gl.bufferData(gl.ARRAY_BUFFER,data,gl.STATIC_DRAW)
return[location,buffer]
}
https://code.juejin.cn/pen/7168483277152452621
片段着色器中的gl_FragCoord后面再详细讲解,这里用到的z值是当前片段的深度,它的值的范围是 0 到 1。
我们可以看到立方体的几个角消失了,这是因为我们将相机位置设置到[0.5, 0.5, 0.5],那么立方体就要向反方向移动0.5,我们在坐标系中有提到,OpenGL 的 X、Y 和 Z 轴范围是-1到1,任何超出这个范围的部分就会被裁剪丢弃,我们让立方体反方向移动0.5刚好让立方体移动到坐标系的边缘,然后对立方体进行旋转,刚好就立方体的一部分超出了这个范围,导致这一部分被裁剪丢弃。
总结这篇文章讲解了相机这个概念,可以让我们从任意位置去观看物体。但是最后渲染结果有一部分被裁切了,如何解决这个问题呢?能不能扩展坐标系范围,让物体坐标可以超过-1和1?还有如何实现透视效果呢?这正是下篇文章要讲的内容!
如果觉得文章还不错欢迎点赞和关注来支持鼓励作者,我会尽快更新系列教程的下一篇文章。
零基础玩转 WebGL 系列文章目录请查看:零基础玩转 WebGL - 目录
阅读原文
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设、网站改版、域名注册、主机空间、手机网站建设、网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。 项目经理在线