摘要:这里通过数学的角度理解一下矩阵的平移,缩放和旋转假设一个向量为其中表示向量,表示方向如果,那么平移就没有意义,也就是说平移一个方向没有意义,为何可以在下面的公式看得处假设一个矩阵为那么向量乘矩阵的结果为观察结果,如果红色框部分为单位向量的话
这里通过数学的角度理解一下矩阵的平移,缩放和旋转
假设一个向量为vec=(x,y,z,w),
其中w=1表示向量,w=0表示方向
如果w=0,那么平移就没有意义,也就是说平移一个方向没有意义,为何可以在下面的公式看得处.
假设一个矩阵为
` mat= a1 a2 a3 a b1 b2 b3 b c1 c2 c3 c 0 0 0 0 , //那么向量乘矩阵的结果为 x=a1x+a2y+a3z+a y=b1x+b2y+b3z+b z=c1x+c2y+c3z+c w=1 , `
观察结果,如果红色框部分为单位向量的话,那a,b,c分别为下x,y,z移动距离的话,就不难理解了
缩放矩阵的话,如果a1,b2,c3的值外,其余为0的话,那么a1,b2,c3的值便是x,y,z的缩放值
如果是旋转矩阵,假设我们是绕Z轴旋转,那结果公式中Z轴不应变化,所以c1,c2为0,
假设旋转角度为α,则a1=cosα,a2=sinα,b1=-sinα,b2=conα,原理大概就是a1,b2控制x,y缩放,a2,b1控制x,y旋转,如果想详细了解原理,推荐看这个线性代数详解;
文章版权归作者所有,未经允许请勿转载,若此文章存在违规行为,您可以联系管理员删除。
转载请注明本文地址:https://www.ucloud.cn/yun/96373.html
摘要:个人前端文章整理从最开始萌生写文章的想法,到着手开始写,再到现在已经一年的时间了,由于工作比较忙,更新缓慢,后面还是会继更新,现将已经写好的文章整理一个目录,方便更多的小伙伴去学习。 showImg(https://segmentfault.com/img/remote/1460000017490740?w=1920&h=1080); 个人前端文章整理 从最开始萌生写文章的想法,到着手...
摘要:但是由于神经网络的许多细节并未过分深入比如层数和每层神经元数的设定,过拟合等,初建的网络实际上和真实的网络还是有一定差距的。和神经网络中其他层不同,输出层的神经元一般不会有激活函数,最后的输出层大多用于表示分类评分值。 【DL-CV】激活函数及其选择【DL-CV】卷积神经网络 在介绍了线性分类器,激活函数,损失函数,反向传播这些基础的原理后,已经可以尝试自行搭建像样的神经网络了。但是由...
阅读 1389·2021-11-22 13:52
阅读 1218·2021-09-29 09:34
阅读 2602·2021-09-09 11:40
阅读 3014·2019-08-30 15:54
阅读 1225·2019-08-30 15:53
阅读 959·2019-08-30 11:01
阅读 1330·2019-08-29 17:22
阅读 1900·2019-08-26 10:57