必威体育Betway必威体育官网
当前位置:首页 > IT技术

向量的基本运算

时间:2019-08-07 05:13:12来源:IT技术作者:seo实验室小编阅读:87次「手机版」
 

向量运算

向量是什么

向量就是给定一个点A,连接原点到点A,并具有由O到A方向的连线,表示为OA\vec{OA}OA. 书本的定义:向量就是具有大小和方向东西。

fig1

大小(magnitude)

向量的大小(magnitude)写作x\Vert x \Vert∥x∥,称为模(norm).

通过(Pythagoras’ theorem)毕达哥拉斯定理求模如下图,

OA2=OB2+AB2{OA}^2 = {OB}^2 + {AB}^2OA2=OB2+AB2

OA2=32+42{OA}^2 = {3}^2 + {4}^2OA2=32+42

x=5\Vert x \Vert = 5∥x∥=5

fig2

方向(direction)

定义向量u(u1,u2)\mathbf{u} (u_1,u_2)u(u1​,u2​)的方向为向量w(u1u,u2u)\mathbf{w}(\frac{u_1}{\|u\|}, \frac{u_2}{\|u\|})w(∥u∥u1​​,∥u∥u2​​)。如下图:

fig3

可以看到:

cos(θ)=u1ucos(\theta)=\frac{u_1}{\|u\|}cos(θ)=∥u∥u1​​

cos(α)=u2ucos(\alpha)=\frac{u_2}{\|u\|}cos(α)=∥u∥u2​​

所以向量u(3,4)\mathbf{u}(3,4)u(3,4)方向向量是w(0.6,0.8)\mathbf{w}(0.6,0.8)w(0.6,0.8)。方向向量的模为1.如下图

fig4

两个向量的加法

任意给给两个向量u(u1,u2)\mathbf{u} (u_1, u_2)u(u1​,u2​) ,v(v1,v2)\mathbf{v} (v_1, v_2)v(v1​,v2​)两个向量相加:u+v=(u1+v1,u2+v2)\mathbf{u}+\mathbf{v}= (u_1+v_1, u_2+v_2)u+v=(u1​+v1​,u2​+v2​)

![fig5](https://imgconvert.csdnimg.cn/aHR0cHM6Ly9pMi53cC5jb20vd3d3LnN2bS10dXRvcmlhbC5jb20vd3AtY29udGVudC91cGxvYWRzLzIwMTQvMTEvMDUtc3VtLW9mLXR3by12ZWN0b3JzLWUxNDE1NTUzMjA3MzQwLnBuZw)

两个向量的减法

任意给给两个向量u(u1,u2)\mathbf{u} (u_1, u_2)u(u1​,u2​) ,v(v1,v2)\mathbf{v} (v_1, v_2)v(v1​,v2​)两个向量相减:uv=(u1v1,u2v2)\mathbf{u}-\mathbf{v}= (u_1-v_1, u_2-v_2)u−v=(u1​−v1​,u2​−v2​)。 方向指向被减数的方向。

fig6

向量的点积(dot product)

xy=xycos(θ)\mathbf{x} \cdot \mathbf{y} = \|x\| \|y\|cos(\theta)x⋅y=∥x∥∥y∥cos(θ), θ\thetaθ 为两个向量的夹角。

推导过程如下:

fig7

根据前面的分析我们知道,

cos(β)=adjacenthypotenuse=x1xcos(\beta) =\frac{adjacent}{hypotenuse} =\frac{x_1}{\|x\|}cos(β)=hypotenuseadjacent​=∥x∥x1​​

sin(β)=oppositehypotenuse=x2xsin(\beta) =\frac{opposite}{hypotenuse} =\frac{x_2}{\|x\|}sin(β)=hypotenuseopposite​=∥x∥x2​​

cos(α)=adjacenthypotenuse=y1ycos(\alpha) =\frac{adjacent}{hypotenuse} =\frac{y_1}{\|y\|}cos(α)=hypotenuseadjacent​=∥y∥y1​​

sin(α)=oppositehypotenuse=y2ysin(\alpha) =\frac{opposite}{hypotenuse} = \frac{y_2}{\|y\|}sin(α)=hypotenuseopposite​=∥y∥y2​​

从图片中得到 θ=βα\theta = \beta - \alphaθ=β−α, 那么cos(θ)=cos(βα)cos(\theta) = cos(\beta - \alpha) cos(θ)=cos(β−α)

cos(βα)=cos(β)cos(α)+sin(β)sin(α)cos(\beta - \alpha) = cos(\beta)cos(\alpha) + sin(\beta)sin(\alpha)cos(β−α)=cos(β)cos(α)+sin(β)sin(α)

于是,

cos(θ)=cos(βα)=cos(β)cos(α)+sin(β)sin(α)cos(\theta) = cos(\beta - \alpha) = cos(\beta)cos(\alpha) + sin(\beta)sin(\alpha)cos(θ)=cos(β−α)=cos(β)cos(α)+sin(β)sin(α)

cos(θ)=x1xy1y+x2xy2ycos(\theta) = \frac{x_1}{\|x\|}\frac{y_1}{\|y\|}+ \frac{x_2}{\|x\|}\frac{y_2}{\|y\|}cos(θ)=∥x∥x1​​∥y∥y1​​+∥x∥x2​​∥y∥y2​​

cos(θ)=x1y1+x2y2xycos(\theta) = \frac{x_1y_1 + x_2y_2}{\|x\|\|y\|}cos(θ)=∥x∥∥y∥x1​y1​+x2​y2​​

xycos(θ)=x1y1+x2y2 \|x\|\|y\|cos(\theta) = x_1y_1 + x_2y_2 ∥x∥∥y∥cos(θ)=x1​y1​+x2​y2​

点积的算术定义就出来,

xy=x1y1+x2y2=i=12(xiyi)\mathbf{x} \cdot \mathbf{y} =x_1y_1 + x_2y_2 = \sum_{i=1}^{2}(x_iy_i)x⋅y=x1​y1​+x2​y2​=i=1∑2​(xi​yi​)

从上面的集合定义也能知道,两个向量的点积是一个数。

向量的正交投影

如图给定两个向量xy,那么向量xy上的投影为z

fig8

通过上面的学习我们知道,

cos(θ)=zxcos(\theta)= \frac{\|z\|}{\|x\|}cos(θ)=∥x∥∥z∥​

z=xcos(θ)\|z\|=\|x\|cos(\theta)∥z∥=∥x∥cos(θ)

点积cos(θ)=xyxycos(\theta) = \frac{\mathbf{x} \cdot \mathbf{y}}{\|x\|\|y\|}cos(θ)=∥x∥∥y∥x⋅y​

于是可以推导得

z=xyy\|z\|=\frac{\mathbf{x} \cdot \mathbf{y}}{\|y\|}∥z∥=∥y∥x⋅y​

另外我们知道方向向量的,如果u表示向量y的方向向量,u=yy\mathbf{u}=\frac{\mathbf{y}}{\|y\|}u=∥y∥y​, 那么向量x在向量y上面的投影可以由下式计算:

z=ux\|z\|=\mathbf{u} \cdot \mathbf{x}∥z∥=u⋅x

我们还注意到,向量x在向量y上的投影得到的向量z,它的方向向量和向量y的方向向量是一致的,所以向量z可表示为z=zu\mathbf{z}=\|z\|\mathbf{u}z=∥z∥u。

知道了向量x在向量y上面的投影z后,我们就能够计算向量x-z的距离:

xz=(34)2+(51)2=17\|x-z\| = \sqrt{(3-4)^2 + (5-1)^2}=\sqrt{17}∥x−z∥=(3−4)2+(5−1)2​=17

fig9

详见原文地址:https://www.svm-tutorial.com/2014/11/svm-understanding-math-part-2/

相关阅读

SVM支持向量机原理及核函数

原文链接:SVM支持向量机原理及核函数 转载请注明出处 支持向量机原理 大距离分类算法 1、名词解释: 分割超平面:如下图所示,构造

向量点乘相关公式推导

1.向量点乘公式推导和几何解释一般来说,点乘结果描述了两个向量的“相似”程度,点乘结果越大,两向量越相近。01.向量点乘(dot produc

复数计算和向量计算的区别

今天接触到了量子计算,原理正在摸索,但是从数学角度,复数计算应该会用到。 以前学习复数的时候,纯属应付考试,现在回想只记得一个公式:,

法向半球内单位向量(切空间) 转世界空间表示

已知此切线空间的法线在世界空间中的表示N,求此切线空间构成的半球形空间任意单位向量(θ,φ)在世界空间中的表示 首先根据N,计算该

AI产品经理必懂算法:支持向量机SVM

作为AI产品经理必懂算法的第二篇,来了解一下支持向量机SVM算法,英文全称是“Support Vector Machine”。在机器学习中,SVM是监督学习

分享到:

栏目导航

推荐阅读

热门阅读