概述
1. 向量内积
向量内积除了我们常用的坐标表示的计算方法之外,还有另外一种不太常见用向量的二范数计算的方法。假设有向量
u
⃗
,
v
vec{u},v
u,v之间的夹角为
θ
theta
θ,那么
u
⃗
T
v
=
∣
∣
u
⃗
∣
∣
∣
∣
v
⃗
∣
∣
c
o
s
(
θ
)
vec{u}^{T}v=||vec{u}||||vec{v}||cos(theta)
uTv=∣∣u∣∣∣∣v∣∣cos(θ)继续变换一下,
u
⃗
T
v
=
∣
∣
u
⃗
∣
∣
(
∣
∣
v
⃗
∣
∣
c
o
s
(
θ
)
)
=
∣
∣
v
⃗
∣
∣
(
∣
∣
u
⃗
∣
∣
c
o
s
(
θ
)
)
vec{u}^{T}v=||vec{u}|| (||vec{v}||cos(theta))=||vec{v}|| (||vec{u}||cos(theta))
uTv=∣∣u∣∣(∣∣v∣∣cos(θ))=∣∣v∣∣(∣∣u∣∣cos(θ))其中
∣
∣
v
⃗
∣
∣
c
o
s
(
θ
)
||vec{v}||cos(theta)
∣∣v∣∣cos(θ)的几何意义是向量
v
v
v在向量
u
⃗
vec{u}
u上的投影,那么我们可以知道向量内积的几何意义就是:向量
u
⃗
vec{u}
u(
v
⃗
vec{v}
v)的二范数与向量
v
⃗
vec{v}
v(
u
⃗
vec{u}
u)在向量
u
⃗
vec{u}
u(
v
⃗
vec{v}
v)上的投影的乘积
2. 平面表达式
知道了向量内积的几何意义,平面表达式的几何意义就容易理解的多。我们用
w
⃗
vec{w}
w表示平面的法向量,
x
⃗
vec{x}
x表示直线上的点所表示的向量(从原点出发)。
我们先看一个没有偏置的表面表达式如下
w
⃗
T
x
⃗
=
0
vec{w}^{T}vec{x}=0
wTx=0其中,此时,
x
⃗
vec{x}
x在法向量
w
⃗
vec{w}
w的投影为零,显然
x
⃗
vec{x}
x是垂直于法向量
w
⃗
vec{w}
w的。此时直线是过原点垂直于法向量的。
有偏置的情况就是,
x
⃗
vec{x}
x并不垂直于
w
⃗
vec{w}
w,但是**
x
⃗
vec{x}
x在
w
⃗
vec{w}
w上的投影是恒定的**,即
w
⃗
T
x
⃗
=
−
b
vec{w}^{T}vec{x}=-b
wTx=−b此时直线不过原点,但必然是垂直于法向量的。
最后
以上就是朴素台灯为你收集整理的机器学习之线性代数基础二 向量内积、平面表达式的几何意义的全部内容,希望文章能够帮你解决机器学习之线性代数基础二 向量内积、平面表达式的几何意义所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复