我是靠谱客的博主 朴素台灯,最近开发中收集的这篇文章主要介绍机器学习之线性代数基础二 向量内积、平面表达式的几何意义,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

1. 向量内积

  向量内积除了我们常用的坐标表示的计算方法之外,还有另外一种不太常见用向量的二范数计算的方法。假设有向量 u ⃗ , v vec{u},v u ,v之间的夹角为 θ theta θ,那么 u ⃗ T v = ∣ ∣ u ⃗ ∣ ∣ ∣ ∣ v ⃗ ∣ ∣ c o s ( θ ) vec{u}^{T}v=||vec{u}||||vec{v}||cos(theta) u Tv=u v cos(θ)继续变换一下,
u ⃗ T v = ∣ ∣ u ⃗ ∣ ∣ ( ∣ ∣ v ⃗ ∣ ∣ c o s ( θ ) ) = ∣ ∣ v ⃗ ∣ ∣ ( ∣ ∣ u ⃗ ∣ ∣ c o s ( θ ) ) vec{u}^{T}v=||vec{u}|| (||vec{v}||cos(theta))=||vec{v}|| (||vec{u}||cos(theta)) u Tv=u (v cos(θ))=v (u cos(θ))其中 ∣ ∣ v ⃗ ∣ ∣ c o s ( θ ) ||vec{v}||cos(theta) v cos(θ)的几何意义是向量 v v v在向量 u ⃗ vec{u} u 上的投影,那么我们可以知道向量内积的几何意义就是:向量 u ⃗ vec{u} u ( v ⃗ vec{v} v )的二范数与向量 v ⃗ vec{v} v ( u ⃗ vec{u} u )在向量 u ⃗ vec{u} u ( v ⃗ vec{v} v )上的投影的乘积

2. 平面表达式

  知道了向量内积的几何意义,平面表达式的几何意义就容易理解的多。我们用 w ⃗ vec{w} w 表示平面的法向量, x ⃗ vec{x} x 表示直线上的点所表示的向量(从原点出发)。
  我们先看一个没有偏置的表面表达式如下 w ⃗ T x ⃗ = 0 vec{w}^{T}vec{x}=0 w Tx =0其中,此时, x ⃗ vec{x} x 在法向量 w ⃗ vec{w} w 的投影为零,显然 x ⃗ vec{x} x 是垂直于法向量 w ⃗ vec{w} w 的。此时直线是过原点垂直于法向量的
  有偏置的情况就是, x ⃗ vec{x} x 并不垂直于 w ⃗ vec{w} w ,但是** x ⃗ vec{x} x w ⃗ vec{w} w 上的投影是恒定的**,即 w ⃗ T x ⃗ = − b vec{w}^{T}vec{x}=-b w Tx =b此时直线不过原点,但必然是垂直于法向量的

最后

以上就是朴素台灯为你收集整理的机器学习之线性代数基础二 向量内积、平面表达式的几何意义的全部内容,希望文章能够帮你解决机器学习之线性代数基础二 向量内积、平面表达式的几何意义所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(40)

评论列表共有 0 条评论

立即
投稿
返回
顶部