数理统计:闵可夫斯基距离
这是本文档旧的修订版!
闵可夫斯基距离
Minkowski Distance
定义
两个$n$维变量$a\left(a_1,a_2,…,a_n\right)$与$b\left(b_1,b_2,…,b_n\right)$间的闵可夫斯基距离定义为:
$$d=\sqrt[p]{\sum_{k=1}^{n}{\left|a_{k}-b{k}\right|^p}}$$
其中$p$是一个变参数。 当$p=1$时,就是曼哈顿距离;当$p=2$时,就是欧氏距离;当$p→∞$时,就是切比雪夫距离。
数理统计/闵可夫斯基距离.1475299302.txt.gz · 最后更改: 2016/10/01 13:21 由 爱折腾的交通人