欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 房产 > 家装 > TIT-2014《Randomized Dimensionality Reduction for $k$-means Clustering》

TIT-2014《Randomized Dimensionality Reduction for $k$-means Clustering》

2025/5/26 1:08:28 来源:https://blog.csdn.net/weixin_41552975/article/details/148187457  浏览:    关键词:TIT-2014《Randomized Dimensionality Reduction for $k$-means Clustering》

推荐深蓝学院的《深度神经网络加速:cuDNN 与 TensorRT》,课程面向就业,细致讲解CUDA运算的理论支撑与实践,学完可以系统化掌握CUDA基础编程知识以及TensorRT实战,并且能够利用GPU开发高性能、高并发的软件系统,感兴趣可以直接看看链接:深蓝学院《深度神经网络加速:cuDNN 与 TensorRT》
在这里插入图片描述


核心思想

论文的核心思想是研究 k k k-means 聚类的降维方法,旨在通过特征选择和特征提取技术降低高维数据的计算复杂性,同时保持聚类质量的理论保证。论文提出了一种新的特征选择方法和两种改进的特征提取方法,均基于随机化算法,提供了常数因子近似保证。核心观点是将 k k k-means 聚类问题从线性代数的视角重新表述,利用矩阵低秩近似技术(如奇异值分解 SVD 和随机投影)来实现降维,同时保持聚类目标函数的近似精度。

具体而言,论文通过以下方式实现降维:

  1. 特征选择:从原始特征中选择一个小的子集,基于随机采样技术,结合近似 SVD 的思想,提出首个具有理论保证的 k k k-means 特征选择算法。
  2. 特征提取:通过随机投影和快速近似 SVD 构建新的低维特征,优化时间复杂度和特征数量,同时保持聚类质量。

目标函数

k k k-means 聚类的目标是给定 m m m 个欧几里得点 P = { p 1 , p 2 , … , p m } ⊆ R n \mathcal{P} = \{\mathbf{p}_1, \mathbf{p}_2, \ldots, \mathbf{p}_m\} \subseteq \mathbb{R}^n P={p1,p2,,pm}Rn 和聚类数量 k k k,将这些点划分为 k k k 个簇,使得每个点到其最近簇中心的平方欧几里得距离之和最小。目标函数定义为:

F ( P , S ) = ∑ i = 1 m ∥ p i − μ ( p i ) ∥ 2 2 \mathcal{F}(\mathcal{P}, \mathcal{S}) = \sum_{i=1}^m \|\mathbf{p}_i - \boldsymbol{\mu}(\mathbf{p}_i)\|_2^2 F(P,S)=i=1mpiμ(pi)22

其中:

  • S = { S 1 , S 2 , … , S k } \mathcal{S} = \{\mathcal{S}_1, \mathcal{S}_2, \ldots, \mathcal{S}_k\} S={S1,S2,,Sk} P \mathcal{P} P 的一个 k k k 分区, S j \mathcal{S}_j Sj 表示第 j j j 个簇, s j = ∣ S j ∣ s_j = |\mathcal{S}_j| sj=Sj 是簇的大小。
  • μ j = ∑ p i ∈ S j p i s j \boldsymbol{\mu}_j = \frac{\sum_{\mathbf{p}_i \in \mathcal{S}_j} \mathbf{p}_i}{s_j} μj=sjpiSjpi 是第 j j j 个簇的质心, μ ( p i ) \boldsymbol{\mu}(\mathbf{p}_i) μ(pi) 是点 p i \mathbf{p}_i pi 所属簇的质心。

在线性代数视角下,数据点组成矩阵 A ∈ R m × n \mathbf{A} \in \mathbb{R}^{m \times n} ARm×n,每行表示一个数据点 p i ⊤ \mathbf{p}_i^\top pi。聚类由簇指示矩阵 X ∈ R m × k \mathbf{X} \in \mathbb{R}^{m \times k} XRm×k 表示,其中 X i j = 1 / s j \mathbf{X}_{ij} = 1/\sqrt{s_j} Xij=1/sj 如果点 p i \mathbf{p}_i pi 属于簇 S j \mathcal{S}_j Sj,否则为 0。目标函数可重写为:

F ( A , X ) = ∥ A − X X ⊤ A ∥ F 2 \mathcal{F}(\mathbf{A}, \mathbf{X}) = \|\mathbf{A} - \mathbf{X} \mathbf{X}^\top \mathbf{A}\|_F^2 F(A,X)=AXXAF2

其中 ∥ ⋅ ∥ F \|\cdot\|_F F 表示 Frobenius 范数。目标是找到最优的簇指示矩阵 X opt \mathbf{X}_{\text{opt}} Xopt,使得:

X opt = argmin ⁡ X ∈ X ∥ A − X X ⊤ A ∥ F 2 \mathbf{X}_{\text{opt}} = \underset{\mathbf{X} \in \mathcal{X}}{\operatorname{argmin}} \|\mathbf{A} - \mathbf{X} \mathbf{X}^\top \mathbf{A}\|_F^2 Xopt=XXargminAXXAF2

其中 X \mathcal{X} X 是所有 m × k m \times k m×k 簇指示矩阵的集合,最优目标函数值为 F ( A , X opt ) = F opt \mathcal{F}(\mathbf{A}, \mathbf{X}_{\text{opt}}) = \mathbf{F}_{\text{opt}} F(A,Xopt)=Fopt

降维的目标是构建低维点集 P ~ = { p ~ 1 , p ~ 2 , … , p ~ m } ⊆ R r \tilde{\mathcal{P}} = \{\tilde{\mathbf{p}}_1, \tilde{\mathbf{p}}_2, \ldots, \tilde{\mathbf{p}}_m\} \subseteq \mathbb{R}^r P~={p~1,p~2,,p~m}Rr r ≪ n r \ll n rn),使得在低维空间计算的最优 k k k-means 分区 S ~ opt \tilde{\mathcal{S}}_{\text{opt}} S~opt 在原始空间的目标函数值满足:

F ( P , S ~ opt ) ≤ γ ⋅ F ( P , S opt ) \mathcal{F}(\mathcal{P}, \tilde{\mathcal{S}}_{\text{opt}}) \leq \gamma \cdot \mathcal{F}(\mathcal{P}, \mathcal{S}_{\text{opt}}) F(P,S~opt)γF(P,Sopt)

其中 γ > 0 \gamma > 0 γ>0 是近似比率。


目标函数的优化过程

k k k-means 聚类的优化是一个 NP 难问题,传统方法如 Lloyd 算法通过迭代优化目标函数,但计算复杂性随维度 n n n 增加而显著上升。论文通过降维降低计算复杂性,具体优化过程如下:

  1. 特征选择(Theorem 11)

    • 步骤
      1. 给定数据矩阵 A ∈ R m × n \mathbf{A} \in \mathbb{R}^{m \times n} ARm×n 和簇数 k k k,计算近似右奇异向量矩阵 Z ∈ R n × k \mathbf{Z} \in \mathbb{R}^{n \times k} ZRn×k,使用快速 Frobenius 范数 SVD 算法(Lemma 4),满足 Z ⊤ Z = I k \mathbf{Z}^\top \mathbf{Z} = \mathbf{I}_k ZZ=Ik E ∥ A − A Z Z ⊤ ∥ F 2 ≤ ( 1 + ε ) ∥ A − A k ∥ F 2 \mathbb{E}\|\mathbf{A} - \mathbf{A} \mathbf{Z} \mathbf{Z}^\top\|_F^2 \leq (1+\varepsilon) \|\mathbf{A} - \mathbf{A}_k\|_F^2 EAAZZF2(1+ε)AAkF2
      2. 使用随机采样方法(Definition 5),根据 Z \mathbf{Z} Z 的行范数计算采样概率 p i = ∥ Z ( i ) ∥ 2 2 ∥ Z ∥ F 2 p_i = \frac{\|\mathbf{Z}_{(i)}\|_2^2}{\|\mathbf{Z}\|_F^2} pi=ZF2Z(i)22,从中选择 r = O ( k log ⁡ ( k ) / ε 2 ) r = O(k \log(k) / \varepsilon^2) r=O(klog(k)/ε2) 个特征。
      3. 构建采样矩阵 Ω ∈ R n × r \boldsymbol{\Omega} \in \mathbb{R}^{n \times r} ΩRn×r 和重缩放矩阵 S ∈ R r × r \mathbf{S} \in \mathbb{R}^{r \times r} SRr×r,得到低维矩阵 C = A Ω S \mathbf{C} = \mathbf{A} \boldsymbol{\Omega} \mathbf{S} C=AΩS
      4. C \mathbf{C} C 上运行 k k k-means 算法,得到低维最优分区 X ~ opt \tilde{\mathbf{X}}_{\text{opt}} X~opt,并将其应用于原始数据 A \mathbf{A} A
    • 优化原理:通过近似 SVD 和随机采样,保留数据的主要结构,降低维度,同时保证目标函数的 ( 3 + ε ) (3+\varepsilon) (3+ε) 近似。
  2. 特征提取 - 随机投影(Theorem 12)

    • 步骤
      1. 构造随机投影矩阵 R ∈ R n × r \mathbf{R} \in \mathbb{R}^{n \times r} RRn×r,其中 r = O ( k / ε 2 ) r = O(k / \varepsilon^2) r=O(k/ε2),元素为标准高斯分布或重缩放的随机符号。
      2. 计算低维矩阵 C = A R ∈ R m × r \mathbf{C} = \mathbf{A} \mathbf{R} \in \mathbb{R}^{m \times r} C=ARRm×r,表示低维点集 P ~ \tilde{\mathcal{P}} P~
      3. C \mathbf{C} C 上运行 k k k-means 算法,得到 X ~ opt \tilde{\mathbf{X}}_{\text{opt}} X~opt,并计算原始空间的目标函数值。
    • 优化原理:利用 Johnson-Lindenstrauss 引理,随机投影保留点之间的欧几里得距离,目标函数近似误差为 ( 2 + ε ) (2+\varepsilon) (2+ε)
  3. 特征提取 - 近似 SVD(Theorem 13)

    • 步骤
      1. 使用快速近似 SVD 算法(Lemma 4)计算 Z ∈ R n × k \mathbf{Z} \in \mathbb{R}^{n \times k} ZRn×k,近似 A \mathbf{A} A 的前 k k k 个右奇异向量。
      2. 构建低维矩阵 C = A Z ∈ R m × k \mathbf{C} = \mathbf{A} \mathbf{Z} \in \mathbb{R}^{m \times k} C=AZRm×k
      3. C \mathbf{C} C 上运行 k k k-means 算法,得到 X ~ opt \tilde{\mathbf{X}}_{\text{opt}} X~opt
    • 优化原理:近似 SVD 提供接近最优的低秩近似,目标函数近似误差为 ( 2 + ε ) (2+\varepsilon) (2+ε),时间复杂度显著低于精确 SVD。

优化过程的关键是通过矩阵 C = A D \mathbf{C} = \mathbf{A} \mathbf{D} C=AD(其中 D \mathbf{D} D 为特征选择或提取矩阵)构造低维表示,确保 C ⋅ H \mathbf{C} \cdot \mathbf{H} CH(适当的 H \mathbf{H} H)在 Frobenius 范数下接近 A k \mathbf{A}_k Ak A \mathbf{A} A 的最佳秩 k k k 近似)。利用矩阵 Pythagorean 定理和 SVD 的正交性,证明近似误差受控。


主要贡献点

  1. 首个理论保证的特征选择算法
    • 提出了一种随机化特征选择算法(Theorem 11),以 O ( m n k / ε + k log ⁡ ( k ) / ε 2 log ⁡ ( k log ⁡ ( k ) / ε ) ) O(m n k / \varepsilon + k \log(k) / \varepsilon^2 \log(k \log(k) / \varepsilon)) O(mnk/ε+klog(k)/ε2log(klog(k)/ε)) 时间复杂度选择 r = O ( k log ⁡ ( k ) / ε 2 ) r = O(k \log(k) / \varepsilon^2) r=O(klog(k)/ε2) 个特征,达到 ( 3 + ε ) (3+\varepsilon) (3+ε) 近似误差。这是首个具有理论保证的 k k k-means 特征选择方法。
  2. 改进的随机投影特征提取
    • Theorem 12 提出了一种随机投影方法,所需维度从 O ( log ⁡ ( m ) / ε 2 ) O(\log(m) / \varepsilon^2) O(log(m)/ε2) 减少到 O ( k / ε 2 ) O(k / \varepsilon^2) O(k/ε2),时间复杂度为 O ( m n [ ε − 2 k / log ⁡ ( n ) ] ) O(m n [\varepsilon^{-2} k / \log(n)]) O(mn[ε2k/log(n)]),近似误差为 ( 2 + ε ) (2+\varepsilon) (2+ε),优于传统随机投影结果。
  3. 快速近似 SVD 特征提取
    • Theorem 13 利用快速近似 SVD,仅需 r = k r = k r=k 个特征和 O ( m n k / ε ) O(m n k / \varepsilon) O(mnk/ε) 时间复杂度,达到 ( 2 + ε ) (2+\varepsilon) (2+ε) 近似误差,显著优于精确 SVD 的 O ( m n min ⁡ ( m , n ) ) O(m n \min(m, n)) O(mnmin(m,n)) 时间复杂度。
  4. 线性代数视角
    • k k k-means 聚类问题重构为矩阵低秩近似问题,利用 SVD 和随机投影的理论工具,提供了统一的分析框架。
  5. 实验验证
    • 在合成数据集和真实数据集(如 USPS、COIL20、LIGHT、PIE、ORL)上验证了算法的有效性,表明小维度(如 r = 20 r=20 r=20 30 30 30)即可实现接近最优的聚类效果。

实验结果

实验在合成数据集和多个真实数据集(USPS、COIL20、LIGHT、PIE、ORL)上进行,评估了运行时间、目标函数值(归一化形式 F / ∥ A ∥ F 2 \mathcal{F} / \|\mathbf{A}\|_F^2 F/∥AF2)和聚类准确率(基于标签的误分类率)。主要结果如下:

  1. 合成数据集
    • 降维方法显著优于朴素 k k k-means,运行时间大幅降低。
    • 当维度 r ≈ 20 r \approx 20 r20 时,聚类准确率接近最优,表明降维在分离良好的数据上非常有效。
  2. 真实数据集
    • 随着维度 r r r 增加,归一化目标函数值逐渐接近朴素 k k k-means 的值。
    • 在 USPS、LIGHT 和 ORL 数据集上,提出的降维方法在准确率和目标函数值上优于 Laplacian Scores 方法。
    • 在 PIE 和 COIL20 数据集上,Laplacian Scores 在准确率上更优,但朴素 k k k-means 表现较差,表明这些数据可能分离性较差。
  3. 运行时间
    • 降维后 k k k-means 的每次迭代时间复杂度从 O ( k m n ) O(k m n) O(kmn) 降至 O ( m k 2 / ε 2 ) O(m k^2 / \varepsilon^2) O(mk2/ε2),显著提高效率。
    • 运行时间不随维度单调增加,可能是因为降维后 Lloyd 算法迭代次数变化。
  4. 结论
    • 实验表明 r = 20 r=20 r=20 30 30 30 即可实现接近最优的聚类效果,验证了算法在理论和实践中的有效性。

算法实现过程

以下详细解释三种算法的实现过程,结合数学公式和伪代码。

1. 特征选择算法(Theorem 11)

算法描述:基于随机采样的特征选择,结合近似 SVD。
输入:数据矩阵 A ∈ R m × n \mathbf{A} \in \mathbb{R}^{m \times n} ARm×n,簇数 k k k,误差参数 ε \varepsilon ε,失败概率 δ \delta δ
输出:低维矩阵 C ∈ R m × r \mathbf{C} \in \mathbb{R}^{m \times r} CRm×r,簇指示矩阵 X ~ opt \tilde{\mathbf{X}}_{\text{opt}} X~opt
步骤

  1. 计算近似右奇异向量
    • 使用快速 Frobenius 范数 SVD 算法(Lemma 4):
      Z = FastFrobeniusSVD ( A , k , ε ) \mathbf{Z} = \text{FastFrobeniusSVD}(\mathbf{A}, k, \varepsilon) Z=FastFrobeniusSVD(A,k,ε)
      其中 Z ∈ R n × k \mathbf{Z} \in \mathbb{R}^{n \times k} ZRn×k,满足 Z ⊤ Z = I k \mathbf{Z}^\top \mathbf{Z} = \mathbf{I}_k ZZ=Ik,且 E ∥ A − A Z Z ⊤ ∥ F 2 ≤ ( 1 + ε ) ∥ A − A k ∥ F 2 \mathbb{E}\|\mathbf{A} - \mathbf{A} \mathbf{Z} \mathbf{Z}^\top\|_F^2 \leq (1+\varepsilon) \|\mathbf{A} - \mathbf{A}_k\|_F^2 EAAZZF2(1+ε)AAkF2
    • 时间复杂度: O ( m n k / ε ) O(m n k / \varepsilon) O(mnk/ε)
  2. 计算采样概率
    • Z \mathbf{Z} Z 的每一行 Z ( i ) \mathbf{Z}_{(i)} Z(i),计算概率:
      p i = ∥ Z ( i ) ∥ 2 2 ∥ Z ∥ F 2 p_i = \frac{\|\mathbf{Z}_{(i)}\|_2^2}{\|\mathbf{Z}\|_F^2} pi=ZF2Z(i)22
      其中 ∥ Z ∥ F 2 = k \|\mathbf{Z}\|_F^2 = k ZF2=k(因为 Z ⊤ Z = I k \mathbf{Z}^\top \mathbf{Z} = \mathbf{I}_k ZZ=Ik)。
    • 时间复杂度: O ( n k ) O(n k) O(nk)
  3. 随机采样特征
    • 选择 r = O ( k log ⁡ ( k ) / ε 2 ) r = O(k \log(k) / \varepsilon^2) r=O(klog(k)/ε2),调用随机采样算法(Definition 5):
      [ Ω , S ] = RandomizedSampling ( Z , r ) [\boldsymbol{\Omega}, \mathbf{S}] = \text{RandomizedSampling}(\mathbf{Z}, r) [Ω,S]=RandomizedSampling(Z,r)
      其中 Ω ∈ R n × r \boldsymbol{\Omega} \in \mathbb{R}^{n \times r} ΩRn×r 是采样矩阵, S ∈ R r × r \mathbf{S} \in \mathbb{R}^{r \times r} SRr×r 是重缩放矩阵。
    • 时间复杂度: O ( n + r ) O(n + r) O(n+r)
  4. 构建低维矩阵
    • 计算 C = A Ω S ∈ R m × r \mathbf{C} = \mathbf{A} \boldsymbol{\Omega} \mathbf{S} \in \mathbb{R}^{m \times r} C=AΩSRm×r,表示选择的 r r r 个重缩放特征。
    • 时间复杂度: O ( m r ) O(m r) O(mr)
  5. 运行 k k k-means
    • C \mathbf{C} C 上运行 Lloyd 算法,得到 X ~ opt \tilde{\mathbf{X}}_{\text{opt}} X~opt
    • X ~ opt \tilde{\mathbf{X}}_{\text{opt}} X~opt 应用于 A \mathbf{A} A,计算目标函数值 F ( A , X ~ opt ) \mathcal{F}(\mathbf{A}, \tilde{\mathbf{X}}_{\text{opt}}) F(A,X~opt)
      总时间复杂度 O ( m n k / ε + k log ⁡ ( k ) / ε 2 log ⁡ ( k log ⁡ ( k ) / ε ) ) O(m n k / \varepsilon + k \log(k) / \varepsilon^2 \log(k \log(k) / \varepsilon)) O(mnk/ε+klog(k)/ε2log(klog(k)/ε))
      理论保证:以至少 1 − 3 δ 1-3\delta 13δ 的概率, F ( A , X ~ opt ) ≤ ( 3 + ε ) F ( A , X opt ) \mathcal{F}(\mathbf{A}, \tilde{\mathbf{X}}_{\text{opt}}) \leq (3+\varepsilon) \mathcal{F}(\mathbf{A}, \mathbf{X}_{\text{opt}}) F(A,X~opt)(3+ε)F(A,Xopt)
2. 随机投影特征提取(Theorem 12)

算法描述:基于随机投影的特征提取,利用 Johnson-Lindenstrauss 变换。
输入 A ∈ R m × n \mathbf{A} \in \mathbb{R}^{m \times n} ARm×n k k k ε \varepsilon ε δ \delta δ
输出 C ∈ R m × r \mathbf{C} \in \mathbb{R}^{m \times r} CRm×r X ~ opt \tilde{\mathbf{X}}_{\text{opt}} X~opt
步骤

  1. 生成随机投影矩阵
    • 构造 R ∈ R n × r \mathbf{R} \in \mathbb{R}^{n \times r} RRn×r,其中 r = O ( k / ε 2 ) r = O(k / \varepsilon^2) r=O(k/ε2),元素为 i.i.d. N ( 0 , 1 ) \mathcal{N}(0, 1) N(0,1) 或重缩放随机符号 ± 1 / r \pm 1/\sqrt{r} ±1/r
  2. 投影数据
    • 计算 C = A R ∈ R m × r \mathbf{C} = \mathbf{A} \mathbf{R} \in \mathbb{R}^{m \times r} C=ARRm×r
    • 时间复杂度: O ( m n r ) = O ( m n [ ε − 2 k / log ⁡ ( n ) ] ) O(m n r) = O(m n [\varepsilon^{-2} k / \log(n)]) O(mnr)=O(mn[ε2k/log(n)])
  3. 运行 k k k-means
    • C \mathbf{C} C 上运行 Lloyd 算法,得到 X ~ opt \tilde{\mathbf{X}}_{\text{opt}} X~opt
    • 计算 F ( A , X ~ opt ) \mathcal{F}(\mathbf{A}, \tilde{\mathbf{X}}_{\text{opt}}) F(A,X~opt)
      总时间复杂度 O ( m n [ ε − 2 k / log ⁡ ( n ) ] ) O(m n [\varepsilon^{-2} k / \log(n)]) O(mn[ε2k/log(n)])
      理论保证:以至少 0.97 的概率, F ( A , X ~ opt ) ≤ ( 2 + ε ) F ( A , X opt ) \mathcal{F}(\mathbf{A}, \tilde{\mathbf{X}}_{\text{opt}}) \leq (2+\varepsilon) \mathcal{F}(\mathbf{A}, \mathbf{X}_{\text{opt}}) F(A,X~opt)(2+ε)F(A,Xopt)
3. 近似 SVD 特征提取(Theorem 13)

算法描述:基于快速近似 SVD 的特征提取。
输入 A ∈ R m × n \mathbf{A} \in \mathbb{R}^{m \times n} ARm×n k k k ε \varepsilon ε δ \delta δ
输出 C ∈ R m × k \mathbf{C} \in \mathbb{R}^{m \times k} CRm×k X ~ opt \tilde{\mathbf{X}}_{\text{opt}} X~opt
步骤

  1. 计算近似 SVD
    • 使用 Lemma 4 计算 Z = FastFrobeniusSVD ( A , k , ε ) \mathbf{Z} = \text{FastFrobeniusSVD}(\mathbf{A}, k, \varepsilon) Z=FastFrobeniusSVD(A,k,ε)
    • 时间复杂度: O ( m n k / ε ) O(m n k / \varepsilon) O(mnk/ε)
  2. 构建低维矩阵
    • 计算 C = A Z ∈ R m × k \mathbf{C} = \mathbf{A} \mathbf{Z} \in \mathbb{R}^{m \times k} C=AZRm×k
    • 时间复杂度: O ( m n k ) O(m n k) O(mnk)
  3. 运行 k k k-means
    • C \mathbf{C} C 上运行 Lloyd 算法,得到 X ~ opt \tilde{\mathbf{X}}_{\text{opt}} X~opt
    • 计算 F ( A , X ~ opt ) \mathcal{F}(\mathbf{A}, \tilde{\mathbf{X}}_{\text{opt}}) F(A,X~opt)
      总时间复杂度 O ( m n k / ε ) O(m n k / \varepsilon) O(mnk/ε)
      理论保证:以至少 0.99 的概率, F ( A , X ~ opt ) ≤ ( 2 + ε ) F ( A , X opt ) \mathcal{F}(\mathbf{A}, \tilde{\mathbf{X}}_{\text{opt}}) \leq (2+\varepsilon) \mathcal{F}(\mathbf{A}, \mathbf{X}_{\text{opt}}) F(A,X~opt)(2+ε)F(A,Xopt)

总结

该论文通过线性代数视角和随机化技术,为 k k k-means 聚类提供了高效的降维方法,显著降低了计算复杂性,同时保持理论上的近似保证。特征选择和特征提取算法的实现过程清晰,结合了现代矩阵分解和随机投影技术。实验结果进一步验证了算法在实际数据集上的有效性,为未来研究 ( 1 + ε ) (1+\varepsilon) (1+ε) 近似误差的降维方法提供了方向。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词