本書には略語以外英文索引がありませんので主要語についてこちらに掲載いたします。
2009-01-08 版
| アルファベット以外 | ||
| 1 vs 1 | 120 | |
| 1 vs all(rest) | 120 | |
| 1 class nu-support vector machine | 1クラスサポートベクトルマシン | 107 |
| ε-insensitive function | ε-不感応関数 | 99 |
| ν-support vector machine | ν-サポートベクトルマシン | 104 |
| ν-support vector regression | ν-サポートベクトル回帰 | 105 |
| ν-trick | νトリック | 104 |
| A | ||
| all-subset kernel | 全部分集合カーネル | 138 |
| all-substring kernel | 全部分文字列カーネル | 141 |
| ANOVA kernel | ANOVA カーネル | 138 |
| B | ||
| Bayes formula | ベイズの公式 | 31 |
| Bochner's theorem | ボホナーの定理 | 127 |
| C | ||
| canonical correlation analysis | 正準相関分析 | 15,74 |
| CCA | =canonical correlation analysis | |
| classification | クラス識別 | 14 |
| closs-validation | 交差確認法 | 35 |
| clustering | クラスタリング | 15,63 |
| complementarity condition | 相補性条件 | 92 |
| conformal transformation | コンフォーマル変換 | 125 |
| convex function | 凸関数 | 17 |
| convolution kernel | 畳み込みカーネル | 127 |
| cost | 損失 | 5 |
| cross-validation | 交差確認法 | 35 |
| curse of dimensionality | 次元の呪い | 9 |
| cost | 損失 | 5 |
| cut | カット | 66 |
| CV | =crossvalidation | |
| complementarity condition | 相補性条件 | 92 |
| D | ||
| datamining | データマイニング | 2 |
| diffusion kernel | 拡散カーネル | 129 |
| discriminant function | 識別関数 | 87 |
| distance | 距離 | 57 |
| divergence | ダイバージェンス | 131,162 |
| double centralization | 二重中心化 | 60 |
| dual problem | 双対問題 | 94,193 |
| dynamic programming | 動的計画法 | 136 |
| E | ||
| ECOC | =error correcting output coding method | |
| empirical risk | 経験損失 | 177 |
| error correcting output coding method | 誤り訂正出力符号化法 | 120 |
| expected risk | 期待損失 | 177 |
| exponential family | 指数分布族 | 161 |
| exponential kernel | 指数カーネル | 129 |
| F | ||
| feature extraction | 特徴抽出 | 20 |
| Fisher information matrix | フィッシャー情報行列 | 134 |
| Fisher kernel | フィッシャーカーネル | 134 |
| forward problem | 順問題 | 166 |
| G | ||
| Gauss kernel | ガウスカーネル | 26 |
| Gaussian process | 正規過程 | 32,173 |
| generalization error | 汎化誤差 | 178 |
| generalization performance | 汎化能力 | 8 |
| generative model | 生成モデル | 31 |
| GP | =Gaussian process | |
| gram matrix | グラム行列 | 25 |
| graph structure | グラフ構造 | 144 |
| Green function | グリーン関数 | 172 |
| H | ||
| hard margin | ハードマージン | 96 |
| Hilbert space | ヒルベルト空間 | 149 |
| Hoeffding inequality | ヘフディングの不等式 | 182 |
| Huber's cost function | フーバーの損失関数 | 115 |
| I | ||
| ICA | =independent component analysis | |
| ill-posed | 不良設定 | 167 |
| independent component analysis | 独立成分分析 | 79 |
| information compression | 情報圧縮 | 14 |
| information geometry | 情報幾何 | 131,160 |
| inner product axiom | 内積の公理 | 149 |
| inverse problem | 逆問題 | 166 |
| ISOMAP | 56 | |
| J | ||
| K | ||
| Karush-Kuhn-Tucker condition | KKT条件 | 92 |
| kernel CCA | カーネルCCA | 74 |
| kernel feature analysis | カーネル特徴分析 | 114 |
| kernel function | カーネル関数 | 6,21 |
| kernel ICA | カーネルICA | 82 |
| kernel k-means method | カーネル k-平均法 | 64 |
| kernel LDA | カーネル判別分析 | 72 |
| kernel logistic regression | カーネルロジスティック回帰 | 117 |
| kernel PCA | カーネルPCA | 44 |
| kernel regression | カーネル回帰 | 14 |
| kernel trick | カーネルトリック | 26 |
| KFA | =kernel feature analysis | |
| KKT | =Karush-Kuhn-Tucker condition | |
| k-means method | k-平均法 | 63 |
| Kullback-Leibler divergence | カルバックライブラーダイバージェンス | 162 |
| L | ||
| L1 regularization | L1正則化 | 112 |
| Lagrange function | ラグランジュ関数 | 193 |
| Lagrange multipler method | ラグランジュの未定乗数法 | 45 |
| Laplacian eigenmap method | ラプラシアン固有マップ法 | 52 |
| lasso | =least asbsolute shrinkage and selection operator | |
| law of large numbers | 大数の法則 | 176 |
| LDA | =linear discriminant analysis | |
| learning | 学習 | 13 |
| learning theory | 学習理論 | 176 |
| least asbsolute shrinkage and selection operator | lasso | 113 |
| least square method | 最小二乗法 | 14 |
| leave-one-out bound | leave-one-out バウンド | 96 |
| leave-one-out crossvalidation | leave-one-outクロスバリデーション | 36 |
| leave-one-out lemma | leave-one-outの補題 | 191 |
| linear discriminant analysis | 判別分析 | 15,69 |
| linear model | 線形モデル | 4 |
| linear programming | 線形計画問題 | 90,113 |
| linear regression | 線形回帰 | 14 |
| LLE | =locally linear embedding | |
| locally linear embedding | 局所線形埋め込み法 | 61 |
| logistic model | ロジスティックモデル | 117 |
| LP | =linear programming | |
| M | ||
| manifold | 多様体 | 56 |
| many vs many | 120 | |
| MAP estimation | MAP推定 | 31 |
| margin | マージン | 96 |
| marginalized kernel | 周辺化カーネル | 135 |
| McDiarmid's inequality | マクダイアミッドの不等式 | 181 |
| MDS | =multidimensional scaling | |
| Mercer's thereom | マーサーの定理 | 158 |
| model selection | モデル選択 | 34 |
| multiclass classification | 他クラス識別 | 117 |
| multidimensional scaling | 多次元尺度構成法 | 51 |
| N | ||
| neighbor graph | 近傍グラフ | 57 |
| neural network | ニューラルネットワーク | 29 |
| normalized kernel | 正規化カーネル | 125 |
| novelty detection | 新規性検出 | 106 |
| O | ||
| outlier | 外れ値 | 106 |
| overfitting | 過学習 | 8 |
| P | ||
| PCA | =principal component analysis | |
| piecewise linear error | 局所線形誤差 | 87 |
| polyhedtron theorem | 多面体定理 | 114 |
| polynomial kernel | 多項式カーネル | 28,137 |
| positive definite matrix | 正定値行列 | 49 |
| positive definiteness | 正定値性 | 25,155 |
| positive semidefiniteness | 半正定値性 | 155 |
| posterior distribution | 事後分布 | 31 |
| primal problem | 主問題 | 193 |
| principal component analysis | 主成分分析 | 15,42 |
| probit model | プロビットモデル | 117 |
| projection theorem | 射影定理 | 162 |
| p-spectrum kernel | p-スペクトルカーネル | 142 |
| p-suffix kernel | p-接尾辞カーネル | 142 |
| Q | ||
| QP | =quadratic programming | |
| quadratic error | 二乗誤差 | 5 |
| quadratic programming | 凸二次計画問題 | 90 |
| R | ||
| Rademacher complexity | ラデマッハー複雑度 | 183 |
| radial basis function | 動径基底関数 | 29 |
| RBF | =radial basis function | |
| regression | 回帰 | 14 |
| regularization | 正則化 | 9,166 |
| regularization parameter | 正則化パラメータ | 10 |
| regularization term | 正則化項 | 10 |
| representer theorem | リプレゼンター定理 | 23,169 |
| reproducing kernel | 再生核 | 152 |
| reproducing kernel Hilbert space | 再生核ヒルベルト空間 | 152 |
| reproducing property | 再生性 | 151 |
| ridge regression | リッジ回帰 | 14 |
| risk | 損失 | 5 |
| RKHS | =reproducing kernel Hilbert space | |
| robustness | ロバスト性 | 86 |
| S | ||
| saddle point theorem | 鞍点定理 | 194 |
| Schoenberg's theorem | シェーンバーグの定理 | 128 |
| SDP | =semidefinite programming | |
| semidefinite programming | 半定値計画問題 | 133 |
| sequential minimal optimization | SMO | 111 |
| sigmoid kernel | シグモイドカーネル | 29 |
| similarity | 類似度 | 50 |
| SMO | =sequential minimal optimization | |
| soft margin | ソフトマージン | 97 |
| sparsity | スパース性 | 86 |
| spectral clustering | スペクトルラルクラスタリング | 67 |
| string kernel | 文字列カーネル | 140 |
| suffix tree | 接尾辞木 | 143 |
| support vector | サポートベクトル | 93 |
| support vector domain description | サポートベクトル領域記述法 | 109 |
| support vector machine | サポートベクトルマシン | 88 |
| support vector regression | サポートベクトル回帰 | 99 |
| SVDD | =support vector domain description | |
| SVM | =support vector machine | |
| SVR | =support vector regression | |
| T | ||
| teacher output | 教師出力 | 14 |
| tensor product | テンソル積 | 154 |
| Tikhonov regularization | ティホノフの正則化 | 168 |
| transduction | トランスダクション | 50 |
| translation invariant kernel | 平行移動不変カーネル | 127 |
| U | ||
| V | ||
| Vapnik-Chervonenkis dimension | VC次元 | 189 |
| VC dimension | =Vapnik-Chervonenkis dimension | |
| W | ||
| well-posed | 良設定 | 167 |
| X | ||
| Y | ||
| Z | ||