\(1/n\) のデータをランダムサンプリングして学習すると,推定したパラメータの偏差はn倍になってしまう.この偏差を元と同じオーダーに抑える.
基本文献はデータスカッシング (data squashing)の端緒となった論文.次のようなサンプリング法を提案:
こうして得られた重みとサンプルを使って学習をすることで,少数のデータで高精度の推定が可能になる.
このようにサンプリング手法の工夫による方法をデータスカッシングと著者は呼んだが,大規模クラスタリング手法のBIRCHのようにデータを 粗視化 (coarse graining) するような方法もデータスカッシングと呼ばれることが多いと思う.
-- しましま