入力されるデータが理想的な状態からやや乖離していても,理想的であったときと同等の出力ができる性質.
統計と機械学習ではやや使われ方が違うように思う.
統計では,モデルが仮定する分布と,実際のデータの分布の違いについて考察されることが多いと思う. 例えば,線形回帰のノイズは正規分布に従うと仮定されている.分布のすその重さなどが理想と違っても,出力される回帰直線にはあまり変化はなく頑健といえる. しかし,分布の対称性の仮定が成立しないと,出力は大きく影響され,頑健ではないといえる.
機械学習では,はずれ値や欠損値がない理想的な状態とは違うデータに対して,同じ結果が得られるという意味で使われることが多い.すなわち,ほぼロバスト推定をするのとほぼ同じ意味.
-- しましま