ラッソ回帰

ラッソ回帰(ラッソかいき、least absolute shrinkage and selection operatorLassoLASSO)は、変数選択正則化の両方を実行し、生成する統計モデルの予測精度と解釈可能性を向上させる回帰分析手法。1986年に地球物理学の文献で最初に導入され[1]、その後1996年にロバート・ティブシラニ(英語版)[2] が独自に再発見して一般化した。

ラッソ回帰はもともと最小二乗法で定義されていた。最小二乗法の単純なケースでは、予測器の振る舞いについて多くの事実が分かる。すなわち、リッジ回帰ベストサブセット選択(英語版)との関係、ラッソ係数予測といわゆるソフトしきい値処理(soft thresholding)との関係である。

一般化線形モデル一般化推定方程式比例ハザードモデルM推定器(英語版)など、さまざまな統計モデルに簡単に拡張できる[2][3]

動機

ラッソ回帰は、与えられた共変量の一部のみ最終モデルで使用することにより、回帰モデルの予測精度と解釈可能性を向上させるために導入された[2][4]

ラッソ回帰以前は、段階的選択が変数選択に広く用いられていた。これは、少数の共変量のみが結果と強い関係がある場合などには予測精度を向上させるが、それ以外の場合は、予測誤差を悪化させる可能性がある。 また、大きな回帰係数を縮小して過剰適合を減らすリッジ回帰も予測精度を向上させるために用いられていたが、リッジ回帰では共変量選択を実行しない。

ラッソ回帰は、回帰係数の絶対値の合計を固定値よりも小さくすることでこれらの目標を両方とも達成できる。これにより、特定の係数が強制的にゼロに設定され、これらの係数を含まないより単純なモデルが効果的に選択される。この考え方は、リッジ回帰に似ているが、リッジ回帰の場合はこれは係数のサイズを縮小するだけであり、ゼロに設定することはない。

基本形

ラッソ回帰はもともと最小二乗法の場面で導入された。このケースを最初に検討することは有益である。

それぞれが p {\displaystyle p} 個の共変量と単一の結果で構成される N {\displaystyle N} 個のケースで構成されるサンプルを考える。

y i {\displaystyle y_{i}} を結果、 x i := ( x 1 , x 2 , , x p ) T {\displaystyle x_{i}:=(x_{1},x_{2},\ldots ,x_{p})^{T}} i {\displaystyle i} 番目のケースの共変量ベクトルとする。 ラッソ回帰では、次の式を解くことを考える。

min β 0 , β { i = 1 N ( y i β 0 x i T β ) 2 }  subject to  j = 1 p | β j | t . {\displaystyle \min _{\beta _{0},\beta }\left\{\sum _{i=1}^{N}(y_{i}-\beta _{0}-x_{i}^{T}\beta )^{2}\right\}\quad {\text{ subject to }}\sum _{j=1}^{p}|\beta _{j}|\leq t.} [2]

ここで、 t {\displaystyle t} を正則化の量を決定する事前に指定された自由パラメーターとする。 共変量行列 X {\displaystyle X} について、 X i j = ( x i ) j {\displaystyle X_{ij}=(x_{i})_{j}} 、すなわち x i T {\displaystyle x_{i}^{T}} X {\displaystyle X} の第 i {\displaystyle i} 行とすると、次のように簡潔に記述することができる。

min β 0 , β { 1 N y β 0 1 N X β 2 2 }  subject to  β 1 t . {\displaystyle \min _{\beta _{0},\beta }\left\{{\frac {1}{N}}\left\|y-\beta _{0}1_{N}-X\beta \right\|_{2}^{2}\right\}\quad {\text{ subject to }}\|\beta \|_{1}\leq t.}

ここで、 u p = ( i = 1 N | u i | p ) 1 / p {\displaystyle \|u\|_{p}=\left(\sum _{i=1}^{N}|u_{i}|^{p}\right)^{1/p}} を標準 p {\displaystyle \ell ^{p}} ノルムとし、 1 N {\displaystyle 1_{N}} は 1 が N 個並んだ縦ベクトルとする。

データポイント x i {\displaystyle x_{i}} のスカラー平均を x ¯ {\displaystyle {\bar {x}}} 、応答変数 y i {\displaystyle y_{i}} の平均を y ¯ {\displaystyle {\bar {y}}} と記載すると、 β 0 {\displaystyle \beta _{0}} の推定値 β ^ 0 = y ¯ x ¯ T β {\displaystyle {\hat {\beta }}_{0}={\bar {y}}-{\bar {x}}^{T}\beta } を用いて下記のように記述できる。

y i β ^ 0 x i T β = y i ( y ¯ x ¯ T β ) x i T β = ( y i y ¯ ) ( x i x ¯ ) T β , {\displaystyle y_{i}-{\hat {\beta }}_{0}-x_{i}^{T}\beta =y_{i}-({\bar {y}}-{\bar {x}}^{T}\beta )-x_{i}^{T}\beta =(y_{i}-{\bar {y}})-(x_{i}-{\bar {x}})^{T}\beta ,}

したがって、中央に配置された(ゼロ平均化された)変数を処理するのが標準的である。解が測定スケールに依存しないよう、共変量は通常、標準化されている ( i = 1 N x i 2 = 1 ) {\displaystyle \textstyle \left(\sum _{i=1}^{N}x_{i}^{2}=1\right)}

参考のために書き直すと

min β R p { 1 N y X β 2 2 }  subject to  β 1 t . {\displaystyle \min _{\beta \in \mathbb {R} ^{p}}\left\{{\frac {1}{N}}\left\|y-X\beta \right\|_{2}^{2}\right\}\quad {\text{ subject to }}\|\beta \|_{1}\leq t.}

これは、ラグランジュの未定乗数法に基づいて書き直すと、下記の形式と同値である。

min β R p { 1 N y X β 2 2 + λ β 1 } {\displaystyle \min _{\beta \in \mathbb {R} ^{p}}\left\{{\frac {1}{N}}\left\|y-X\beta \right\|_{2}^{2}+\lambda \|\beta \|_{1}\right\}}

ここで、 t {\displaystyle t} λ {\displaystyle \lambda } との関係はデータに依存する。

正規直交共変量

ラッソ回帰の推定量に関する基本的な性質を下記に示す。

まず、共変量が正規直交であると仮定すると、内積 ( ) {\displaystyle (\cdot \mid \cdot )} およびクロネッカーのデルタ δ i j {\displaystyle \delta _{ij}} を用いて ( x i x j ) = δ i j {\displaystyle (x_{i}\mid x_{j})=\delta _{ij}} と記載できる。 これは、 X T X = I {\displaystyle X^{T}X=I} と記載しても同等である。

次に、勾配法を使用すると、

β ^ j = S N λ ( β ^ j OLS ) = β ^ j OLS max ( 0 , 1 N λ | β ^ j OLS | )  where  β ^ OLS = ( X T X ) 1 X T y {\displaystyle {\begin{aligned}{\hat {\beta }}_{j}={}&S_{N\lambda }({\hat {\beta }}_{j}^{\text{OLS}})={\hat {\beta }}_{j}^{\text{OLS}}\max \left(0,1-{\frac {N\lambda }{|{\hat {\beta }}_{j}^{\text{OLS}}|}}\right)\\&{\text{ where }}{\hat {\beta }}^{\text{OLS}}=(X^{T}X)^{-1}X^{T}y\end{aligned}}} [2]

S α {\displaystyle S_{\alpha }} はソフトしきい値演算子と呼ばれる。これは、小さい値をゼロに設定し、値をゼロに変換する(十分に小さい場合は正確にゼロにする)ためである。ハードしきい値演算子 H α {\displaystyle H_{\alpha }} は小さい値をゼロにして大きい値を変更しない。

これは、下記の最小化を目的とするリッジ回帰と比較可能である。

min β R p { 1 N y X β 2 2 + λ β 2 2 } {\displaystyle \min _{\beta \in \mathbb {R} ^{p}}\left\{{\frac {1}{N}}\|y-X\beta \|_{2}^{2}+\lambda \|\beta \|_{2}^{2}\right\}}

これから

β ^ j = ( 1 + N λ ) 1 β ^ j OLS . {\displaystyle {\hat {\beta }}_{j}=(1+N\lambda )^{-1}{\hat {\beta }}_{j}^{\text{OLS}}.}

したがって、リッジ回帰は、 ( 1 + N λ ) 1 {\displaystyle (1+N\lambda )^{-1}} という一様係数で縮小することになり、係数をゼロに設定しない。

ベストサブセット選択回帰と比較することもできる。この手法では、下記の最小化を目標とする。

min β R p { 1 N y X β 2 2 + λ β 0 } {\displaystyle \min _{\beta \in \mathbb {R} ^{p}}\left\{{\frac {1}{N}}\left\|y-X\beta \right\|_{2}^{2}+\lambda \|\beta \|_{0}\right\}}

ここで、 0 {\displaystyle \|\cdot \|_{0}} は 「 0 {\displaystyle \ell ^{0}} ノルム」である。z の非ゼロ成分が m 個あるとき、 z = m {\displaystyle \|z\|=m} と定義する。

この場合、以下が示される。

β ^ j = H N λ ( β ^ j OLS ) = β ^ j OLS I ( | β ^ j OLS | N λ ) {\displaystyle {\hat {\beta }}_{j}=H_{\sqrt {N\lambda }}\left({\hat {\beta }}_{j}^{\text{OLS}}\right)={\hat {\beta }}_{j}^{\text{OLS}}\mathrm {I} \left(\left|{\hat {\beta }}_{j}^{\text{OLS}}\right|\geq {\sqrt {N\lambda }}\right)}

ここで、 H α {\displaystyle H_{\alpha }} はいわゆるハードしきい値演算子で、 I {\displaystyle \mathrm {I} } はインジケーター関数(引数が true の場合は 1、それ以外の場合は 0)である。

従って、ラッソ回帰による推定値は、リッジ回帰とベストサブセット選択回帰の両方による推定値と似た特徴を持つ。すなわち、リッジ回帰のようにすべての係数の大きさを縮小するだけでなく、ベストサブセット選択回帰と同様に、それらの一部をゼロに設定する。さらに、リッジ回帰はすべての係数を定数係数でスケーリングするが、ラッソ回帰は代わりに定数を用いて係数をゼロに近づけて、到達した場合は係数をゼロに設定する。

一般的な形式

ラッソ正則化は、一般化線形モデル、一般化推定方程式、比例ハザードモデル、一般的なM-推定量など、さまざまな目的関数に拡張できる[2][3]。 目的関数を下記とすると

1 N i = 1 N f ( x i , y i , α , β ) {\displaystyle {\frac {1}{N}}\sum _{i=1}^{N}f(x_{i},y_{i},\alpha ,\beta )}

ラッソ正則化した予測値は次の解となる

min α , β 1 N i = 1 N f ( x i , y i , α , β ) subject to  β 1 t {\displaystyle \min _{\alpha ,\beta }{\frac {1}{N}}\sum _{i=1}^{N}f(x_{i},y_{i},\alpha ,\beta )\quad {\text{subject to }}\|\beta \|_{1}\leq t}

ここで、 β {\displaystyle \beta } だけが罰則を受け、 α {\displaystyle \alpha } は許可された値を自由に取ることができる。上記の基本形において、 β 0 {\displaystyle \beta _{0}} が罰則を受けなかったことに相当する。

解釈

幾何学的解釈

2次元のパラメータ空間(w1, w2)における、ラッソ回帰(L1-norm)およびリッジ回帰(L2-norm)の制約領域。

上で説明したように、ラッソ回帰は係数をゼロに設定できるが、表面的には類似しているように見えるリッジ回帰はできない。これは、2つのケースでの制約境界の形状の違いによるものである。ラッソ回帰とリッジ回帰の両方は、同じ目的関数を最小化すると解釈できる。

min β 0 , β { 1 N y β 0 X β 2 2 } {\displaystyle \min _{\beta _{0},\beta }\left\{{\frac {1}{N}}\left\|y-\beta _{0}-X\beta \right\|_{2}^{2}\right\}}

ここで、制約条件が異なる。 ラッソ回帰での制約条件は β 1 t {\displaystyle \|\beta \|_{1}\leq t} である。 リッジ回帰での制約条件は β 2 2 t {\displaystyle \|\beta \|_{2}^{2}\leq t} である。

2次元のパラメータ空間(w1, w2)における制約領域を図示した。 ラッソ回帰(L1-norm)では正方形に相当する(一般に n {\displaystyle n} 次元の正軸体)。 リッジ回帰(L2-norm)では円に相当する(一般に n {\displaystyle n} 次元の超球面)。 パラメータは制約条件としてパラメータ空間のこれらの領域を動いた中で、目的関数を最小化する値を取る。 ラッソ回帰では、「角(かど)」が存在することで、特定の係数をゼロにした地点を選びやすくなる。

ベイジアン解釈

ラプラス分布は、平均で鋭くピークに達し、正規分布に比べて確率密度が集中している。

係数の事前分布として正規分布を仮定した場合の MAP推定値がリッジ回帰に相当するのと同様に、係数の事前分布としてラプラス分布を仮定した場合の MAP推定値がラッソ回帰に相当する。

ラプラス分布はゼロで鋭くピークに達し(その1次導関数は不連続)、確率分布は正規分布よりもゼロに近く集中する。 このことからも、なぜラッソ回帰では一部の係数をゼロに設定する傾向があるのに、リッジ回帰はそうではないのか、ということを説明できる[2]

p ( y , β X ) = p ( y β , X ) p ( β X ) = n = 1 N p ( y n β , x n ) k = 0 K p ( β k ) {\displaystyle p(\mathbf {y} ,{\boldsymbol {\beta }}\mid \mathbf {X} )=p(\mathbf {y} \mid {\boldsymbol {\beta }},\mathbf {X} )\;p({\boldsymbol {\beta }}\mid \mathbf {X} )=\prod _{n=1}^{N}p(y_{n}\mid {\boldsymbol {\beta }},\mathbf {x} _{n})\;\prod _{k=0}^{K}p(\beta _{k})}

すなわち、

log p ( y , β X ) = n = 1 N log p ( y n β , x n ) + k = 0 K log p ( β k ) {\displaystyle \log {p(\mathbf {y} ,{\boldsymbol {\beta }}\mid \mathbf {X} )}=\sum _{n=1}^{N}\log {p(y_{n}\mid {\boldsymbol {\beta }},\mathbf {x} _{n})}+\sum _{k=0}^{K}\log {p(\beta _{k})}}

である。

ここで、 y {\displaystyle \mathbf {y} } の事前分布として平均 X β {\displaystyle \mathbf {X} {\boldsymbol {\beta }}} 、分散 σ 2 {\displaystyle \sigma ^{2}} 正規分布を仮定すると、右辺第1項は

n = 1 N log ( 1 2 π σ exp ( ( y n x n β ) 2 2 σ 2 ) ) = N log ( 2 π σ ) 1 2 σ 2 n = 1 N ( y n x n β ) 2 {\displaystyle \sum _{n=1}^{N}\log {\left({\frac {1}{{\sqrt {2\pi }}\,\sigma }}\exp {\left(-{\frac {(y_{n}-\mathbf {x} _{n}^{\top }{\boldsymbol {\beta }})^{2}}{2\sigma ^{2}}}\right)}\right)}=-N\log({\sqrt {2\pi }}\,\sigma )-{\frac {1}{2\sigma ^{2}}}\sum _{n=1}^{N}(y_{n}-\mathbf {x} _{n}^{\top }{\boldsymbol {\beta }})^{2}}

さらに、パラメータ β {\displaystyle {\boldsymbol {\beta }}} の事前分布として平均 0 {\displaystyle 0} 、分散 2 b 2 {\displaystyle 2b^{2}} ラプラス分布を仮定すると、右辺第2項は

k = 0 K log ( 1 2 b exp ( | β k | b ) ) = ( K + 1 ) log ( 2 b ) 1 b k = 0 K | β k | {\displaystyle \sum _{k=0}^{K}\log {\left({\frac {1}{2b}}\exp {\left(-{\frac {|\beta _{k}|}{b}}\right)}\right)}=-(K+1)\log(2b)-{\frac {1}{b}}\sum _{k=0}^{K}|\beta _{k}|}

以上から、 λ = 2 σ 2 b N {\displaystyle \lambda ={\frac {2\sigma ^{2}}{bN}}} を用いて次のように表される。

log p ( y , β X ) = N 2 σ 2 ( 1 N n = 1 N ( y n x n β ) 2 + λ k = 0 K | β i | ) + c o n s t . {\displaystyle \log {p(\mathbf {y} ,{\boldsymbol {\beta }}\mid \mathbf {X} )}=-{\frac {N}{2\sigma ^{2}}}\left({\frac {1}{N}}\sum _{n=1}^{N}(y_{n}-\mathbf {x} _{n}^{\top }{\boldsymbol {\beta }})^{2}+\lambda \sum _{k=0}^{K}|\beta _{i}|\right)+\mathrm {const.} }

括弧内は、ラグランジュの未定乗数法に基づく記載と同等である。

一般化

エラスティックネット

詳細は「エラスティックネット」を参照

2005年、Zou と Hastie は、ラッソ回帰に存在する欠点に対処するためにエラスティックネットを導入した[5]。 ラッソ回帰は、標本数が共変量の数よりも少ないとき( n < p {\displaystyle n<p} )、標本数( n {\displaystyle n} 個)までしか共変量を選択できない。 また、ラッソ回帰では高度に相関する共変量の組み合わせから1つしか共変量を選択しないことが多いため、共変量が強く相関しているならば、パフォーマンスがリッジ回帰に劣る場合がある。

エラスティックネットは 2 {\displaystyle \ell ^{2}} によるペナルティ項を追加することによってラッソ回帰を拡張し、下記の式を得る。

min β R p { y X β 2 2 + λ 1 β 1 + λ 2 β 2 2 } , {\displaystyle \min _{\beta \in \mathbb {R} ^{p}}\left\{\left\|y-X\beta \right\|_{2}^{2}+\lambda _{1}\|\beta \|_{1}+\lambda _{2}\|\beta \|_{2}^{2}\right\},}

これは次の式を解くことと同じである。

min β 0 , β { y β 0 X β 2 2 }  subject to  ( 1 α ) β 1 + α β 2 2 t ,  where  α = λ 2 λ 1 + λ 2 . {\displaystyle {\begin{aligned}\min _{\beta _{0},\beta }\left\{\left\|y-\beta _{0}-X\beta \right\|_{2}^{2}\right\}&{\text{ subject to }}(1-\alpha )\|\beta \|_{1}+\alpha \|\beta \|_{2}^{2}\leq t,\\&{\text{ where }}\alpha ={\frac {\lambda _{2}}{\lambda _{1}+\lambda _{2}}}.\end{aligned}}}

この問題は単純なラッソ回帰の形式で記述できる。

min β R p { y X β 2 2 + λ β 1 } {\displaystyle \min _{\beta ^{*}\in \mathbb {R} ^{p}}\left\{\left\|y^{*}-X^{*}\beta ^{*}\right\|_{2}^{2}+\lambda ^{*}\|\beta ^{*}\|_{1}\right\}}

ただし、

X ( n + p ) × p = ( 1 + λ 2 ) 1 / 2 ( X λ 2 1 / 2 I p × p ) {\displaystyle X_{(n+p)\times p}^{*}=(1+\lambda _{2})^{-1/2}{\binom {X}{\lambda _{2}^{1/2}I_{p\times p}}}} 、   y ( n + p ) = ( y 0 p ) , λ = λ 1 1 + λ 2 {\displaystyle y_{(n+p)}^{*}={\binom {y}{0^{p}}},\qquad \lambda ^{*}={\frac {\lambda _{1}}{\sqrt {1+\lambda _{2}}}}} 、   β = 1 + λ 2 β . {\displaystyle \beta ^{*}={\sqrt {1+\lambda _{2}}}\beta .}

そして、 β ^ = β ^ 1 + λ 2 {\displaystyle {\hat {\beta }}={\frac {{\hat {\beta }}^{*}}{\sqrt {1+\lambda _{2}}}}} 、共変量が互いに直交する場合、

β ^ j = β ^ j *,OLS 1 + λ 2 max ( 0 , 1 λ | β ^ j *,OLS | ) = β ^ j OLS 1 + λ 2 max ( 0 , 1 λ 1 | β ^ j OLS | ) = ( 1 + λ 2 ) 1 β ^ j lasso . {\displaystyle {\hat {\beta }}_{j}={\frac {{\hat {\beta }}_{j}^{\text{*,OLS}}}{\sqrt {1+\lambda _{2}}}}\max \left(0,1-{\frac {\lambda ^{*}}{\left|{\hat {\beta }}_{j}^{\text{*,OLS}}\right|}}\right)={\frac {{\hat {\beta }}_{j}^{\text{OLS}}}{1+\lambda _{2}}}\max \left(0,1-{\frac {\lambda _{1}}{\left|{\hat {\beta }}_{j}^{\text{OLS}}\right|}}\right)=(1+\lambda _{2})^{-1}{\hat {\beta }}_{j}^{\text{lasso}}.}

エラスティックネットのペナルティは、ラッソ回帰およびリッジ回帰のペナルティの組み合わせに相当する。

正規化パラメータ λ 1 , λ 2 {\displaystyle \lambda _{1},\lambda _{2}} は、交差検証法を用いたグリッド・サーチにより選択されることが多い。

Adaptive Lasso

2006年、オラクル性 oracle properties を持つように、罰則項に重みを乗じる手法が提唱された[6]

a r g m i n β y j = 1 p x j β j + λ j = 1 p w j | β j | . {\displaystyle \operatorname {arg\,min} _{\boldsymbol {\beta }}\left\|\mathbf {y} -\sum _{j=1}^{p}\mathbf {x} _{j}\beta _{j}\right\|+\lambda \sum _{j=1}^{p}w_{j}\left|\beta _{j}\right|.}

MI-LASSO

2013年、多重代入されたデータセットに対して、ラッソ回帰により変数選択する手法が提唱された[7]

正則化パラメータの選択

収縮の強度と変数の選択を制御する正則化パラメータ λ {\displaystyle \lambda } を適切に選択することで、予測の精度と解釈可能性を向上することができる。正則化が強くなりすぎると、重要な変数がモデルから削除される、係数が過度に縮小される等の可能性がある。 正則化パラメータ λ {\displaystyle \lambda } の選択には交差検証法がよく用いられる。

赤池情報量規準(AIC)やベイズ情報量規準(BIC)などの情報量規準(英語版)は、交差検証法よりも計算が高速であり、小さいサンプルでもパフォーマンスが変動しにくいため、交差検証よりも好ましい場合がある[8]。 情報量規準は、モデルのサンプル内精度を最大化することによって推定器の正則化パラメータを選択すると同時に、その有効なパラメーターの数/自由度にペナルティを課す。

関連項目

脚注

[脚注の使い方]

出典

  1. ^ Santosa, Fadil; Symes, William W. (1986). “Linear inversion of band-limited reflection seismograms.”. SIAM Journal on Scientific and Statistical Computing (SIAM) 7 (4): 1307–1330. doi:10.1137/0907087. 
  2. ^ a b c d e f g Tibshirani, Robert (1996). “Regression Shrinkage and Selection via the lasso”. Journal of the Royal Statistical Society (Wiley) 58 (1): 267–88. JSTOR 2346178. 
  3. ^ a b Tibshirani, Robert (1997). “The lasso Method for Variable Selection in the Cox Model”. Statistics in Medicine 16 (4): 385–395. doi:10.1002/(SICI)1097-0258(19970228)16:4<385::AID-SIM380>3.0.CO;2-3. 
  4. ^ Santosa, Fadil; Symes, William W. (1986). “Linear inversion of band-limited reflection seismograms.”. SIAM Journal on Scientific and Statistical Computing (SIAM) 7 (4): 1307–1330. doi:10.1137/0907087. 
  5. ^ Zou, Hui; Hastie, Trevor (2005). “Regularization and Variable Selection via the Elastic Net”. Journal of the Royal Statistical Society (Wiley) 67 (2): 301–20. doi:10.1111/j.1467-9868.2005.00503.x. JSTOR 3647580. 
  6. ^ Hui Zou (2006). “The Adaptive Lasso and Its Oracle Properties”. Journal of the American Statistical Association 101 (476): 1418-29. doi:10.1198/016214506000000735. https://www.tandfonline.com/doi/abs/10.1198/016214506000000735 2023年2月10日閲覧。. 
  7. ^ Qixuan Chen (2013 Sep 20). “Variable selection for multiply-imputed data with application to dioxin exposure study”. Statistics in medicine. 32 (21): 3646-59. doi:10.1002/sim.5783. 
  8. ^ Hoornweg, Victor (2018). “Chapter 9”. Science: Under Submission. Hoornweg Press. ISBN 978-90-829188-0-9. http://www.victorhoornweg.com 
標本調査
要約統計量
連続確率分布
位置
分散
モーメント
カテゴリデータ
推計統計学
仮説検定
パラメトリック
ノンパラメトリック
その他
区間推定
モデル選択基準
その他
ベイズ統計学
確率
その他
相関
モデル
回帰
線形
非線形
時系列
分類
線形
二次
非線形
その他
教師なし学習
クラスタリング
密度推定(英語版)
その他
統計図表
生存分析
歴史
  • 統計学の創始者
  • 確率論と統計学の歩み
応用
出版物
  • 統計学に関する学術誌一覧
  • 重要な出版物
全般
その他
カテゴリ カテゴリ