latent Dirichlet allocation
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
* latent Dirichlet allocation (LDA) [#fb6c7253]
//ここには %項目の説明を書いてください.よろしければ署名...
[[probabilistic latent semantic analysis]] ([[pLSA]]) を...
以下の過程で,文書に含まれる\(N\)個の語を生成する.
+ \(N\sim\mathrm{Poisson}(\xi)\) … Poisson分布で語数を生成
+ \(\theta\sim\mathrm{Dir}(\alpha)\) … Dirichlet分布で,\...
+ \(N\)個のそれぞれの語\(w_n\)について
-- (a) \(z_n\sim\mathrm{Multinomial}(\theta)\) … 多項分布...
-- (b) 語\(w_n\)を,話題\(z_n\)で条件付けした分布 \(p(w_n...
以上の過程を\(M\)回繰り返して,文書集合\(\mathcal{D}\)を...
- パラメータ\(\alpha\)は,話題数\(k\)と同じ大きさのベクトル
- パラメータ\(\beta\)は,話題\(z_n\)で条件付けするので,\...
話題の混合比\(\theta\),長さ\(N\)の\(z_n\)と\(w_n\)を要素...
\[p(\theta,\mathbf{z},\mathbf{w}|\alpha,\beta)=p(\theta|\...
*** probabilistic latent semantic analysisとの違い [#m020...
[[pLSA]]で文書\(d\)で,語\(w_n\)が生成される確率は
\[p(d,w_n)=p(d)\sum_z p(w_n|z)p(z|d)\]
-語が,\(k\)個の話題を,混合比\(p(z|d)\)で混合した分布か...
-一方,LDAでは,混合比は\(p(z_n|\theta)\)になる.
-pLSAの混合比は訓練用の文書集合に依存した固定したものだが...
> -- しましま
** 関連項目 [#zcb357bd]
//英語や同義語のあとに,#brで区切って関連する項目をリスト...
-[[LDA]]
#br
-[[probabilistic latent semantic analysis]]
-[[生成モデル]]
-[[自然言語処理]]
-[[次元削減]]
-[[ベイズ推定]]
-[[階層ベイズ]]
-[[変分ベイズ]]
#br
-[[検索:LDA]]
** リンク集 [#d4c8a271]
//関連するWWW資源があればリンクしてください.
-[[Wikipedia:Latent_Dirichlet_allocation]]
*** Freeware [#v8f51d06]
-[[mloss:lda]]
-[[Latent Dirichlet allocation>http://www.cs.princeton.ed...
-[[lda, a Latent Dirichlet Allocation package>http://chas...
-[[lda>http://cran.r-project.org/web/packages/lda/]]:Col...
-[[LDA for the masses (who use R)>http://pleasescoopme.co...
-[[glda>http://code.google.com/p/glda/]]:Gibbsサンプリン...
-[[GibbsLDA++>http://gibbslda.sourceforge.net/]] @ Xuan-H...
-[[parallel LDA>http://code.google.com/p/plda/]] (c++)
-[[ast Collapsed Gibbs Sampling For Latent Dirichlet Allo...
** 関連文献 [#b3ebe9e0]
//この%項目%に関連する書籍や論文を紹介してください.
-基本文献~
D.M.Blei, A.Y.Ng, M.I.Jordan, "Latent Dirichlet Allocatio...
[[GoogleScholarAll:Latent Dirichlet Allocation]]
終了行:
* latent Dirichlet allocation (LDA) [#fb6c7253]
//ここには %項目の説明を書いてください.よろしければ署名...
[[probabilistic latent semantic analysis]] ([[pLSA]]) を...
以下の過程で,文書に含まれる\(N\)個の語を生成する.
+ \(N\sim\mathrm{Poisson}(\xi)\) … Poisson分布で語数を生成
+ \(\theta\sim\mathrm{Dir}(\alpha)\) … Dirichlet分布で,\...
+ \(N\)個のそれぞれの語\(w_n\)について
-- (a) \(z_n\sim\mathrm{Multinomial}(\theta)\) … 多項分布...
-- (b) 語\(w_n\)を,話題\(z_n\)で条件付けした分布 \(p(w_n...
以上の過程を\(M\)回繰り返して,文書集合\(\mathcal{D}\)を...
- パラメータ\(\alpha\)は,話題数\(k\)と同じ大きさのベクトル
- パラメータ\(\beta\)は,話題\(z_n\)で条件付けするので,\...
話題の混合比\(\theta\),長さ\(N\)の\(z_n\)と\(w_n\)を要素...
\[p(\theta,\mathbf{z},\mathbf{w}|\alpha,\beta)=p(\theta|\...
*** probabilistic latent semantic analysisとの違い [#m020...
[[pLSA]]で文書\(d\)で,語\(w_n\)が生成される確率は
\[p(d,w_n)=p(d)\sum_z p(w_n|z)p(z|d)\]
-語が,\(k\)個の話題を,混合比\(p(z|d)\)で混合した分布か...
-一方,LDAでは,混合比は\(p(z_n|\theta)\)になる.
-pLSAの混合比は訓練用の文書集合に依存した固定したものだが...
> -- しましま
** 関連項目 [#zcb357bd]
//英語や同義語のあとに,#brで区切って関連する項目をリスト...
-[[LDA]]
#br
-[[probabilistic latent semantic analysis]]
-[[生成モデル]]
-[[自然言語処理]]
-[[次元削減]]
-[[ベイズ推定]]
-[[階層ベイズ]]
-[[変分ベイズ]]
#br
-[[検索:LDA]]
** リンク集 [#d4c8a271]
//関連するWWW資源があればリンクしてください.
-[[Wikipedia:Latent_Dirichlet_allocation]]
*** Freeware [#v8f51d06]
-[[mloss:lda]]
-[[Latent Dirichlet allocation>http://www.cs.princeton.ed...
-[[lda, a Latent Dirichlet Allocation package>http://chas...
-[[lda>http://cran.r-project.org/web/packages/lda/]]:Col...
-[[LDA for the masses (who use R)>http://pleasescoopme.co...
-[[glda>http://code.google.com/p/glda/]]:Gibbsサンプリン...
-[[GibbsLDA++>http://gibbslda.sourceforge.net/]] @ Xuan-H...
-[[parallel LDA>http://code.google.com/p/plda/]] (c++)
-[[ast Collapsed Gibbs Sampling For Latent Dirichlet Allo...
** 関連文献 [#b3ebe9e0]
//この%項目%に関連する書籍や論文を紹介してください.
-基本文献~
D.M.Blei, A.Y.Ng, M.I.Jordan, "Latent Dirichlet Allocatio...
[[GoogleScholarAll:Latent Dirichlet Allocation]]
ページ名: