第8回 情報論的学習理論と機械学習研究会 †このページはしましまが第8回電子情報通信学会 情報論的学習理論と機械学習研究会? に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください. 3月12日(月) 午前 ベイズ統計モデル †非対称で個体差がある関係データ分析のための機会調整型無限関係モデル †○大濱 郁・飯田裕美(パナソニック)・喜田拓也・有村博紀(北大)
離散と連続の属性値が混在した場合のベイジアンネットワークの構造学習 †○鈴木 譲(阪大)
Latent Dirichlet Allocationを用いた潜在的構造変化検知 †○上田真士・冨岡亮太・山西健司(東大)・石黒勝彦・澤田 宏・上田修功(NTT)
階層的構造を持つディリクレ過程混合モデルを用いたフルベイズ話者クラスタリング †○俵 直弘・小川哲司(早大)・渡部晋治(NTT/MERL)・中村 篤(NTT)・小林哲則(早大)
WAICを用いた無限混合ガウスモデルのハイパーパラメタ選択 †○三木拓史・幸島匡宏・渡辺澄夫(東工大) 3月12日(月) 午後 招待講演 (データマイニング) †[招待講演]サブシーケンスデータマイニングの再展開 †○安藤 晋(群馬大)
3月12日(月) 午後 強化学習 †部分観測マルコフ決定過程ベルマン方程式のカーネル化 †○西山 悠(統計数理研)・Abdeslam Boularias(MPI)・Arthur Gretton(UCL)・福水健次(統計数理研) 間接的価値関数推定におけるモデル選択 †○幸島匡宏(東工大)
Apprenticeship Learning for Model Parameters of Partially Observable Environments †○Takaki Makino(Tokyo Univ.)・Johane Takeuchi(HRI-JP)
Efficient Sample Reuse in Policy Gradients with Parameter-based Exploration †○Tingting Zhao・Hirotaka Hachiya・Masashi Sugiyama(Tokyo tech)
3月12日(月) 午後 時系列解析 †高次元多重時系列データ解析のための正準多重整列法 †○松原崇充(奈良先端大/ATR)・森本 淳(ATR)
無限長モデル距離を用いた異種時系列クラスタリング †○広瀬俊亮・泉水克之(SAS) ソーシャルネットワークにおける長期間拡散する話題の早期検出 †○斎藤翔太・冨岡亮太・山西健司(東大)
3月13日(火) 午前 統計数理 †高次元の判別分析におけるd一致性について †○綾野孝則(阪大)
An Accuracy Analysis of Bayes Latent Variable Estimation with Redundant Variables ○Keisuke Yamazaki(Tokyo Tech) †3月13日(火) 午前 学習法 †能動学習における決定境界の安定性の検討 †○高橋 洸・和泉勇治・橋本和夫(東北大)
Semi-Supervised Learning of Class-Prior Probabilities under Class-Prior Change †○Marthinus Christoffel du Plessis・Masashi Sugiyama(TokyoTech) 3月13日(火) 午後 招待講演 (統計数理) †[招待講演]計算機代数を用いた情報幾何学と漸近的推定理論 †○小林 景(統計数理研)
3月13日(火) 午後 行列分解、応用 †上位カテゴリにおける観測データが与えられる場合の行列およびテンソル分解法 †○相本佳史・鹿島久嗣(東大)
アクティブ計測とパッシブ計測を用いたパケットロス率推定法 †○宮本敦史・渡辺一帆・池田和司(奈良先端大)
3月13日(火) 午後 能動学習、相互情報量、他 †Improving Importance Estimation in Pool-based Batch Active Learning for Approximate Linear Regression †○Nozomi Kurihara・Masashi Sugiyama(Tokyo Tech)
Early Stopping Heuristics in Pool-Based Incremental Active Learning for Least-Squares Probabilistic Classifier †○Tsubasa Kobayashi・Masashi Sugiyama(Tokyo Tech)
Feature Selection via L1-Penalized Squared-Loss Mutual Information †○Wittawat Jitkrittum・Hirotaka Hachiya・Masashi Sugiyama(Tokyo Tech) Squared-loss Mutual Information Regularization †○Gang Niu・Wittawat Jitkrittum・Hirotaka Hachiya(Tokyo Tech)・Bo Dai(Purdue Univ.)・Masashi Sugiyama(Tokyo Tech) |