#freeze
* 第4回電子情報通信学会 情報論的学習理論と機械学習研究会 [#kf6acc41]

このページはしましまが[[第4回電子情報通信学会 情報論的学習理論と機械学習研究会>IBISML#IBISML004]] に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください.

* IBISML: 3月28日(月) 午前  機械学習応用(1)(3F多目的スペース2) [#f68b7052]

** 半導体製造データ分析への無限隠れMarkov確率場モデルの応用 [#ceef99ff]
○新垣隆生・植野 研・榊原 静(東芝)

- 半導体のウェハーは不良品が隣と独立には出てこない → マルコフ確率場になる
- 不良品が集まっているようなクラスタを見つけ出して,詳しい検査をしなくてもよいものを見つけてコストを削減したい
- 隠れ状態が無限個あるMRFを使った予測モデルで実験

** 位置情報付き個人コンテンツ分類のための線形HMMを用いたイベントクラスタリング [#nda311a5]
○大濱 郁(パナソニック)・喜田拓也・有村博紀(北大)・阿部敏久(パナソニック)

- 撮影した写真をイベントごとにまとめる
- イベントは空間的なまとまりだけでなく,また,時間的な連続性も重要
- 個々のクラスタは線形HMMを用いてモデル化.クラスタ数をBICなどで決める

** ガウス過程に基づくモンテカルロ碁 [#s8b2b0fb]
○福永修一・荒井 光(都立産技高専)

- モンテカルロ碁で,手を探索するのにノードの展開をしていく.展開は一定回数以上評価されたら行う.
- それら展開されたノードから子ノードを展開するときに UCB1 で評価するのが既存研究
- 他の展開ノードの評価にガウス過程を使う

* IBISML: 3月28日(月) 午前  機械学習応用(2)(3F多目的スペース2) [#s5f7da6b]

** カーネルk平均法に基づく3Dキャラクターの高品質アニメーション生成 [#o22f125f]
○廣瀬 慧(九大)・樋口知之(統計数理研)

- いくつかの顔の向きの静止画の違うデータ + 実際にモーションキャプチャで得た動き
-- 動きデータを使って静止画を補間するのが目標
- その前のステップとしてモーションキャプチャーデータの補間を考える
-- 顔の動きには差があるので,空間的にクラスタリングしてそれぞれをモデリング
-- 継ぎ目が不自然にならないような工夫

** MPI/OpenMPハイブリッド並列化による潜在的ディリクレ配分法の効率的推定 [#sf197d9f]
○東羅翔太郎・江口浩二(神戸大)

- ギブスサンプリングを使ったLDAの並列化
- 全文書に共通の単語の分布のデータは単純に並列化

* IBISML: 3月28日(月) 午後  IBISML招待講演 (3F多目的スペース2) [#y3685d68]

*[招待講演]論理に基づく確率モデリングのこれまで,これから [#k95198dc]
○亀谷由隆(東工大)

確率と論理の融合
- 論理から:複数の解に対する順位付け.不確定性を論理で扱える
- 確率から:説明可能性をとりいれる.命題論理のコンパイル技法の利用

AIにおける交差点
- アプリケーションごとにアルゴリズムを考えるのは非効率 → 共通のインタフェースを作れてるといいね
- 命題論理:意味論は真理値で示せる.ZDDなど高度な手法の存在
- 一階述語論理:意味論から議論中

論理+確率の緒論点:意味論
- 論理:論理自体はデフォルトで独立で,それを論理であとから結びつけている
- 確率:独立同分布の仮定がなければ,デフォルトでは互いに独立

論理+確率の緒論点:独立性
- 独立性を仮定:高速推論が可能→隠れマルコフなど
- 条件付き独立と文脈依存独立性(context-sensitive indepdence)(独立は変数の任意の値,文脈はある変数の値での条件)
-- CSIのときは,ある変数が特定の値になるとき確率が同じ値になる → 決定木などでコンパクトな表現が可能(ベイジアンネットよりも有利になることも)
-- 依存関係を全部考えると破綻するので,CSIを考えた簡略化が計算可能性には重要

関係DB
- 関係データベースを展開して表にすると巨大になって扱えない
-- relational data-mining 関係DBをそのままで分析する確率的命題論理の部分分野

命題論理に基づく確率推論
- ベイズネットの条件付き確率表には多くの文脈依存性,0確率が存在
- 命題論理によるベイズネットの符号化:Chavira&Darwiche, Sang+, Minato+, Ishihata+
-- BDD-EM:BDDで論理を表現し,簡約化したBDDの構造を利用するとEMで確率が計算できる

確率モデルの述語論理化
- 統計的関係学習と確率論理学習の二つの流れ → 文法や意味論がさまざまな論理が乱立

統計的関係学習 (SRL)
- KBMC:知識ベースからベイズネットを構築
- マルコフ論理ネット:一階述語論理式 + マルコフネット → 汎用性
-- 重み付きの論理式の集合の変数を展開しマルコフネットを作る
-- マルコフネットのノードはアトムとし,式に現れるアトムの組をクリークにする
-- ノードの真理値に依存したポテンシャル関数を考える
-- 正規化定数せいで確率の計算が難しい
-- collective classification:分類事例が同じクラスになりやすいといった関連性を考慮できる

確率論理学習 (PLL)
- 確率モデリング言語で確率モデルを記述すれば推論がすぐできる
-- 確率モデリングの試行錯誤が容易に
- PRISM:佐藤研の処理系
- 確率モデリング言語の進化

* IBISML: 3月28日(月) 午後  回帰・分類 (3F多目的スペース2) [#s8af752a]

** 符号化ダイバージェンスを用いたクラス分類のためのオンラインアルゴリズム [#jf42c739]
○吉岡正志・杉山麿人・山本章博(京大)

- 符号化ダイバージェンス:空間を階層的に分割して0/1で符号化したときに,二つのクラスのサンプル集合の要素が同じ領域にならないようにするのに必要な符号長
- 各クラスを表すような接頭辞の木を覚えておくと分類ができる

** 順位情報に基づいたランキングSVMの適応的重み付けに関する一考察 [#o1781e5c]
○烏山昌幸・長谷川拓矢・松野 司・竹内一郎(名工大)

- ランキング学習で上位のものの正確性をより重視するような工夫
- ペアが入れ替わったとき NDCG の値がどれだけ変化するかでペア重み付けしたRanking SVM
-- この重みは対象の順位に依存し,学習の途中でいろいろ入れ替わる → パス追跡を利用
- スコアは入れ替わるまで直線的に変化するので,このあたりはパス追跡で扱える

* 回帰大作戦 〜 1次元低い超平面あてはめとしての回帰 〜 [#b02f9915]
○藤木 淳・赤穂昭太郎(産総研)

- 回帰を次元を1個減らす次元削減とみる.
-- 減らす軸の主成分を残す vs 劣成分をけずる,原点を通るか,損失の種類(ここではLp)
- MCAの場合に,最適抽出可能性について検討

* IBISML: 3月28日(月) 午後  離散系と機械学習 (3F多目的スペース2) [#g29f37b4]

** ZDDを用いた頻出飽和パターンのプライバシー保護マイニング [#u2591006]
○大滝啓介・山本章博(京大)

- プライバシ保護は,集合を0/1で表し,和集合の演算をSFEで求めるのが第1段階
-- それで絞り込んだあとは ZDD を使って生データを送る(?)

** 頻出パタンマイニングにおけるZDD-VectorとWZDDの比較 [#ff54d125]
○岩崎玄弥・湊 真一(北大)

- パターン頻度表:全てのパターンについてその頻度を求めたもの
- ZDDで辺に重み情報があるのがWZDD
-- ZDD-Vector では,無いアイテムが少ないようなパターンで有利,
-- WZDD では少ない種類の頻度の組み合わせで,全体の頻度が表現できると有利
- 全般的に WZDD が ZDD-Vector よりよいが,まれに指数的に悪くなる場合がある

** 木構造を利用した自然画像の部分領域検索とフラクタル圧縮・マイニングへの応用 [#ye9506d3]
○福村貴志・杉山麿人・山本章博(京大)

- ある領域に類似した別の場所・大きさの領域を見つける
- 距離計算の打ち切りと,木構造の空間分割をする

** 劣モジュラ性を用いた特徴集合列挙 [#b5adb5e1]
○河原吉伸(阪大)・津田宏治(産総研)・鷲尾 隆(阪大)・武田朗子(慶大)・湊 真一(北大)

- 特徴の部分集合を引数とする損失関数を最適化するが,最適なものから(1-ε)倍以内になるような部分集合を列挙する
- 劣モジュラの最大値の上界 + 分枝限定法の組み合わせ
- 残っている解をBDDで表現して保持

トップ   編集 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS