しましま/IBIS2023
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
* 第26回 情報論的学習理論ワークショップ (IBIS 2023) [#p1d...
COLOR(#00AA00){このページはしましまが [[IBIS2023>IBIS#IBI...
- 日程:2023-10-29 〜 2023-11-01
- ホームページ: http://ibisml.org/ibis2023/
- 会場: 北九州国際会議場 & オンライン
#contents
* 10月29日(日) [#n02017b1]
* チュートリアル1:大規模言語モデル活用技術の最前線 [#d59...
稲葉通将(電気通信大学)
- 大規模言語モデル (LLM):モデル,データ,計算環境のいず...
LLMのできること
- LLMによるアノテーション
-- MTurk と張り合える(?)
- LLMに基づく推薦対話システム
-- 対話型の推薦システム → 映画など関連文書の多い分野では...
- マインクラフトのゲームプレイ
-- マインクラフトの文書を読み込んでいるので可能だった
- ロボットの制御
-- 文書そのものや,コードを生成させるものは難しい → 強化...
- 論文査読
-- 不採録論文の一致率は高いが,採録論文は低い
プロンプト:LLMに対する入力
- In-Context Learning:少数の例を与えることで,追加学習な...
- Chain-of-Thought:問題をLLMに回答させるときに,回答に至...
-- Zero-shot CoT:"Let's think step by step" とする
-- CoT で違う思考経路を与えて,答えを多数決させる
- Plan-and-Solve:問題の解き方を回答させてから,その解き...
- Auto-CoT:データをクラスタリングしておき,違うクラスタ...
-- 多様な事例をプロンプトで与えるとよい
- 長期的や多段階の問題は苦手 → 途中経過を出力させるように...
- Program of Thought:問題を解くプログラムを生成させる
-- Faithful CoT:プログラムだけじゃなく,プランニング記述...
- CoTで思考の段階数が多い方がよい,多数決の場合も段階数が...
- Tree-of-Thought:複数のプランを生成させ,さらにそれを自...
- ReAct:次に必要な行動を,その理由と共に生成させる
-- 外部検索を使う行動を含めさせることで,ハルシネーション...
- Least-to-Most:部分問題への分解
- Self-Refine:ダメだしをして,自身の回答を変更させる
- "Let's think step by step" のような性能向上が見込めるイ...
- 重要な情報は,最初や最後に与えるようにする
- プロンプトを2回与えると,CoT を上回る
- 複数の役割・ペルソナを与えて議論させる
-- 非倫理的なペルソナも生成できてしまう問題
- 複数のLLMに回答と共に,確信度を生成 → 他のLLMの回答をフ...
- 推薦のときに,アイテムの説明を生成させる≒特徴量を生成さ...
- 話者の少ない言語は,非倫理的な回答が出やすい
- LLMのパラメータを量子化するのは4bitまでは性能が変わらない
- ウォーターマーク:LLMのトークンを二つのリストに分けて,...
* チュートリアル2:物理シミュレーションのための機械学習入...
田中佑典(NTT)
- 物理現象と微分方程式
-- 物理シミュレーション:計算機上での物理現象の再現
- 常微分方程式 (ODE)=独立変数が一つ,状態・方程式・初期...
- 偏微分方程式 (PDE)=独立変数が二つ以上,状態・方程式・...
- 順問題=方程式や初期条件などから,これを満たす関数を求...
-- 離散化して数値的に解く(ルンゲクッタ法など)
- 逆問題=解の観測値と,方程式などから,関数のパラメータ...
- データ駆動型のアプローチ:NNで関数を表すように
-- 物理学の知識を制約・バイアスとして利用 physics-informe...
-- 制約は,損失関数に制約項を加えるソフトなものと,関数形...
- ダイナミクスの推定:求める関数をブラックボックス関数で...
-- ニューラルODE:状態関数 u の時間的な差分をNNでモデル化
--- 小規模なら誤差逆伝播で解く,中規模以上なら随伴変数法...
--- ハミルトニアンPDE:ハミルトニアン密度を全空間に対して...
- 方程式の解の推定:特定の初期条件・境界条件に対する状態...
-- 初期状態や境界条件を制約項に入れて損失関数を定義
- 解作用素の推定:初期条件などから状態関数uへの写像をNNで...
-- 関数間の写像は解作用素と呼ばれる
-- 関数をNNに入れられないので,実際には関数の格子点上の値...
-- end-to-end の考え方で解作用素を推定
* チュートリアル3:ゼロから作る深層学習理論 [#oa31785a]
今泉允聡(東京大学/理化学研究所)
- 複雑なモデルほど汎化誤差が減る理由は?
-- 汎化誤差 = 近似誤差(NNの表現力)+ 複雑性誤差(予測...
-- 普遍近似定理(NNは任意の関数を誤差ε以内で近似できる)...
- 層が少ないNNで1次元入力
-- 2層NN(M個のReLU関数の加重和)で近似可能
- 任意の関数を区分定数関数で近似 → 区分定数関数をNNで近似
-- 区分定数関数を,急激に変化するReLUで近似すれば,NNで表...
- 層が少ないNNでd次元入力
-- 3層NNで近似可能
-- d次元関数を,d次元空間の区分定数関数で近似 → 各次元ご...
- 多層で幅が小さなMのNNで多次元入力
-- 層が少なく幅のおおきなNNを,等価な多層で幅の小さなNNに...
--- 入力を保存する部分,係数を掛ける部分,演算結果を保存...
* チュートリアル4:逐次的意思決定におけるリグレット解析と...
伊藤伸志(NEC)
- オンライン学習の分類:フィードバックの違い × 目的関数・...
- 一般のオンライン学習:解の生成と関数値の観測を反復
- オンライン組合せ最適化=経路の選択とその重みの観測を反復
- エキスパート問題:N人のエキスパートがいて各反復でエキス...
-- 最も成績の良かったエキスパートに対するリグレットを最小化
-- 確率的(定常的):エキスパートの利得は独立同分布から得...
-- 敵対的(非定常的):こちらの方策を知っている敵対者が最...
- Follow the Leader:そこまでの成績が一番良かった人を選ぶ...
- 乗算型重み更新 (MWU, Hedge):信頼度に応じて確率的にエキ...
-- 信頼度のエントロピーを正則化項とする最適化に等しい
- 適応的MWU=確率的・敵対的の双方に優れる
* 10月30日(月) [#k0d4b74e]
* 企画セッション1:Vision and Languageの最前線 [#ja4490bf]
オーガナイザー:菅沼雅徳(東北大学)
** 大規模言語モデルとVision-and-Language [#r2672b42]
西田光甫(NTT)
- V&L:画像の理解を文書化や,その逆処理ができるように
- 基盤モデルと事前学習
- 言語モデル=文字列が与えられたときの,次の文字(トーク...
-- GPT3:300Gトークンで学習,モデルはtransformer
-- 少数の例示によって,モデルの更新なしに問題を解けるように
- V&L:画像と言語
-- CLIP:テキストと画像の埋め込み間の内積が,関連していれ...
- instruction tuning=モデルにタスクを指示する入力
-- V&L では,一度画像の情報を文字列に変換し,fine-tuning ...
-- 文字列が生成できれば,文字列からの画像生成モデルに入力...
- ChatGPT=強化学習 (RLHF) を用いて,人間のフィードバック...
-- 複数の応答を生成させて,それらに人間が評価を与え,その...
- GPT-4V=画像もモデルに組み込まれている
-- 指示に従った応答を生成できる
** 作業動画と手順書を対象としたマルチモーダル理解 [#ife51...
西村太一(京都大学 (現: LINEヤフー))
- Web上の動画を対象:Youtubeなどから取得,余分なものが写...
-- 音声が利用可能,大規模にデータを収集可能
- データ集合
-- YouCook2, YouMakeup:料理とメイク動画のデータ,時間区...
-- COIN, Howto100M:多様なタスクの動画
- MIL-NCE:Howto100Mで構成した基盤モデル
-- Q&A,レシピ生成,動画検索,プランニング(最初と最後か...
- 一人称動画:作業者視点の動
- データ EPIC-KITCHEN:料理,アノテーションは作業内容と対...
- データ Ego4D:多様な作業者・環境の作業に限らない一人称...
- EgoVLP:画像とテキストの変換タスク
- 化学実験の作業タスク:再現性を確保する目的,手順書とビ...
** テキストからの実世界理解に向けて [#qa382d29]
栗田修平(理化学研究所)※オンライン講演
- 画像キャプション生成 (IC)=画像に題を付ける
- 画像質問応答 (VQA)=画像に関する質問に応答(物の色など)
-- VinVL:VQAの手法
- Scene Graph Generation:画像中の物体とそれらの関係のア...
- 参照表現理解 (referring expression comprehension; visua...
-- テキスト表現の物体のbounding boxを予測
-- MDETR:名詞句に対応する画像を検出するモデル
-- GLIPv2:画像内部と,別の画像と両方の対照学習
-- OFA:マルチタスク,マルチデータ集合を一つのモデルで
- 対照学習:似た画像は近くに,似ていない画像は遠くに配置
-- CLIP:画像とテキストの対照学習,係り受けなどは考慮され...
- オープン語彙物体検出 (open-vocabulary objet detection)
-- キャプションの語彙を使って,新たな物体クラスラベルをも...
-- ゼロショットで,与えた語彙に対応する物体を検出するタス...
- RefEgo:一人称画像からの参照表現理解
* 招待講演1:Geometric Algebra Transformers: A General-Pu...
Taco Cohen(Qualcomm AI Research)
- 幾何的な推論の応用分野:分子構造の扱い,大気の予測,ロ...
- 幾何的深層学習 (GDL):元の入力を処理した結果に幾何的変...
- Geometric Algebraic Transformer (GATr):幾何的不変性を...
- GNNなど,他の幾何的深層学習と比較して,GATr はスケーラ...
* 10月31日(火) [#n7cd4fdb]
* 招待講演2:Prompt2Model: Generating Deployable Models f...
Graham Neubig(Carnegie Mellon University)※オンライン講演
- LLMの課題:プライバシ,コスト,意図どおりの制御
-- これらの課題に対処した,大規模モデルを使って,タスク記...
- 多くのデータ集合が公開されるようになったが,大規模なも...
- LLMを使って,データ集合を取得し,データをアノテーション
-- クエリを拡張して,関連するモデルを検索
* 企画セッション2:テンソルネットワーク [#o34757a8]
オーガナイザー:横田達也(名古屋工業大学)
** Exploring Optimal Tensor Network Architectures Through...
Chao Li(理化学研究所)
- テンソルネットワークにはいろいろな形態がある → TN Struc...
-- 構造は指数的に増加するので大変
- 必要な表現能力の制約の下,最も簡潔な構造を探索
-- 構造を符号化して,遺伝的アルゴリズムを適用
-- 確率的探索:近隣構造を無作為サンプリングし,良いものを...
-- alternating local enumeration:近傍を列挙して,良いも...
** 非負テンソルの多体近似 [#x9838575]
ガラムカリ和(理化学研究所)※オンライン講演
- テンソル分解での表現:積和で表す
-- 分解の方法がいろいろある(CP分解,タッカー分解,テンソ...
-- 誤差関数が非凸で最適化が難しい
-- 解が不定になることも
- 提案手法:テンソルの要素値が,自然パラーメータの指数分...
-- n体モデル:テンソルのn個のモードの要素の積を項とするモ...
- 隠れモードの導入 → 一つだとCP分解に,二つ以上使うとタッ...
** テンソルネットワーク法の量子計算への応用 [#ida1b269]
上田宏(大阪大学)
- 量子ビットの演算は,テンソルネットの構造を使うことによ...
* 11月1日(水) [#ze5875bb]
* 企画セッション3:最適輸送 [#x3dae154]
オーガナイザー:今泉允聡(東京大学/理化学研究所)
** 何でも微分する [#zc92d092]
佐藤竜馬(京都大学)
- 最適輸送:輸送量非負,出発点から運ぶ量と到着点に届く量...
-- 目的関数は微分できない → エントロピー正則化項を加えて...
-- 正則化パラメータ ε は,実用的な 0.1 など小さな値にする
-- Sinkhornアルゴリズム:正則化項付きの最適化問題を解く →...
- ランキング問題=実数値配列を順位ベクトルに変換
-- 1次元の最適輸送問題の特殊例になっている → Sinkhorn法で...
- Sinkhorn法 はブレグマン法の特殊例
-- ブレグマン法は,最短経路問題,教師あり最短経路問題を解...
** 最適輸送と情報幾何 [#u3b18ea4]
松田孟留(東京大学/理化学研究所)
- 1次元分布の変換を考えると,累積分布関数を水平に確率質量...
- Wassersteinは変数変換に対して不変ではない
- KLダイバージェンスは統計的推測と密接に関連 → Wasserstei...
- ベイズ予測分布:データから次の出力を予測する
-- KLで測ると,事前分布によって予測分布はシフトしており,...
-- Wassersteinでも同様のことを示せる
- continuity equation:確率分布の時間発展を示す偏微分方程式
-- Wassersteinでのスコア関数を定義し,それで情報行列を定義
-- Wasserstein版の共分散行列(KLのFisher情報量みたいなも...
** 最適輸送と熱力学的トレードオフ関係 [#zd101cd3]
伊藤創祐(東京大学)
- Monge-Kantrovichの問題:コストで重み付けした同時分布の...
- 流体力学:2-Wassersteinの最適輸送を速度場に書き換える →...
- Fokker-Planck方程式=ブラウン粒子の確率ダイナミクス
-- 2-Wassersteinの2乗を使った式が,次時刻を予測する更新式...
- 拡散系での熱力学
-- ゆらぎの定理=拡散過程の前向きと後ろ向きの相違に関する...
- Fokker-Plank方程式から導かれる隣接する時間での同時分布...
* 招待講演3:How to build machines that adapt quickly [#f...
Emtiyaz Khan(理化学研究所)
- 機械学習における適応:小さな変化でも再訓練が必要,僅か...
- 素早い適応:ベイズ学習,正則化,memory perturbation equ...
- ベイズ学習
-- weight regularizer:更新前後のパラメータの差に重要度を...
-- RMSpropなどの重み更新則は,勾配を変化させるだけで実現...
- Knowledge-Adaptation Prior
-- K-prior:新たなデータが加わったとき,変化した決定境界...
- Memory perturbation equation
-- K-priorで将来的に重要にならないであろう事例 → 今まであ...
* 企画セッション4:メカニズムデザイン [#e926c704]
オーガナイザー:竹内孝(京都大学)
** 機械学習によるメカニズムデザイン [#w2007e83]
恐神貴行(日本IBM)
- ゲーム:N=参加者,Ai=行動,T=型(個人が知る情報),Ω...
- メカニズムデザイン:均衡を達成した上で,全体効用の最大...
-- 均衡(dominant strategy,Nash,Bayesian Nash):全参加...
- メカニズムに望ましい性質:efficiency=社会効用の最大化...
- これらの性質を備えるように,個人の型と行動の範囲から,...
- trading network:オークションのように買うだけでなく,付...
-- 四つの性質を満たすものはできない → 最後の二つの条件を...
- メカニズムデザインが利用される機械学習
-- 学習理論,バンディット,マルチエージェント強化学習
** 協力ゲーム理論とPAC学習 [#n5786400]
五十嵐歩美(東京大学)
- 協力ゲーム=エージェント間で協力できる,協力することで...
-- 提携するエージェントの組合せが指数的に増加する問題
- 協力ゲームの形式的定義
-- N=エージェントの集合,v=特性関数:Nの部分集合が提携...
- core安定性:どのような提携をしても,その配分より大きな...
-- core安定な解の存在だけでもNP困難 → 機械学習で割当てを...
- PAC学習:目標概念に最も近い仮説を選択するのに必要な事例...
-- PAC安定解=エージェントの提携をiidで生成,エージェント...
-- 効率的なPAC安定化:エージェントの提携をサンプリングす...
** マッチング・マーケットデザインの産業応用 [#qcc745e3]
冨田燿志(サイバーエージェント)
- マッチング推薦
-- 一方の選好にのみ基づいて推薦しても,マッチングする可能...
-- 両方の選好の積などに基づく,多くの相手に好まれる相手へ...
-- 全体の社会厚生関数を導入する → 計算量が多い
-- TUマッチングモデルの導入:均衡条件を満たすマッチング
- 保育所の利用調整
-- 希望者が希望する保育所の順位リストを提示
-- 特に制約がなければ Gale-Shapleyの方法 で対応可能
--- 安定マッチング:個人合理性=希望しないマッチはない,...
-- 保育所の問題:兄弟の同園の入所,転園の希望(より近い園...
* 招待講演4:Decoupling the Input Graph and the Computati...
Petar Veličković(Google DeepMind & University of Cambrid...
- GNN のグラフ構造は正しいものと仮定されるが,リンクの繋...
-- グラフが得られたとしても,GNNは,グラフにボトルネック...
- Deep Sets=辺は自己ループだけ,transformer=全結合
- 潜在的なグラフを推定する → 伝播が急激に変わる
- nonparametric rewiring
-- graph diffusion convolution=徐々に変化するグラフ構造
-- expander graph propagation=グラフ構造は未知だが,伝播...
- over-squashing を形式的に定義し,計算に
終了行:
* 第26回 情報論的学習理論ワークショップ (IBIS 2023) [#p1d...
COLOR(#00AA00){このページはしましまが [[IBIS2023>IBIS#IBI...
- 日程:2023-10-29 〜 2023-11-01
- ホームページ: http://ibisml.org/ibis2023/
- 会場: 北九州国際会議場 & オンライン
#contents
* 10月29日(日) [#n02017b1]
* チュートリアル1:大規模言語モデル活用技術の最前線 [#d59...
稲葉通将(電気通信大学)
- 大規模言語モデル (LLM):モデル,データ,計算環境のいず...
LLMのできること
- LLMによるアノテーション
-- MTurk と張り合える(?)
- LLMに基づく推薦対話システム
-- 対話型の推薦システム → 映画など関連文書の多い分野では...
- マインクラフトのゲームプレイ
-- マインクラフトの文書を読み込んでいるので可能だった
- ロボットの制御
-- 文書そのものや,コードを生成させるものは難しい → 強化...
- 論文査読
-- 不採録論文の一致率は高いが,採録論文は低い
プロンプト:LLMに対する入力
- In-Context Learning:少数の例を与えることで,追加学習な...
- Chain-of-Thought:問題をLLMに回答させるときに,回答に至...
-- Zero-shot CoT:"Let's think step by step" とする
-- CoT で違う思考経路を与えて,答えを多数決させる
- Plan-and-Solve:問題の解き方を回答させてから,その解き...
- Auto-CoT:データをクラスタリングしておき,違うクラスタ...
-- 多様な事例をプロンプトで与えるとよい
- 長期的や多段階の問題は苦手 → 途中経過を出力させるように...
- Program of Thought:問題を解くプログラムを生成させる
-- Faithful CoT:プログラムだけじゃなく,プランニング記述...
- CoTで思考の段階数が多い方がよい,多数決の場合も段階数が...
- Tree-of-Thought:複数のプランを生成させ,さらにそれを自...
- ReAct:次に必要な行動を,その理由と共に生成させる
-- 外部検索を使う行動を含めさせることで,ハルシネーション...
- Least-to-Most:部分問題への分解
- Self-Refine:ダメだしをして,自身の回答を変更させる
- "Let's think step by step" のような性能向上が見込めるイ...
- 重要な情報は,最初や最後に与えるようにする
- プロンプトを2回与えると,CoT を上回る
- 複数の役割・ペルソナを与えて議論させる
-- 非倫理的なペルソナも生成できてしまう問題
- 複数のLLMに回答と共に,確信度を生成 → 他のLLMの回答をフ...
- 推薦のときに,アイテムの説明を生成させる≒特徴量を生成さ...
- 話者の少ない言語は,非倫理的な回答が出やすい
- LLMのパラメータを量子化するのは4bitまでは性能が変わらない
- ウォーターマーク:LLMのトークンを二つのリストに分けて,...
* チュートリアル2:物理シミュレーションのための機械学習入...
田中佑典(NTT)
- 物理現象と微分方程式
-- 物理シミュレーション:計算機上での物理現象の再現
- 常微分方程式 (ODE)=独立変数が一つ,状態・方程式・初期...
- 偏微分方程式 (PDE)=独立変数が二つ以上,状態・方程式・...
- 順問題=方程式や初期条件などから,これを満たす関数を求...
-- 離散化して数値的に解く(ルンゲクッタ法など)
- 逆問題=解の観測値と,方程式などから,関数のパラメータ...
- データ駆動型のアプローチ:NNで関数を表すように
-- 物理学の知識を制約・バイアスとして利用 physics-informe...
-- 制約は,損失関数に制約項を加えるソフトなものと,関数形...
- ダイナミクスの推定:求める関数をブラックボックス関数で...
-- ニューラルODE:状態関数 u の時間的な差分をNNでモデル化
--- 小規模なら誤差逆伝播で解く,中規模以上なら随伴変数法...
--- ハミルトニアンPDE:ハミルトニアン密度を全空間に対して...
- 方程式の解の推定:特定の初期条件・境界条件に対する状態...
-- 初期状態や境界条件を制約項に入れて損失関数を定義
- 解作用素の推定:初期条件などから状態関数uへの写像をNNで...
-- 関数間の写像は解作用素と呼ばれる
-- 関数をNNに入れられないので,実際には関数の格子点上の値...
-- end-to-end の考え方で解作用素を推定
* チュートリアル3:ゼロから作る深層学習理論 [#oa31785a]
今泉允聡(東京大学/理化学研究所)
- 複雑なモデルほど汎化誤差が減る理由は?
-- 汎化誤差 = 近似誤差(NNの表現力)+ 複雑性誤差(予測...
-- 普遍近似定理(NNは任意の関数を誤差ε以内で近似できる)...
- 層が少ないNNで1次元入力
-- 2層NN(M個のReLU関数の加重和)で近似可能
- 任意の関数を区分定数関数で近似 → 区分定数関数をNNで近似
-- 区分定数関数を,急激に変化するReLUで近似すれば,NNで表...
- 層が少ないNNでd次元入力
-- 3層NNで近似可能
-- d次元関数を,d次元空間の区分定数関数で近似 → 各次元ご...
- 多層で幅が小さなMのNNで多次元入力
-- 層が少なく幅のおおきなNNを,等価な多層で幅の小さなNNに...
--- 入力を保存する部分,係数を掛ける部分,演算結果を保存...
* チュートリアル4:逐次的意思決定におけるリグレット解析と...
伊藤伸志(NEC)
- オンライン学習の分類:フィードバックの違い × 目的関数・...
- 一般のオンライン学習:解の生成と関数値の観測を反復
- オンライン組合せ最適化=経路の選択とその重みの観測を反復
- エキスパート問題:N人のエキスパートがいて各反復でエキス...
-- 最も成績の良かったエキスパートに対するリグレットを最小化
-- 確率的(定常的):エキスパートの利得は独立同分布から得...
-- 敵対的(非定常的):こちらの方策を知っている敵対者が最...
- Follow the Leader:そこまでの成績が一番良かった人を選ぶ...
- 乗算型重み更新 (MWU, Hedge):信頼度に応じて確率的にエキ...
-- 信頼度のエントロピーを正則化項とする最適化に等しい
- 適応的MWU=確率的・敵対的の双方に優れる
* 10月30日(月) [#k0d4b74e]
* 企画セッション1:Vision and Languageの最前線 [#ja4490bf]
オーガナイザー:菅沼雅徳(東北大学)
** 大規模言語モデルとVision-and-Language [#r2672b42]
西田光甫(NTT)
- V&L:画像の理解を文書化や,その逆処理ができるように
- 基盤モデルと事前学習
- 言語モデル=文字列が与えられたときの,次の文字(トーク...
-- GPT3:300Gトークンで学習,モデルはtransformer
-- 少数の例示によって,モデルの更新なしに問題を解けるように
- V&L:画像と言語
-- CLIP:テキストと画像の埋め込み間の内積が,関連していれ...
- instruction tuning=モデルにタスクを指示する入力
-- V&L では,一度画像の情報を文字列に変換し,fine-tuning ...
-- 文字列が生成できれば,文字列からの画像生成モデルに入力...
- ChatGPT=強化学習 (RLHF) を用いて,人間のフィードバック...
-- 複数の応答を生成させて,それらに人間が評価を与え,その...
- GPT-4V=画像もモデルに組み込まれている
-- 指示に従った応答を生成できる
** 作業動画と手順書を対象としたマルチモーダル理解 [#ife51...
西村太一(京都大学 (現: LINEヤフー))
- Web上の動画を対象:Youtubeなどから取得,余分なものが写...
-- 音声が利用可能,大規模にデータを収集可能
- データ集合
-- YouCook2, YouMakeup:料理とメイク動画のデータ,時間区...
-- COIN, Howto100M:多様なタスクの動画
- MIL-NCE:Howto100Mで構成した基盤モデル
-- Q&A,レシピ生成,動画検索,プランニング(最初と最後か...
- 一人称動画:作業者視点の動
- データ EPIC-KITCHEN:料理,アノテーションは作業内容と対...
- データ Ego4D:多様な作業者・環境の作業に限らない一人称...
- EgoVLP:画像とテキストの変換タスク
- 化学実験の作業タスク:再現性を確保する目的,手順書とビ...
** テキストからの実世界理解に向けて [#qa382d29]
栗田修平(理化学研究所)※オンライン講演
- 画像キャプション生成 (IC)=画像に題を付ける
- 画像質問応答 (VQA)=画像に関する質問に応答(物の色など)
-- VinVL:VQAの手法
- Scene Graph Generation:画像中の物体とそれらの関係のア...
- 参照表現理解 (referring expression comprehension; visua...
-- テキスト表現の物体のbounding boxを予測
-- MDETR:名詞句に対応する画像を検出するモデル
-- GLIPv2:画像内部と,別の画像と両方の対照学習
-- OFA:マルチタスク,マルチデータ集合を一つのモデルで
- 対照学習:似た画像は近くに,似ていない画像は遠くに配置
-- CLIP:画像とテキストの対照学習,係り受けなどは考慮され...
- オープン語彙物体検出 (open-vocabulary objet detection)
-- キャプションの語彙を使って,新たな物体クラスラベルをも...
-- ゼロショットで,与えた語彙に対応する物体を検出するタス...
- RefEgo:一人称画像からの参照表現理解
* 招待講演1:Geometric Algebra Transformers: A General-Pu...
Taco Cohen(Qualcomm AI Research)
- 幾何的な推論の応用分野:分子構造の扱い,大気の予測,ロ...
- 幾何的深層学習 (GDL):元の入力を処理した結果に幾何的変...
- Geometric Algebraic Transformer (GATr):幾何的不変性を...
- GNNなど,他の幾何的深層学習と比較して,GATr はスケーラ...
* 10月31日(火) [#n7cd4fdb]
* 招待講演2:Prompt2Model: Generating Deployable Models f...
Graham Neubig(Carnegie Mellon University)※オンライン講演
- LLMの課題:プライバシ,コスト,意図どおりの制御
-- これらの課題に対処した,大規模モデルを使って,タスク記...
- 多くのデータ集合が公開されるようになったが,大規模なも...
- LLMを使って,データ集合を取得し,データをアノテーション
-- クエリを拡張して,関連するモデルを検索
* 企画セッション2:テンソルネットワーク [#o34757a8]
オーガナイザー:横田達也(名古屋工業大学)
** Exploring Optimal Tensor Network Architectures Through...
Chao Li(理化学研究所)
- テンソルネットワークにはいろいろな形態がある → TN Struc...
-- 構造は指数的に増加するので大変
- 必要な表現能力の制約の下,最も簡潔な構造を探索
-- 構造を符号化して,遺伝的アルゴリズムを適用
-- 確率的探索:近隣構造を無作為サンプリングし,良いものを...
-- alternating local enumeration:近傍を列挙して,良いも...
** 非負テンソルの多体近似 [#x9838575]
ガラムカリ和(理化学研究所)※オンライン講演
- テンソル分解での表現:積和で表す
-- 分解の方法がいろいろある(CP分解,タッカー分解,テンソ...
-- 誤差関数が非凸で最適化が難しい
-- 解が不定になることも
- 提案手法:テンソルの要素値が,自然パラーメータの指数分...
-- n体モデル:テンソルのn個のモードの要素の積を項とするモ...
- 隠れモードの導入 → 一つだとCP分解に,二つ以上使うとタッ...
** テンソルネットワーク法の量子計算への応用 [#ida1b269]
上田宏(大阪大学)
- 量子ビットの演算は,テンソルネットの構造を使うことによ...
* 11月1日(水) [#ze5875bb]
* 企画セッション3:最適輸送 [#x3dae154]
オーガナイザー:今泉允聡(東京大学/理化学研究所)
** 何でも微分する [#zc92d092]
佐藤竜馬(京都大学)
- 最適輸送:輸送量非負,出発点から運ぶ量と到着点に届く量...
-- 目的関数は微分できない → エントロピー正則化項を加えて...
-- 正則化パラメータ ε は,実用的な 0.1 など小さな値にする
-- Sinkhornアルゴリズム:正則化項付きの最適化問題を解く →...
- ランキング問題=実数値配列を順位ベクトルに変換
-- 1次元の最適輸送問題の特殊例になっている → Sinkhorn法で...
- Sinkhorn法 はブレグマン法の特殊例
-- ブレグマン法は,最短経路問題,教師あり最短経路問題を解...
** 最適輸送と情報幾何 [#u3b18ea4]
松田孟留(東京大学/理化学研究所)
- 1次元分布の変換を考えると,累積分布関数を水平に確率質量...
- Wassersteinは変数変換に対して不変ではない
- KLダイバージェンスは統計的推測と密接に関連 → Wasserstei...
- ベイズ予測分布:データから次の出力を予測する
-- KLで測ると,事前分布によって予測分布はシフトしており,...
-- Wassersteinでも同様のことを示せる
- continuity equation:確率分布の時間発展を示す偏微分方程式
-- Wassersteinでのスコア関数を定義し,それで情報行列を定義
-- Wasserstein版の共分散行列(KLのFisher情報量みたいなも...
** 最適輸送と熱力学的トレードオフ関係 [#zd101cd3]
伊藤創祐(東京大学)
- Monge-Kantrovichの問題:コストで重み付けした同時分布の...
- 流体力学:2-Wassersteinの最適輸送を速度場に書き換える →...
- Fokker-Planck方程式=ブラウン粒子の確率ダイナミクス
-- 2-Wassersteinの2乗を使った式が,次時刻を予測する更新式...
- 拡散系での熱力学
-- ゆらぎの定理=拡散過程の前向きと後ろ向きの相違に関する...
- Fokker-Plank方程式から導かれる隣接する時間での同時分布...
* 招待講演3:How to build machines that adapt quickly [#f...
Emtiyaz Khan(理化学研究所)
- 機械学習における適応:小さな変化でも再訓練が必要,僅か...
- 素早い適応:ベイズ学習,正則化,memory perturbation equ...
- ベイズ学習
-- weight regularizer:更新前後のパラメータの差に重要度を...
-- RMSpropなどの重み更新則は,勾配を変化させるだけで実現...
- Knowledge-Adaptation Prior
-- K-prior:新たなデータが加わったとき,変化した決定境界...
- Memory perturbation equation
-- K-priorで将来的に重要にならないであろう事例 → 今まであ...
* 企画セッション4:メカニズムデザイン [#e926c704]
オーガナイザー:竹内孝(京都大学)
** 機械学習によるメカニズムデザイン [#w2007e83]
恐神貴行(日本IBM)
- ゲーム:N=参加者,Ai=行動,T=型(個人が知る情報),Ω...
- メカニズムデザイン:均衡を達成した上で,全体効用の最大...
-- 均衡(dominant strategy,Nash,Bayesian Nash):全参加...
- メカニズムに望ましい性質:efficiency=社会効用の最大化...
- これらの性質を備えるように,個人の型と行動の範囲から,...
- trading network:オークションのように買うだけでなく,付...
-- 四つの性質を満たすものはできない → 最後の二つの条件を...
- メカニズムデザインが利用される機械学習
-- 学習理論,バンディット,マルチエージェント強化学習
** 協力ゲーム理論とPAC学習 [#n5786400]
五十嵐歩美(東京大学)
- 協力ゲーム=エージェント間で協力できる,協力することで...
-- 提携するエージェントの組合せが指数的に増加する問題
- 協力ゲームの形式的定義
-- N=エージェントの集合,v=特性関数:Nの部分集合が提携...
- core安定性:どのような提携をしても,その配分より大きな...
-- core安定な解の存在だけでもNP困難 → 機械学習で割当てを...
- PAC学習:目標概念に最も近い仮説を選択するのに必要な事例...
-- PAC安定解=エージェントの提携をiidで生成,エージェント...
-- 効率的なPAC安定化:エージェントの提携をサンプリングす...
** マッチング・マーケットデザインの産業応用 [#qcc745e3]
冨田燿志(サイバーエージェント)
- マッチング推薦
-- 一方の選好にのみ基づいて推薦しても,マッチングする可能...
-- 両方の選好の積などに基づく,多くの相手に好まれる相手へ...
-- 全体の社会厚生関数を導入する → 計算量が多い
-- TUマッチングモデルの導入:均衡条件を満たすマッチング
- 保育所の利用調整
-- 希望者が希望する保育所の順位リストを提示
-- 特に制約がなければ Gale-Shapleyの方法 で対応可能
--- 安定マッチング:個人合理性=希望しないマッチはない,...
-- 保育所の問題:兄弟の同園の入所,転園の希望(より近い園...
* 招待講演4:Decoupling the Input Graph and the Computati...
Petar Veličković(Google DeepMind & University of Cambrid...
- GNN のグラフ構造は正しいものと仮定されるが,リンクの繋...
-- グラフが得られたとしても,GNNは,グラフにボトルネック...
- Deep Sets=辺は自己ループだけ,transformer=全結合
- 潜在的なグラフを推定する → 伝播が急激に変わる
- nonparametric rewiring
-- graph diffusion convolution=徐々に変化するグラフ構造
-- expander graph propagation=グラフ構造は未知だが,伝播...
- over-squashing を形式的に定義し,計算に
ページ名: