第55回IBISML研究会

このページはしましま第55回電子情報通信学会 情報論的学習理論と機械学習研究会 に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください.

3月20日(金)

強化学習・バンディット

相互情報量に対する変分下限最大化に基づく多目的ベイズ最適化

○石倉雅紀・烏山昌幸(名工大)

組合せ最適腕識別手法を用いたノイズ環境下での相関クラスタリング

○黒木祐子・宮内敦史(CENTAI)・ボンキ フランチェスコ(CENTAI/Eurecat)・陈 卫(MSR)

事前知識を用いたQ学習

○今川孝久・榎田修一(九工大)

鉄道荷役における重量を考慮した貨車入替え計画 ~ 強化学習を用いた導出法 ~

○平嶋洋一(大阪工大)

ベイズ統計

深層学習モデルを用いた高速なデータ同化手法

○小野悠太(東大)・垂水勇太・福田圭祐・前田新一(PFN)

ガウス過程回帰モデルによるテスト分布を考慮した能動学習

○大藏芳斗(名大)・竹野思温(名大/理研)・稲津 佑(名工大)・青山竜也・田中智成・赤羽智志(名大)・花田博幸・橋本典明(理研)・村山太朗・李 翰柱・小嶋信矢(デンソー)・竹内一郎(名大/理研)

科学者によるスペクトル分解過程のベイズモデリング

○大久保駿人・天本義史・熊添博之・有竹俊光・本武陽一(一橋大)

応用

ClassifierDiffusion: 識別器による確率密度推定と画像生成への応用

○鳥羽真仁・内田誠一(九大)・早志英朗(阪大)

Generative Inference for object poses by Regressive-feature Reconstruction

○Ryo Isobe・Rei Kawakami(Science Tokyo)・Satoshi Ikehata(Science Tokyo/NII)・Ikuro Sato(Science Tokyo/Denso IT Lab)

位相的データ解析によるアモルファスガラスの象徴スペクトルの形状発現機構の解明

○森田秀利・本武陽一・天本義史・大久保駿人・土佐尚輝(一橋大)

Conformal Predictionとベイズ最適化

○南條 舜(総研大)・吉田 亮(統計数理研)

生成AIとその活用(1)

[招待講演1] AI・自然言語処理、激動の五年間 -大規模言語モデルの現在、そして未来-

笠井 淳吾 (株式会社Kotoba Technologies Japan)

[招待講演2] PLaMo-100B-Instruct - 国産大規模言語モデル構築における事後学習の取り組み

中郷 孝祐 (株式会社Preferred Elements)

[招待講演3] Finetuning or RAG? 医療ドメイン特化 LLM 構築に向けて

岩澤 諄一郎 (株式会社Preferred Networks)

理論

非単調量子自然勾配法の情報幾何

○宮原英之(北大)

共有潜在空間上でのベイズ最適化による機械学習アルゴリズムとハイパーパラメータの同時選択 ☆

○石川和樹・尾崎令拓・神崎陽平(名工大)・竹内一郎(名大/理研)・烏山昌幸(名工大)

ルールリストの族に対する線形整数計画法に基づくモデル更新手法

○佐々木耀一・岡嶋 穣(NEC)・有村博紀(北大)

12月21日(土)

[企画セッション] 生成AIとその活用(2)

[招待講演4] 大規模言語モデルTanukiの対話・タスク遂行能力を向上させるための合成データ生成と活用

畠山 歓 (東京科学大学)

[招待講演5] クイズが解ければ電話が取れる? 〜コールセンター業務の実際〜

金本 勝吉 (リンカーズ株式会社)

[招待講演6] 金融分野における大規模言語モデルの応用と特化型モデルの構築

平野 正徳 (株式会社Preferred Networks)

信頼性・解釈性・公平性及び実応用

自動特徴量エンジニアリングに対する選択的推論

○松川竜也・白石智洸(名大)・西納修一(名大/理研)・勝岡輝行(名大)・竹内一郎(名大/理研)

SHAP値を用いた特徴量選択における予測精度とモデルの解釈可能性の検証

○橋浦亮太・大森淳寛・中野直人(明大)

低リソース環境でのニューラルネットワークを用いたメロディの生成、ルールに基づいた改善と評価

○松永真樹・ゴーチェ ロヴィック(有明高専)

深層学習

SGDの確率的ノイズを利用した段階的最適化手法による経験損失関数の大域的最適化

○佐藤尚樹・飯塚秀明(明大)

L1正則化ニューラルネットワークの特徴量混合による敵対的堅牢性

○稲岡陽向・武石啓成・竹内純一(九大)

ニュートン図形の方法によるTransformerの大域学習係数の推定の可能性と展望

林 祐輔(ALIGN)・坂本龍亮(北大)・○坂本航太郎(東大)

言語モデルにおけるBKT転移

○都地悠馬(北大)・高橋 淳(東大)・Vwani Roychowdhury(カリフォルニア大ロサンゼルス校)・宮原英之(北大)

学習・予測手法

最適化1ステップの学習による非負値行列因子分解のUnrolling

○有竹俊光(一橋大)

モデル性能を保証した分布ロバストな訓練事例選択

○田中智成(名大)・花田博幸(理研)・杨 瀚霆・青山竜也(名大)・稲津 佑(名工大)・赤羽智志・大藏芳斗(名大)・橋本典明(理研)・村山太朗・李 翰柱・小嶋信矢(デンソー)・竹内一郎(名大/理研)

非定常時系列に対する分位点回帰を用いた指数重み付け平均アルゴリズムの評価

○大森淳寛・橋浦亮太・中野直人(明大)

非更新オートエンコーダを用いた高精度なコンセプトドリフト検出

○髙野大晴・古賀久志(電通大)


トップ   編集 凍結 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS
Last-modified: 2024-12-21 (土) 16:34:06