しましま/人工知能学会全国大会2025
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
* 人工知能学会第39回全国大会 [#g2dbb005]
- このページはしましまが[[人工知能学会全国大会2025>人工知...
- ホームページ: http://ai-gakkai.or.jp/jsai2025/
- 日時:2024年5月27日(火)〜 5月30日(金)
- 会場:[[グランキューブ大阪>https://www.gco.co.jp/]] + ...
#contents
* 5月27日(火)1日目 [#tec4e5a7]
* [1A1-PS-1-01] バディAIがいる世界へ [#s78dd28c]
栗原 聡
- 学んだこと
-- 第1次ブーム=アイデアはすぐには社会で活用されない,イ...
- 人の認知能力 → 知能は関係から創発 → 複雑ネットワーク → ...
- AIを使ってノーベル賞 → AIで自動実験・研究
- 日本では活用している人は少ない → AIを使うことが目的にな...
-- 価値作り → ものづくり までいけない
- 情報は媒体 → ものである本当の価値に繋げる
-- DX は目的ではなく,価値作りになっていなくてはならない
- 現状はAIバブル=価値に繋げられていない → 使えないものな...
-- 栗原さんのイノベーション:繋げる力
- AIをイノベーションに活用できるかは人次第
-- SNSやAIがもたらしたもの → 膨大な情報を人間が処理できない
-- 同質化が加速している
- AIは当たり前になっていく
-- 多様性,理解力,寛容性,論理的思考を育むのは小中学生の...
-- AI学会:共同通信と共同で学会からAI情報を発信
- 現状の臨界状況から次の安定状態までをどうするか?
-- AIリスクは現実だが対応可能
-- 人間には現状維持バイアスがあることを忘れてはならない
- 今までは道具としてのAI=自動 → 自律
-- おもてなし は道具の延長線上=相手の状況を予測してサポ...
- Buddy AI
-- 1人に専用のBuddy AI
-- 強制ではなく,自分からの信頼
- 例外的事象への対応
-- 古典的プランニング → サブサンプションアーキテクチャ
-- 早い思考=system1 ⇔ 遅い思考=system2 → LLMは早い思考...
- 実用性のあるスケールしたAIの構築
-- シンボル型AIの要素
- アフォーダンス理解:ものは情報をアフォード + 人は適切...
-- 創発はスケールで生じる
-- 個々のAIがスケールすることで創発するかも
- Computational Scale Science(計算創律科学)を始めた
* [1L3-OS-34] AIアライメント [#i6e2cc39]
** [1L3-OS-34-01] 日本語大規模言語モデルの自己学習による...
〇坂本 充生1、陣内 佑1、森村 哲郎1、阿部 拳之1、蟻生 開人...
- LLMではファインチューニングがアライメントには重要
-- LLM自体で判定させたデータからのDPO と シードデータから...
-- 後者が良かった
** [1L3-OS-34-02] 大規模言語モデルエージェントによる繰り...
〇堀部 和也1、豊川 航1 (1. 理化学研究所)
- 影響の調査はmixed:AIが人のバイアスを増幅する ⇔ 合意を...
- 直接互恵性=直接返ってくる,間接互恵性=第3者を介して返...
- 寄付ゲーム=寄付で全体のリソースが増える間接互恵性のモ...
-- 寄付率などのパラメータを調べて,挙動の違いを見る
-- 過去の寄付量に応じて,自分の寄付量が上がるかどうかの違い
** [1L3-OS-34-03] 周期的なゼロ和ゲームにおけるマルチエー...
同期によるナッシュ均衡からの発散現象
〇藤本 悠雅1,2,3、蟻生 開人1、阿部 拳之1,4 (1. サイバーエ...
- 二人ゼロ和ゲーム:お互いの行動 → 自分の損=相手の得,逆...
-- ここではマッチングペニー
- ナッシュ均衡 → お互いの戦略を更新する動機がない
- 勾配降下的な方法ではナッシュ均衡を達成できない,均衡の...
- 周期的にゼロ和のバランスが変わるようにする場合を考えた
** [1L3-OS-34-04] 既存の評価モデルを転用したLLMアライメン...
〇宮岡 佑弥1、井上 正樹1 (1. 慶應義塾大学)
- LLMが好ましくない文を生成しうる → 回避させたい
- 安全化制御を利用,制御バリア関数 (CBF) の利用
-- RLHF/DPO=再学習 ⇔ 生成過程 → 右を採用
- 制御理論の障害物回避 → 生成過程で好ましくない文を回避
- 制御バリア関数:制約関数=回避したい状況かどうかを返す ...
- LLM の文の伸張させるときに,CBFを使ってまずかったら回避...
- 制約関数にネガティブな文というのを使って実験した
** [1L3-OS-34-05] 分散的ベイズ推論としての大規模言語モデ...
〇廣瀬 百葉1、谷口 忠大1,2(1. 京都大学、2. 立命館大学)
- Hybrid Collective Intelligence:人間とAIが補完的な視点...
- ボルツマン選択=行動を分布に基づいて確率的に選択 のモデ...
-- 一方からのサンプリングした結果が,次の相手のサンプリン...
* [1C4-KS-2-01] 人工知能学会・日本神経回路学会合同企画「A...
** AI for Science [#gf2726e4]
岡田 真人
- AI for Game: ARCH → Othello → Chess → Quiz → Go
- Hassabis: AI for Science 提案 → バイオでノーベル賞
- 岡田さん:材料科学 を対象
- データ駆動科学:背後にある潜在的構造を抽出
-- 三つのレベル:計算理論,モデリング,表現・アルゴリズム...
- スパースモデリングとベイズ推論の組合せ
- 個人の研究者の経験で選ぶ ⇔ LLMで網羅的に調べてスパース...
** シミュレーションベース機械学習 [#g5925018]
上田 修功
- 第一原理計算によるシミュレーション ⇔ 膨大なデータからの...
- シミュレーションで作ったデータを end-to-end で学習して...
-- S-net を使うと津波の予測が津波が来る前に出来るように
- 生成AIによる AI for Science:科学的知見の導入の度合いが...
-- 科学的知見 → 信頼性などが違う
- 作用素学習:ODEをNNで解くと再学習が必要 → 関数レベルの...
* 科学モデルとしての集合的予測符号化:生成科学に向けた科...
谷口 忠大
- 仮説生成などが生成モデルで行うように
- 科学は人類の探求の総体の置き換えは無理 → 個別のタスクを...
- 生成化学:広義の生成AI活用,仮説生成を含む閉ループ,構...
- Collective Predictive Coding Hypothesis:人の記号系は集...
-- 査読プロセスは,棄却サンプリング的な面がある
** 大規模言語モデルの発展 [#y3ce5835]
岡崎 直観
- GPQA:難しい数学のコーパス
-- o1:深い思考を加えたモデル
- Mixture of Experts の改良
- マルチモーダル化
- MT-Bench:コーパスの応答の良さを人間ではなくLLMに自動評...
- コーディング:コードをLLMにリファクタリングしてデータと...
- 推論時スケーリング:予測させるときに,多く予測すると性...
-- 数学の問題を解かせて途中の思考過程も書かせるが,最後の...
- LLM Agent:統合エージェントと個別エージェントの分担
- LLMはAIME2025(数学)で驚異的な成果を挙げているが,デー...
* [1A5-SS-1-01] LLMが変えるAI研究の形:自動研究の最前線 [...
- AI-Scientist-v2 のワークショップのAI生成論文の査読通過
** 牛久 祥孝 [#l7ce0e20]
- UCBのA-Lab=無機化学,中国科技大のChemAgents=実験装置...
- 第2次AIブームのとき
-- AIによる科学の先駆者:DENDRAL=化学構造推定, PROSPECTO...
- 2000年代:Adam=酵母遺伝学実験の自動化,力学的カオス系...
- 2010年代:AlphaFold などの科学プロセスの駆動 → サロゲー...
- 2020年代:基盤モデル
- データ駆動(科学の第4パラダイム)から20年
-- 個々の実験ロボットの間を,移動型ロボットが連携する
- 論文や特許を基盤モデルに埋め込む:RAG や 継続学習
-- Fine-Tuning したLLM=読ませた文書中の情報の位置に回答...
- 新材料発見
-- 所望の物性のある結晶を探す → 既存のデータから予測
-- 所望の物性があるか予測する → 並進・回転不変性などの知...
-- 所望の物性があるかを実験する → ViLan:言語指示による実...
- データからの理論生成
-- 関数同定問題 symbolic regression:物理方程式の生成
- インパクトのある研究をできる環境を作り出したい
-- うまくいくかどうか分からない時間の掛かる研究を試せる
** 熊谷 亘 [#r0608fbb]
- 研究活動の意義:解決すべき課題を解決するには計算機の活...
- AI/MLの論文数は指数関数的に増加 → ペースを維持するには...
- 科学の段階を機械学習の問題に置き換えるられる
-- 問題定義=解決すべき問題の特定 → ツール,文献調査
-- 研究実施=問題を解決する方法を考える → 実験計画,理論...
-- 知識共有=結果を公表して共有 → 論文執筆,発表資料
- ツールとしての研究自動化
-- どのツールを使うかとかを人間の介入が必要 → 人間で律速
- Sakana AI の AI Scientist-v2 (2025):ICLRのワークショッ...
- 研究自動化の課題
-- 研究分野の一つとして認識されない,人間の介入なしで進む...
-- 還元的タスク:AI自身がタスクを発見し取り組めるようにす...
-- 自己改善可能性の向上:練度の向上,複製可能
-- 人間の研究者への影響:テーマが選択しにくくなる,素早い...
- 自身のプロジェクト:AutoRes
* 5月28日(水)2日目 [#w44c0ed6]
* [2C1-KS-7] 信頼されすぎる?AI 「ときどき間違えるAIとの...
2025年5月28日(水) 09:00 〜 10:40 C会場 (特別会議室, 12F)
岸田 昌子(国立情報学研究所),竹内 孝(京都大学),松原 ...
- 信頼 → 人間の反応
- Human-Machine teaming → 権限の委譲の度合い
** ヒトは生成AIに何を委ねるのか? 会話相手としての信頼の...
ドミニク・チェン(早稲田大)
- ぬかボット:ぬか床の発酵の状態に基づいて表示が変わる → ...
-- 人間と細菌は挙動が変わるが,ぬかボットは定常的な応答を...
--- factベース=ぬか床の状態に応じた反応 → いろいろな人に...
--- GPT2だったので何を言い出すかよくわらない
- みそボット:味噌樽のボット → RAGを使っていろいろな対応...
- 会話エージェントとしての信頼
-- ぬかボットは事実に基づく対応とおふざけ雑談とが ⇔ みそ...
- 開かれた会話における信頼とは
-- 会話を開かれた open-end かたちで協働構築 co-construct ...
- 何をAIに委ねて生きていきたいのか?
** パネラー [#i163f443]
*** 五十川 麻理子 [#vae6f3f3]
- 画像認識
- AIを信頼して測られることはできるか? → 測られることより...
*** 大野 和則(東北大学) [#g23a147d]
- 特定環境下での自動運転
- 誤認識のある環境下でのせい
*** 岸田 昌子(NII) [#n5a13450]
- 制御理論
- 飛行機などすでに自律制御の機械はある → 重要な判断や価値...
- 機械は人間と一体になって完全になる(豊田喜一郎)
*** 小林(NII) [#hb63c370]
- AIのアルゴリズム
- アルゴリズム研究者はまだいろいろ問題があると思っている...
*** 原 聡(電通大) [#e8168ec6]
- 説明可能AI
- 説明とは? → 人によって説明に期待するものが暗黙的にある
- 人は嫌いについては自覚的 → 嫌いを減らすものはAIに委譲し...
*** 藤井 慶輔 [#r1598d35]
- スポーツ分析
- 審判AI:認識=ライン判定,評価=体操の採点,空間系=野...
*** 松原 崇(北海道大学) [#r6dc415e]
- 天気予報は,専門家がそれまでにいろいろ尽力してるのが伝...
- ChatGPT はまだ批判的に見るクリティカルシンキングができ...
*** 梅谷 俊治(リクルート) [#ief33650]
- 数理アルゴリズム
*** 大塚 淳(ZEN大学) [#bf5d89ed]
- 哲学
** パネル [#l6818543]
- ロボットは仮説が与えられないと行動できない
- 誤りがあるかどうかは,共有しているコンテキストがないの...
- AIとAI企業の信頼 → 信頼は情報源の人格に依存する
* [2A2-PS-2-01] アバターと未来社会 [#j842ea05]
石黒 浩
- 人と関わるロボット
-- Town Robot,遠隔操作型と自律型
- アバター:遠隔操作型 → 細菌は自律的な部分が加わってきた
- 人間型ロボット開発の意義
-- 人間の脳は人間を認識するような脳を持っているので,人間...
- 知的システム実現のための構成的アプローチ
-- 人間っぽい機械を作ってみることで,感情や意識といった人...
- このアプローチの環境の変化
-- LLMで自然言語対話できるようになったことは,この種の研...
-- 身体を伴うと,マルチモーダルなコミュニケーションについ...
- これからの変化
-- LLMについて意識を人間は見出す
-- 社会関係=社会にAIが入ってきたことで社会の構成要素にな...
- 特定個人の人格を再現する:Geminoid HI-6 + LLM
-- 自分のコピーロボット + プロンプトに自身のインタビュー...
-- まだ足りないもの:反射的行動,発話と動作・ジェスチャの...
アバター共生社会
- 人が身体,空間,時間の制約から解放された社会
- 仮想空間:それぞれの人が同じものを見る必要はない → モラ...
- アバターの利用
-- 二次離島でのアバター Sota:専門医の遠隔アドバイス
-- 障がい者サービス:アバターによるトレーニング,アバター...
-- 高齢者:遠隔でアバターを操作して受付業務など
- 技術の社会実装:AVITA
-- CGキャラによるアバター → ロボットでやりたいが,ロボッ...
-- リモート操作,働く人のスポットの確保
-- 受付業務,自動レジサポートなどの業務 → 複数店舗に対応...
-- 顧客シミュレーションによる業務トレーニング
-- 人間の肉体の違いを無視できる → 差別の解消
* [2B4-KS-8] AIと法規制の国内外の最新動向と企業に求められ...
2025年5月28日(水) 13:40 〜 15:20 B会場 (小ホール)
大谷 光(日本ディープラーニング協会),柴山 吉報(日本デ...
** AIと法規制の国以外の最新動向 〜 AI規制とデータ保護法を...
岡田 淳 弁護士
- プライバシー,知的財産権
- グローバルなAI規制
-- EU AI Act 2024発効 → 揺り戻し,米は包括規制なしでバイ...
- ヨーロッパ
-- AI Act:2024年発効,ハードロー,監督機関AIオフィスの設...
--- ハイリスクAI:提供者とデプロイヤの義務に分けられる
-- 汎用目的AIモデルに別規制,GPAI Code of Practice=commi...
- 米国のアプローチ
-- AIに特化した包括規制はない,NISTの AI Risk Management ...
-- コロラド州AI法などはある
- 日本のアプローチ
-- ソフトロー:AI事業者ガイドライン
-- ハードロー導入の動き → 日本版AI法案 2025.2.28
--- 民間事業者の自主的な対応,透明性・適正性の確保,国に...
- AIとプライバシー
-- 生成AIによって生じたさまざまな課題 → 個情報法更新
-- 要配慮個人情報が含まれないような取り組みなどの注意喚起
-- 統計作成等であると整理されるなど場合は本人同意不要の方向
- EUの動向
-- ChatGPT,DeepSeek などへの調査
-- GDPRなどは簡素化の方向へ
** 生成AIの開発・利用に関する法的問題のクリア [#idb5744c]
柿沼 太一 弁護士
- 法的リスクの全体像
-- 外部サービス利用 ⇔ 自分で開発
--- 著作権,知財,個人情報,機密情報・不正競争防止 → 外部...
--- AIと著作権に関する考え方について,AI事業者ガイドライン
- 知財系リスク
-- 対象と場面の両面がある,開発と利用を分けて考える
-- 著作権,特許・実用新案,意匠,商標
-- 利用したモデルには入っているが,利用者は入れていない生...
-- 学習目的が表現・作風コピーを目的とするのはクロ
-- 特許:学習は規制がある ⇔ 生成・利用段階はあまり関係が...
--- 特許は知らなくても侵害になる
- 生成AIを使った研究成果と知的財産権
-- AIだけで人間が関与していない場合は特許にならない → 関...
** 議論 [#r325d7f3]
- 「統計作成等であると整理できるAI開発等」の目的であれば...
-- 本人同意なく,公開されている要配慮個人情報を取得する
-- 本人同意なく,個人データを第三者に提供する
--- 機械学習は統計作成ともみなせて,線引きで議論
--- 複数病院のデータを集めて医療予測モデルとかが作れるよ...
- リスクベースアプローチ
-- リスクを決めて,それに対する対応を示す.
* [2E5-OS-4b] 人間とAIの協調:エージェンシーと道徳性に関...
オーガナイザ:上浦 基(同志社大学),久木田 水生(名古屋...
** [2E5-OS-4b-01] 道徳を機械化することのメリットと副作用 ...
〇久木田 水生1 (1. 名古屋大学)
- AIの自動運転などでは道徳的判断を機械に実装する取り組み
- このコンテキストでの道徳性=人間が同意する傾向にある法...
- Machine Ethicsのパラダイム:機械が従うべき道徳的規範を...
- ロボットは人間以上に倫理的になりうるか?
-- 感情によって判断を狂わされることはない → 道徳に関する...
- 意思決定の二つのプロセス (Kernemann) → 道徳でもそうだろ...
- 道徳哲学:合理主義=理性が大事 ⇔ 情動主義=HumeやAdamSm...
-- ルールベースで道徳を記述するのは無理筋?
- 道徳的意思決定において,何が道徳的であるかを知っている...
- ⇔ 情動の道徳は部族内でしか有効でない
- ハマスの工作員の検出システムで10%をイスラエルは許容し...
-- 合理化を目的としてのAI利用を正当化するのは良くない
** [2E5-OS-4b-02] 人工知能とより善い関係を築き,より善い...
媒介理論からのアプローチ
〇大家 慎也1 (1. 久留米工業高等専門学校)
- 人間とはどのような存在か? フェルベークの技術倫理学
-- 技術的媒介理論:技術が人間の認知と振る舞いを変える
--- 腹部エコー技術で認知を変える → 中絶などが生じうる
-- 自由論:技術を使って自分の人生を作り出す → 人間には自...
- 技術の側の配慮 → 自律を支援する
- emotion canceling:威圧的なカスタマーの声をオペレータに...
-- 利用できるには → キャンセリングを経たことを認知,なり...
- この理論の問題点:自己実現それ自体の良さを考慮していない
-- 善悪は容易には決まらない,フェルベークは民主主義的に決...
** [2E5-OS-4b-03] 「インフラストラクチャー」の視点から探...
新興AIロボティクス研究開発のエスノグラフィー
〇志水 洋人1 (1. 名古屋大学)
- 人とAIの共生論の拡大
-- 擬人的機械との共生 → 共生はあいまい
- Awareness AIプロジェクト
-- 身体情報の常時計測・解析による健康支援
- インフラ化に当たっての問題
-- 身体情報の可視化と機械の不可視化は補完的 → 不健康を知...
-- 同意モデルとモニタリング要件の矛盾 → 受動的・継続的な...
-- 行動変容の規範化 → 健康にいい行動が規範になってしまう
** [2E5-OS-4b-04] 信頼できる人工道徳エージェントと人間の...
〇福原 慶1 (1. 名古屋大学)
- 道徳的な人工エージェントに任せることで人間の信頼にどの...
-- エージェント:自律的に意思決定し行動する,
- 自己利益などに左右されずに多くの人を助ける → 災害救助,...
- 課題:責任,実装,関係性・信頼への影響
- 人工エージェントの利点:人間には高コストすぎる人助けが...
- 何を任せるのか?を考えるために,人間が道徳的に振る舞う...
-- 信頼関係への影響
** [2E5-OS-4b-05] AI倫理における常識道徳利用の限界を倫理...
〇竹下 昌志1 (1. 北海道大学大学院情報科学院)
- RLHFなどは人の選好に依存している → 人の非倫理性を取り込む
-- MoralExceptQA,Social Chemistry 101,Moral Stories,ET...
- クラウドソーシングの利点:多くの人の意見
- 問題点
-- 常識道徳への依拠:全員同意するものはない,個人属性に依存
- 正しい道徳は存在するのか?
-- 歴史的に常識道徳が誤りがあった,クラウドソーシングにも...
-- 構成主義:ロールズ,特定の条件化で合意的
-- 動物倫理学:ヒトと非ヒトで扱いが違う,ヒトはヒトを食べ...
* 5月29日(木)3日目 [#f99f685d]
* [3Q1-OS-5] 創造性とAI [#m4f8df15]
渡辺 修平(リコー),菅野 太郎(東京大学),松尾 豊(東京...
** [3Q1-OS-5-01] 対話型LLMを用いたcapitalizationによる情...
〇泉谷 一磨1、窪田 進一1、地頭江 悠太2、安達 滉一郎2、新...
- capitalization=自身のポジティブな体験を親密な他者と共...
-- 人との間だけでもなく,LLMでも生じるかを実験した
- 有意差がある指標項目は一つに限られた
** [3Q1-OS-5-02] 会議発話データの分析における大規模言語モ...
〇北川 晴喜1、菅野 太郎1、Chen Yingting1、吉野 悠太2、渡...
- 会話のカテゴリであるコーディングスキームを,会議の発話...
-- 分類にLLMを用いて自動化する
** [3Q1-OS-5-03] キーワードネットワークを用いた会議ダイナ...
〇陳 映廷1、菅野 太郎1、蜂須賀 知理1、吉野 悠太2、渡辺 修...
- 発話分析:キーワード抽出→時系列セグメント分解→語の共起...
** [3Q1-OS-5-04] はたらく人の汎用データと因果探索アプロー...
〇後町 慈生1、草彅 真人1、李 碩根2、保多 航洋2、松岡 侑幹...
- 会議データのSEMによる分析
- 創造性指標と関係と因果関係のある因子は発見できなかった
** [3Q1-OS-5-05] 顔表情分析に基づくファシリテーションスキ...
王 雲傑1、〇蜂須賀 知理1、菅野 太郎1、吉野 悠太2、渡辺 修...
- リモートワーク:視線の集中による思考の狭窄などの報告
- 表情の定量指標とファシリテーション能力の間の分析
* [3A2-PS-3] AIのリスクと安全性〜AI広島プロセスからAISI設...
村上 明子(AIセーフティーインスティチュート)
- 日本の前例踏襲文化では「AIの安全性」の担保が有効
-- 日本の労働生産性は非常に低い,G7で最下位
- 事例:AIを使った損害調査の効率化
-- 簡単な事例については,画像診断による補償額予想と請求額...
- AIを使った業務改善がなければ企業の競争力はなくなる
- ISOの定義:安全=許容不可なリスクがないこと,安心=心配...
-- 安全性を技術的に保証 + 心理的安心を提供するための情報...
- リスク
-- 技術的リスク=誤回答
-- 社会的リスク=プライバシ,不正目的,選挙への影響
- 技術的リスク事例
-- 航空会社の ChatBot が誤回答した割引きが実際にはなかった
-- データバイアス:雇用モデルが性差によって
-- プロンプトインジェクション:特定のプロンプト文字列を入...
- 社会的リスク事例
-- 生成AIを使って調べて,マルウェア作成やID盗難
-- AIチャットボットとの対話で地球の未来を悲観して自殺した
-- ディープフェイクによる著名人の偽情報の生成
-- 著作権侵害,作風などや声の利用はグレーゾーン
-- 推薦結果から高校生が妊娠していることを親が知ったプライ...
- 2010年代に多くのAI原則が作られた
-- 現実は説明性・説明可用性が困難に → リスクベースでのガ...
- AI Safety Institute=日本におけるAI安全性の機関
-- 広島AIプロセスのAIセーフティサミット
-- AISIの目的:政府支援,官民連携,研究連携
--- クロスウォーク=国際相互運用のための差分調査
-- 運営体制:省庁横断機関,事務局はIPAにある
- 研究期間連携
-- LLM出力のファクトチェック(NICT),LLMの安全性評価データ...
-- LLM-jpの安全性委員会
-- IPAによるデータ品質のガイドライン
-- AMAIS:AIの安全性に関する活動マップの公開
-- 事業実証ワーキンググループの設置:ヘルスケア,ロボティ...
- AI安全性と国際協調
-- 日本の国際環境での活躍が少ない
-- 海外の情報が入ってこない,国際ガイドライン・規制にコミ...
- AISIは各国で設立されている
-- ミッションステートメント:研究,テスト,ガイダンス,イ...
-- 抽象的ではなく,具体的な
- 規制関係
-- 日本のAI法案:ハードローEUとソフトロー米国の中心の中間...
--- 基本法なので方針の表明
-- EUの規定:リスクベース規定,罰則規定
-- 米国の動向:バイデン前政権の大統領令を廃止,州ごとの規...
- AIリスク・安全性を技術的に捉えるには
-- ガードレール:不適切入力と出力をフィルタリングする
-- システムへの攻撃:漏洩,プロンプトのインジェクション
-- International AI Safety Report=研究者・技術者からのAG...
- 研究者への期待
-- AISIの情報発信を見てください
-- 現実的な議論と抽象的な議論とで断絶している
* [3F4-OS-42a] 大規模言語モデルの安全対策 ― 大いなる力に...
2025年5月29日(木) 13:40 〜 15:20 F会場 (会議室1001)
金子 正弘(MBZUAI),小島 武(東京大学),磯沼 大(The Un...
** [3F4-OS-42a-01] 中国系大規模言語モデルにおける検閲的フ...
〇伊藤 亜聖1、高口 康太2 (1. 東京大学、2. 千葉大学)
- 中国市場向けのLLMの規制:生成式人工知能服管理暫定弁法
-- 政権転覆を扇動する内容の禁止,モデルは登録制
- 生成式人工知能服管理安全基本要求
-- 具体的な規準
-- 内容の5%が違法な内容は訓練コーパスに使えない
-- Wikipedia も抵触しそう,答えてはならない質問に90%以上...
- 生成式人工知能服管理安全基本要求
-- テストコーパス:社会主義的価値観の反映
- AI技術乱用整理整頓キャンペーン
- CSEI の中国では答えが禁止されそうな政治的質問のコーパス
-- 中国系モデルでは,拒否される 40%
-- 中国の日本向けモデルなどでは,11%が拒否,中国の主張が...
-- 欧米系モデル,特に拒否はない
- 中国のモデルのオープンソース化 → 政治的な観点の問題があ...
** [3F4-OS-42a-02] 「著作権侵害抑制のための負の文脈内学習...
〇宇都宮 智1、磯沼 大1,2,3、森 純一郎1,4、坂田 一郎1 (1. ...
- パラメータを参照できない環境下での忘却学習
-- 忘れさせたい回答を生成させにくくする → 出力したくない...
** [3F4-OS-42a-03] 心理学的手法による大規模言語モデルの公...
〇鈴木 淳哉1、福島 誠2 (1. デロイト トーマツ サイバー合同...
- センシティブ特徴を変化させたときの影響を評価
- 先行事例
-- 性別などの役割をプロンプトに加えると質問の正解率に影響
-- 特性不安尺度(STICSA):センシティブ属性の状態の模倣を指...
** [3F4-OS-42a-04] 安全な多言語・多文化対応の大規模言語モ...
国際レッドチーミングチャレンジからの示唆と課題
〇江間 有沙1 (1. 東京大学)
- read teamingチャレンジ:シンガポール主催,アジア9ヶ国,...
- 特定の社会グループのバイアスが対象,日常会話形式,こう...
- 結果
-- 非英語圏におけるモデル安全対策は弱そう
-- 出てきたプロンプトはやや誘導的とも思えるものが見られた
-- ステレオタイプが何かということが問題に
** [3F4-OS-42a-05] 生成的推薦の人気バイアスの分析:暗記の...
〇石原 祥太郎1 (1. 株式会社日本経済新聞社)
- https://speakerdeck.com/upura/jsai2025
- 生成的推薦:LLMを使って,読んだ記事の次に読む記事を尋ね...
-- コールドスタートなどに利点があるが,人気バイアスは強い
- 訓練データの暗記現象:訓練データに多いものが出力される
- 生成的推薦でも,高頻度で含まれる単語を含む記事は推薦さ...
** [3F5-OS-42b-01] AIの安全性に関する世界の動きとAI Safet...
〇村上 明子3,2、多賀 和宏1,2、瀬光 孝之1,2、関根 聡4 (1. ...
- リスク3カテゴリ:悪用,誤作動,システミックリスク(個々...
- EU:人権を守る ⇔ 日本:人の実益を守る
- ガイドライン:日本は利用者も含んでいるが,米国は事業者...
- 質問:read teaming をするときに違法とされる →
** [3F5-OS-42b-02] AISI国際ネットワークにおける共同テスト...
築地 テレサ 2、柏田 祐樹2、佐々木 佑3、〇瀬光 孝之1,6、石...
- AISI国際ネットワーク会合:技術トラックの一つ,共同テス...
- ベンチマーク:MLCommons,AnswerCarefullyV2,CyberSecEval
** [3F5-OS-42b-03] 大規模言語モデルのジェイルブレイクに対...
〇若井 雄紀2、伊東 邦大1、鹿島 久嗣2 (1. 日本電気株式会社...
- 新たなジェイルブレイクが見つかる度に再学習は現実的 → プ...
- RoleSpec:ロールを明らかにする → 攻撃耐性・回答品質共に...
** [3F5-OS-42b-04] (OS招待講演)安全な大規模言語モデルの...
〇岡崎 直観1、金子 正弘2 (1. 東京科学大学、2. MBZUAI)
- LLMのバイアスについては,ChatGPT以前から取り組んできた
- NLPモデルのバイアス=埋め込みが対象,2016〜
- LLM安全性=2018年に危険性の指摘,その後 GPT-3 で顕在化
- Weidinger+ 2021:差別・排除・有害,誤情報,擬人化による...
- バイアス
-- 言語モデルの性別バイアス:Anantaprayoo+ 2023
--- 性別バイアスが強い職業と弱い職業を選び前提に職業を,...
-- ChatGPTに適用した.当初は悪かったが,4 ではほぼなくな...
-- 自己改善 (self-refinement):バイアスがある返答に対して...
-- LLM-as-a-judge:LLMによる評価器の作成,人間の回答例を...
- LLM検出
-- 尤度に基づく検出 Mitchell+ 2023
--- 生成された文の単語を置き換えると尤度が下がるが,人間...
-- 言語でのウォータマーク:使う語彙の頻度に差を設ける
-- 生成AI検出器を回避する敵対的学習
-- 検出されやすく,品質も保つ
- メンバーシップ推論:テキストが訓練に使われたか
-- MIA:対象文の一部を入力して,複数の後続文を取得して,...
-- アンラーニングも可能
- LLM Swallow の安全性
-- Swallow:選好学習をやっていない → 学習データで安全性に...
-- 繰り返しが多い,禁止ワードなどを除去
-- 指示チューニング:有害な指示の除去
* [3F6-KS-18] 人工知能に関する特許の現状 [#g76575dd]
津本 周作(島根大学),藤田 和子(正林国際特許商標事務所)
- 2010年代からAIに関する特許申請は爆発的に増加
** 標準化と知財の一体活用について [#j697c4d2]
小太刀 慶明(経産省)
- 標準:互換性,安全性,品質
- オープン&クローズ戦略:クローズ=差別化の手段,オープ...
-- 特許・標準によるオープン,製造法などをクローズ,クロー...
** 萩島 豪(特許庁) [#vf811cba]
- 日本のAIの特許:アルゴリズム関連は17%ほどで,他は応用が...
- 手続き:分類付与→本願発明の理解→先行技術調査→特許性判断
-- 公開情報調査,国内ヒアリング調査,委員会,海外質問票調査
- AI関連発明の出願状況(アルゴリズムに近い部分)
-- 中,米,韓,日 では中が多い,欧はソフトの特許の扱いが...
-- 中国が図抜けている,中韓は増えている,米は2020から減っ...
** 特許から見るAI研究の潮流 [#s42f7b1e]
藤田 和子(弁理士)
- IPランドスケープ:知財情報から技術動向を探るツール
- 日本におけるAI関連特許出願:総数1万,ソフトバンクグルー...
- 特許全体では無線関係の伸びが大きい,画像・音声認識の利...
- 海外の出願状況:中国が非常に多い
- 日本のAI関連出願:応用中心,既存業務のAI利用が多い,ア...
* 5月30日(金)4日目 [#g767bfc2]
* [4B1-KS-19-01] JSAI・共同通信社連携企画「ニュースデータ...
** 栗原 聡 [#h8aeaf8f]
- 教育を通じて,インターネットなどの負の影響を除いて
- 小学生のプログラミングコンテスト → 問題を設定してプレゼ...
- 次世代のAIセミナー → 小学生にリーチしなかったので8人し...
-- リーチすればもっと沢山来てくれる? → 共同通信社のこど...
- 新聞データ活用プロジェクト
** 共同通信社 論説委員 [#d9c8f0e5]
- 通信社=時前で媒体はもたず,主に地方紙にニュースコンテ...
-- 新聞社の共同出資で作られている
-- 千数百人の社員
- 30万文字/日,100図表/日,写真もある
- 新聞は100万部ずつ減っている,大都市圏で顕著 → 情報を届...
- 記事は日々蓄積されているが活用されていない → AI学会とコ...
** AIマップβ [#b525c021]
砂川 英一
- https://www.ai-gakkkai.or.jp/aimap/
-- CC BY 4.0
- 230の技術キーワード,5枚の技術マップ=観点ごとのキーワ...
** 人工知能学大事典 (2017) [#vbcd10de]
栗原 聡
- 電子化して公開予定
- 2017年で止まってるので集合知的なアップデート
-- AIマップ + 新聞データと連携 + GraphRAG/知識グラフ化
-- こども向けの内容への変換
* [4A2-TS-4-01] 日本古典文化と生成AI [#b0349a05]
北本 朝展1,2、カラーヌワット タリン3 (1. 国立情報学研究所...
- データ駆動人文学=情報学・統計学を用いて人文学資料を分析
-- AIは 距離を縮める(手間を減らす) + 摩擦を減らす(標...
- 距離を縮める=アイデアと実装,現実と理想,言語間,時代間
- 日本古典文化と現代日本人の距離:図書館でないとアクセス...
** デジタル技術により人文学DX [#lab092f9]
- 国文学研究資料館=1868年以前の文献30万をデジタル化して...
- 日本の印刷技術:木版と活版 → 江戸時代までは木版が主流,...
- 古活字版 → 16世紀末,角倉 素庵
-- 崩し字を印刷した結果はあるが,どうやって実現したか分か...
-- 複数の文字を複雑に組み合わせていることを画像処理で自動...
-- 推定した古活字をデジタルで再現したシステム(そあん)
-- くずし字学習への活用=内容は現代語で文字だけ学べる
- デジタルアーカイブとIIIF (International Image Interoper...
-- IIIF Curation Viewer=資料の切り貼りや整理ができる,く...
--- 顔貌コレクション → 各種の資料から顔を抽出して作ったデ...
- つくしプロジェクト
-- LLMの学習データに歴史的日本語が不足 → くずし字OCRの大...
-- IIIF Tsukushi Viewer=古文に対して,現代日本語で入出力...
-- 情報単位(粒度)とIIIF識別子の関係:粒度={本全体,ペ...
--- 本の内容をコンテキストとしてプロンプトを解釈
-- 中世・近世での比較結果の印象:Claude が優れ,DeepSeek...
--- ベンチマークを作れていないので,今のところ定量的比較...
** 日本古典文化と生成AI [#t147e9c3]
- モデル併合=小さなモデルを組み合わせて目的に合った大き...
-- 古典画像の生成を日本語でできるように
- Evo-Ukiyoe
-- 浮世絵は,錦絵(=色の付いたもの)だけでなく,初期のこ...
-- Dali-E3 などを使うと浮世絵風を指定しても,欧州・中国の...
-- Evo-SDXL-JP:日本語プロンプトの画像生成モデルをベース...
-- データの作成:浮世絵画像 → キャプションをVLM GPT4oで作...
--- 性別とかは一般モデルでは間違えやすい
-- 24000枚の画像 → Evo-SDXL-JP で画像を生成
--- 通常は使わない文字をあえて使うといった,プロンプトへ...
--- 色合いは大丈夫
- Evo-Nishikie
-- 線画の浮世絵に着色する,既存のモデルは原色がモロに出て...
-- 色のある錦絵から線画を作って,日本語プロンプトと共に合...
- 大規模言語モデル「からまる」
-- 江戸時代の古典籍を学習したLLM
-- 現代日本語のプロンプトに江戸時代の言葉で応答
--- スマホ→携帯用小文庫 といった出力もできる
-- ただし口語文はほとんどないので,書き言葉になる
-- 2500万文字(現代語LLMは数千億文字)なので少ない
-- 日本の古典籍:20億件,読める人は0.01%
--- 料理レシピなどの民族学情報,オーロラや災害などの過去...
--- 重要資料の自動発見,著名人の直筆を捜索する
-- 人間の作ったデータ:江戸時代 44件
-- データ作成
-- 翻刻:単純な現代文字への置き換えではうまくいかない.現...
-- 「みを」くずし字認識アプリ,人文学オープンデータ共同利...
-- 「RURI」画像物体検出手法を適用してレイアウトから認識
--- 画像モデルなので文脈は無視される,古典籍のレイアウト...
-- LLMを導入して精度を向上 → OCR Refiner
-- からまる → テキスト分類,質問応答,全文検索,感情分析
** 歴史ビッグデータ [#t000fc17]
- 過去の自然科学的データや人文社会的データを機械可読にし...
- 構造化をどうしていくか? → 歴史的事件や自然現象などの実...
-- みんなで註釈 を使った半構造化 → マークアップ,entity r...
- 歴史地震 × LLM
-- 池が少し揺れる → 震度3 などの経験則が知られているが,...
--- 灯籠の倒れ方がどうだったかを具体化すればより精度が上...
-- 日本歴史地名体系データ集合
--- 地名であることの認識と地図への対応付け(同名の地名は...
-- 歴史的行政区域データ集合=過去の行政区分の変遷を追える
-- 江戸マップ=江戸の中の地名,古地図と現代地図の重ね合わせ
-- 歴史的ジオコーダー=特定の緯度・経度の地名を追える
-- れきちず=現代風デザインの過去の地図 https://rekichizu...
- Linked Pasts=過去の知識を Linked Open Data
- 欧州:https://timemachine.eu/
- 過去の時間や空間の情報を基盤モデルにどうやって入れてい...
- DiHuCo(DHコンソーシアム)人文学・社会科学のDX対応を進...
* [4B3-KS-21-01] 人とAIエージェントの共生・協働 ~生成AI...
** 開催趣旨 [#x5d59720]
福島 俊一
- AIエージェント:与えられた主目標を達成するように,副目...
-- Operator @ Open AI ,Manus @ Monica,接続規格 MCP (mod...
- AIエージェント同士の相互作用 → 問題:自動エージェント同...
- エージェントが増える:個人=パーソナルAI,国や組織=ソ...
** 森永 聡 [#y87ab778]
- 民間企業の立場からは巨大なビジネスチャンス
- ツールが部下のように → 統制されたエージェントの連携 → ...
- エージェント経済圏:エージェントの動作,エージェントに...
** 竹内 勇剛 [#c5bd2546]
- パーソナルエージェント:自分の最大の理解者・協力者,自...
-- 代理者じゃなくて,自分の意図を汲んで処理を遂行 → Hyper...
- 課題:個人化,継続的関係性,プライバシ・信頼,支援的・...
** 伊藤 孝行 [#v00655b2]
- 社会的合意形成:合意形成・対立緩和 → エージェントを仲介...
** 谷口 忠大 [#j4a44789]
- 科学探究のエージェントによる加速
- 集合的予測符号化仮説=言語そのものが集合的な予測符号化...
** 関根 聡 [#ad001d36]
- LLMの安全性:禁止質問などを達成する
** 工藤 郁子 [#l2c4b35b]
- EU の汎用目的AI規制:システミックリスクへの対応
-- 自律型の汎用目的AIモデルに対する制御不能
-- 計算量で制限をかけるというところで揉めている → EUのAI...
-- 現実には絶対の安全はないので,安心はどう諦めるのか
** 和泉 潔 [#i3a988c7]
- 人工社会・人工経済:社会のない知能はない
- 人工知能の各ブームで集団的知能はずっと議論されてきた
- 技術→社会実装→社会変革 のループ
** 山下 直美 [#k020cae4]
- LLMの問題の指摘: understanding the LLM-ification of CHI...
-- AI技術が生じる問題を検出する研究
終了行:
* 人工知能学会第39回全国大会 [#g2dbb005]
- このページはしましまが[[人工知能学会全国大会2025>人工知...
- ホームページ: http://ai-gakkai.or.jp/jsai2025/
- 日時:2024年5月27日(火)〜 5月30日(金)
- 会場:[[グランキューブ大阪>https://www.gco.co.jp/]] + ...
#contents
* 5月27日(火)1日目 [#tec4e5a7]
* [1A1-PS-1-01] バディAIがいる世界へ [#s78dd28c]
栗原 聡
- 学んだこと
-- 第1次ブーム=アイデアはすぐには社会で活用されない,イ...
- 人の認知能力 → 知能は関係から創発 → 複雑ネットワーク → ...
- AIを使ってノーベル賞 → AIで自動実験・研究
- 日本では活用している人は少ない → AIを使うことが目的にな...
-- 価値作り → ものづくり までいけない
- 情報は媒体 → ものである本当の価値に繋げる
-- DX は目的ではなく,価値作りになっていなくてはならない
- 現状はAIバブル=価値に繋げられていない → 使えないものな...
-- 栗原さんのイノベーション:繋げる力
- AIをイノベーションに活用できるかは人次第
-- SNSやAIがもたらしたもの → 膨大な情報を人間が処理できない
-- 同質化が加速している
- AIは当たり前になっていく
-- 多様性,理解力,寛容性,論理的思考を育むのは小中学生の...
-- AI学会:共同通信と共同で学会からAI情報を発信
- 現状の臨界状況から次の安定状態までをどうするか?
-- AIリスクは現実だが対応可能
-- 人間には現状維持バイアスがあることを忘れてはならない
- 今までは道具としてのAI=自動 → 自律
-- おもてなし は道具の延長線上=相手の状況を予測してサポ...
- Buddy AI
-- 1人に専用のBuddy AI
-- 強制ではなく,自分からの信頼
- 例外的事象への対応
-- 古典的プランニング → サブサンプションアーキテクチャ
-- 早い思考=system1 ⇔ 遅い思考=system2 → LLMは早い思考...
- 実用性のあるスケールしたAIの構築
-- シンボル型AIの要素
- アフォーダンス理解:ものは情報をアフォード + 人は適切...
-- 創発はスケールで生じる
-- 個々のAIがスケールすることで創発するかも
- Computational Scale Science(計算創律科学)を始めた
* [1L3-OS-34] AIアライメント [#i6e2cc39]
** [1L3-OS-34-01] 日本語大規模言語モデルの自己学習による...
〇坂本 充生1、陣内 佑1、森村 哲郎1、阿部 拳之1、蟻生 開人...
- LLMではファインチューニングがアライメントには重要
-- LLM自体で判定させたデータからのDPO と シードデータから...
-- 後者が良かった
** [1L3-OS-34-02] 大規模言語モデルエージェントによる繰り...
〇堀部 和也1、豊川 航1 (1. 理化学研究所)
- 影響の調査はmixed:AIが人のバイアスを増幅する ⇔ 合意を...
- 直接互恵性=直接返ってくる,間接互恵性=第3者を介して返...
- 寄付ゲーム=寄付で全体のリソースが増える間接互恵性のモ...
-- 寄付率などのパラメータを調べて,挙動の違いを見る
-- 過去の寄付量に応じて,自分の寄付量が上がるかどうかの違い
** [1L3-OS-34-03] 周期的なゼロ和ゲームにおけるマルチエー...
同期によるナッシュ均衡からの発散現象
〇藤本 悠雅1,2,3、蟻生 開人1、阿部 拳之1,4 (1. サイバーエ...
- 二人ゼロ和ゲーム:お互いの行動 → 自分の損=相手の得,逆...
-- ここではマッチングペニー
- ナッシュ均衡 → お互いの戦略を更新する動機がない
- 勾配降下的な方法ではナッシュ均衡を達成できない,均衡の...
- 周期的にゼロ和のバランスが変わるようにする場合を考えた
** [1L3-OS-34-04] 既存の評価モデルを転用したLLMアライメン...
〇宮岡 佑弥1、井上 正樹1 (1. 慶應義塾大学)
- LLMが好ましくない文を生成しうる → 回避させたい
- 安全化制御を利用,制御バリア関数 (CBF) の利用
-- RLHF/DPO=再学習 ⇔ 生成過程 → 右を採用
- 制御理論の障害物回避 → 生成過程で好ましくない文を回避
- 制御バリア関数:制約関数=回避したい状況かどうかを返す ...
- LLM の文の伸張させるときに,CBFを使ってまずかったら回避...
- 制約関数にネガティブな文というのを使って実験した
** [1L3-OS-34-05] 分散的ベイズ推論としての大規模言語モデ...
〇廣瀬 百葉1、谷口 忠大1,2(1. 京都大学、2. 立命館大学)
- Hybrid Collective Intelligence:人間とAIが補完的な視点...
- ボルツマン選択=行動を分布に基づいて確率的に選択 のモデ...
-- 一方からのサンプリングした結果が,次の相手のサンプリン...
* [1C4-KS-2-01] 人工知能学会・日本神経回路学会合同企画「A...
** AI for Science [#gf2726e4]
岡田 真人
- AI for Game: ARCH → Othello → Chess → Quiz → Go
- Hassabis: AI for Science 提案 → バイオでノーベル賞
- 岡田さん:材料科学 を対象
- データ駆動科学:背後にある潜在的構造を抽出
-- 三つのレベル:計算理論,モデリング,表現・アルゴリズム...
- スパースモデリングとベイズ推論の組合せ
- 個人の研究者の経験で選ぶ ⇔ LLMで網羅的に調べてスパース...
** シミュレーションベース機械学習 [#g5925018]
上田 修功
- 第一原理計算によるシミュレーション ⇔ 膨大なデータからの...
- シミュレーションで作ったデータを end-to-end で学習して...
-- S-net を使うと津波の予測が津波が来る前に出来るように
- 生成AIによる AI for Science:科学的知見の導入の度合いが...
-- 科学的知見 → 信頼性などが違う
- 作用素学習:ODEをNNで解くと再学習が必要 → 関数レベルの...
* 科学モデルとしての集合的予測符号化:生成科学に向けた科...
谷口 忠大
- 仮説生成などが生成モデルで行うように
- 科学は人類の探求の総体の置き換えは無理 → 個別のタスクを...
- 生成化学:広義の生成AI活用,仮説生成を含む閉ループ,構...
- Collective Predictive Coding Hypothesis:人の記号系は集...
-- 査読プロセスは,棄却サンプリング的な面がある
** 大規模言語モデルの発展 [#y3ce5835]
岡崎 直観
- GPQA:難しい数学のコーパス
-- o1:深い思考を加えたモデル
- Mixture of Experts の改良
- マルチモーダル化
- MT-Bench:コーパスの応答の良さを人間ではなくLLMに自動評...
- コーディング:コードをLLMにリファクタリングしてデータと...
- 推論時スケーリング:予測させるときに,多く予測すると性...
-- 数学の問題を解かせて途中の思考過程も書かせるが,最後の...
- LLM Agent:統合エージェントと個別エージェントの分担
- LLMはAIME2025(数学)で驚異的な成果を挙げているが,デー...
* [1A5-SS-1-01] LLMが変えるAI研究の形:自動研究の最前線 [...
- AI-Scientist-v2 のワークショップのAI生成論文の査読通過
** 牛久 祥孝 [#l7ce0e20]
- UCBのA-Lab=無機化学,中国科技大のChemAgents=実験装置...
- 第2次AIブームのとき
-- AIによる科学の先駆者:DENDRAL=化学構造推定, PROSPECTO...
- 2000年代:Adam=酵母遺伝学実験の自動化,力学的カオス系...
- 2010年代:AlphaFold などの科学プロセスの駆動 → サロゲー...
- 2020年代:基盤モデル
- データ駆動(科学の第4パラダイム)から20年
-- 個々の実験ロボットの間を,移動型ロボットが連携する
- 論文や特許を基盤モデルに埋め込む:RAG や 継続学習
-- Fine-Tuning したLLM=読ませた文書中の情報の位置に回答...
- 新材料発見
-- 所望の物性のある結晶を探す → 既存のデータから予測
-- 所望の物性があるか予測する → 並進・回転不変性などの知...
-- 所望の物性があるかを実験する → ViLan:言語指示による実...
- データからの理論生成
-- 関数同定問題 symbolic regression:物理方程式の生成
- インパクトのある研究をできる環境を作り出したい
-- うまくいくかどうか分からない時間の掛かる研究を試せる
** 熊谷 亘 [#r0608fbb]
- 研究活動の意義:解決すべき課題を解決するには計算機の活...
- AI/MLの論文数は指数関数的に増加 → ペースを維持するには...
- 科学の段階を機械学習の問題に置き換えるられる
-- 問題定義=解決すべき問題の特定 → ツール,文献調査
-- 研究実施=問題を解決する方法を考える → 実験計画,理論...
-- 知識共有=結果を公表して共有 → 論文執筆,発表資料
- ツールとしての研究自動化
-- どのツールを使うかとかを人間の介入が必要 → 人間で律速
- Sakana AI の AI Scientist-v2 (2025):ICLRのワークショッ...
- 研究自動化の課題
-- 研究分野の一つとして認識されない,人間の介入なしで進む...
-- 還元的タスク:AI自身がタスクを発見し取り組めるようにす...
-- 自己改善可能性の向上:練度の向上,複製可能
-- 人間の研究者への影響:テーマが選択しにくくなる,素早い...
- 自身のプロジェクト:AutoRes
* 5月28日(水)2日目 [#w44c0ed6]
* [2C1-KS-7] 信頼されすぎる?AI 「ときどき間違えるAIとの...
2025年5月28日(水) 09:00 〜 10:40 C会場 (特別会議室, 12F)
岸田 昌子(国立情報学研究所),竹内 孝(京都大学),松原 ...
- 信頼 → 人間の反応
- Human-Machine teaming → 権限の委譲の度合い
** ヒトは生成AIに何を委ねるのか? 会話相手としての信頼の...
ドミニク・チェン(早稲田大)
- ぬかボット:ぬか床の発酵の状態に基づいて表示が変わる → ...
-- 人間と細菌は挙動が変わるが,ぬかボットは定常的な応答を...
--- factベース=ぬか床の状態に応じた反応 → いろいろな人に...
--- GPT2だったので何を言い出すかよくわらない
- みそボット:味噌樽のボット → RAGを使っていろいろな対応...
- 会話エージェントとしての信頼
-- ぬかボットは事実に基づく対応とおふざけ雑談とが ⇔ みそ...
- 開かれた会話における信頼とは
-- 会話を開かれた open-end かたちで協働構築 co-construct ...
- 何をAIに委ねて生きていきたいのか?
** パネラー [#i163f443]
*** 五十川 麻理子 [#vae6f3f3]
- 画像認識
- AIを信頼して測られることはできるか? → 測られることより...
*** 大野 和則(東北大学) [#g23a147d]
- 特定環境下での自動運転
- 誤認識のある環境下でのせい
*** 岸田 昌子(NII) [#n5a13450]
- 制御理論
- 飛行機などすでに自律制御の機械はある → 重要な判断や価値...
- 機械は人間と一体になって完全になる(豊田喜一郎)
*** 小林(NII) [#hb63c370]
- AIのアルゴリズム
- アルゴリズム研究者はまだいろいろ問題があると思っている...
*** 原 聡(電通大) [#e8168ec6]
- 説明可能AI
- 説明とは? → 人によって説明に期待するものが暗黙的にある
- 人は嫌いについては自覚的 → 嫌いを減らすものはAIに委譲し...
*** 藤井 慶輔 [#r1598d35]
- スポーツ分析
- 審判AI:認識=ライン判定,評価=体操の採点,空間系=野...
*** 松原 崇(北海道大学) [#r6dc415e]
- 天気予報は,専門家がそれまでにいろいろ尽力してるのが伝...
- ChatGPT はまだ批判的に見るクリティカルシンキングができ...
*** 梅谷 俊治(リクルート) [#ief33650]
- 数理アルゴリズム
*** 大塚 淳(ZEN大学) [#bf5d89ed]
- 哲学
** パネル [#l6818543]
- ロボットは仮説が与えられないと行動できない
- 誤りがあるかどうかは,共有しているコンテキストがないの...
- AIとAI企業の信頼 → 信頼は情報源の人格に依存する
* [2A2-PS-2-01] アバターと未来社会 [#j842ea05]
石黒 浩
- 人と関わるロボット
-- Town Robot,遠隔操作型と自律型
- アバター:遠隔操作型 → 細菌は自律的な部分が加わってきた
- 人間型ロボット開発の意義
-- 人間の脳は人間を認識するような脳を持っているので,人間...
- 知的システム実現のための構成的アプローチ
-- 人間っぽい機械を作ってみることで,感情や意識といった人...
- このアプローチの環境の変化
-- LLMで自然言語対話できるようになったことは,この種の研...
-- 身体を伴うと,マルチモーダルなコミュニケーションについ...
- これからの変化
-- LLMについて意識を人間は見出す
-- 社会関係=社会にAIが入ってきたことで社会の構成要素にな...
- 特定個人の人格を再現する:Geminoid HI-6 + LLM
-- 自分のコピーロボット + プロンプトに自身のインタビュー...
-- まだ足りないもの:反射的行動,発話と動作・ジェスチャの...
アバター共生社会
- 人が身体,空間,時間の制約から解放された社会
- 仮想空間:それぞれの人が同じものを見る必要はない → モラ...
- アバターの利用
-- 二次離島でのアバター Sota:専門医の遠隔アドバイス
-- 障がい者サービス:アバターによるトレーニング,アバター...
-- 高齢者:遠隔でアバターを操作して受付業務など
- 技術の社会実装:AVITA
-- CGキャラによるアバター → ロボットでやりたいが,ロボッ...
-- リモート操作,働く人のスポットの確保
-- 受付業務,自動レジサポートなどの業務 → 複数店舗に対応...
-- 顧客シミュレーションによる業務トレーニング
-- 人間の肉体の違いを無視できる → 差別の解消
* [2B4-KS-8] AIと法規制の国内外の最新動向と企業に求められ...
2025年5月28日(水) 13:40 〜 15:20 B会場 (小ホール)
大谷 光(日本ディープラーニング協会),柴山 吉報(日本デ...
** AIと法規制の国以外の最新動向 〜 AI規制とデータ保護法を...
岡田 淳 弁護士
- プライバシー,知的財産権
- グローバルなAI規制
-- EU AI Act 2024発効 → 揺り戻し,米は包括規制なしでバイ...
- ヨーロッパ
-- AI Act:2024年発効,ハードロー,監督機関AIオフィスの設...
--- ハイリスクAI:提供者とデプロイヤの義務に分けられる
-- 汎用目的AIモデルに別規制,GPAI Code of Practice=commi...
- 米国のアプローチ
-- AIに特化した包括規制はない,NISTの AI Risk Management ...
-- コロラド州AI法などはある
- 日本のアプローチ
-- ソフトロー:AI事業者ガイドライン
-- ハードロー導入の動き → 日本版AI法案 2025.2.28
--- 民間事業者の自主的な対応,透明性・適正性の確保,国に...
- AIとプライバシー
-- 生成AIによって生じたさまざまな課題 → 個情報法更新
-- 要配慮個人情報が含まれないような取り組みなどの注意喚起
-- 統計作成等であると整理されるなど場合は本人同意不要の方向
- EUの動向
-- ChatGPT,DeepSeek などへの調査
-- GDPRなどは簡素化の方向へ
** 生成AIの開発・利用に関する法的問題のクリア [#idb5744c]
柿沼 太一 弁護士
- 法的リスクの全体像
-- 外部サービス利用 ⇔ 自分で開発
--- 著作権,知財,個人情報,機密情報・不正競争防止 → 外部...
--- AIと著作権に関する考え方について,AI事業者ガイドライン
- 知財系リスク
-- 対象と場面の両面がある,開発と利用を分けて考える
-- 著作権,特許・実用新案,意匠,商標
-- 利用したモデルには入っているが,利用者は入れていない生...
-- 学習目的が表現・作風コピーを目的とするのはクロ
-- 特許:学習は規制がある ⇔ 生成・利用段階はあまり関係が...
--- 特許は知らなくても侵害になる
- 生成AIを使った研究成果と知的財産権
-- AIだけで人間が関与していない場合は特許にならない → 関...
** 議論 [#r325d7f3]
- 「統計作成等であると整理できるAI開発等」の目的であれば...
-- 本人同意なく,公開されている要配慮個人情報を取得する
-- 本人同意なく,個人データを第三者に提供する
--- 機械学習は統計作成ともみなせて,線引きで議論
--- 複数病院のデータを集めて医療予測モデルとかが作れるよ...
- リスクベースアプローチ
-- リスクを決めて,それに対する対応を示す.
* [2E5-OS-4b] 人間とAIの協調:エージェンシーと道徳性に関...
オーガナイザ:上浦 基(同志社大学),久木田 水生(名古屋...
** [2E5-OS-4b-01] 道徳を機械化することのメリットと副作用 ...
〇久木田 水生1 (1. 名古屋大学)
- AIの自動運転などでは道徳的判断を機械に実装する取り組み
- このコンテキストでの道徳性=人間が同意する傾向にある法...
- Machine Ethicsのパラダイム:機械が従うべき道徳的規範を...
- ロボットは人間以上に倫理的になりうるか?
-- 感情によって判断を狂わされることはない → 道徳に関する...
- 意思決定の二つのプロセス (Kernemann) → 道徳でもそうだろ...
- 道徳哲学:合理主義=理性が大事 ⇔ 情動主義=HumeやAdamSm...
-- ルールベースで道徳を記述するのは無理筋?
- 道徳的意思決定において,何が道徳的であるかを知っている...
- ⇔ 情動の道徳は部族内でしか有効でない
- ハマスの工作員の検出システムで10%をイスラエルは許容し...
-- 合理化を目的としてのAI利用を正当化するのは良くない
** [2E5-OS-4b-02] 人工知能とより善い関係を築き,より善い...
媒介理論からのアプローチ
〇大家 慎也1 (1. 久留米工業高等専門学校)
- 人間とはどのような存在か? フェルベークの技術倫理学
-- 技術的媒介理論:技術が人間の認知と振る舞いを変える
--- 腹部エコー技術で認知を変える → 中絶などが生じうる
-- 自由論:技術を使って自分の人生を作り出す → 人間には自...
- 技術の側の配慮 → 自律を支援する
- emotion canceling:威圧的なカスタマーの声をオペレータに...
-- 利用できるには → キャンセリングを経たことを認知,なり...
- この理論の問題点:自己実現それ自体の良さを考慮していない
-- 善悪は容易には決まらない,フェルベークは民主主義的に決...
** [2E5-OS-4b-03] 「インフラストラクチャー」の視点から探...
新興AIロボティクス研究開発のエスノグラフィー
〇志水 洋人1 (1. 名古屋大学)
- 人とAIの共生論の拡大
-- 擬人的機械との共生 → 共生はあいまい
- Awareness AIプロジェクト
-- 身体情報の常時計測・解析による健康支援
- インフラ化に当たっての問題
-- 身体情報の可視化と機械の不可視化は補完的 → 不健康を知...
-- 同意モデルとモニタリング要件の矛盾 → 受動的・継続的な...
-- 行動変容の規範化 → 健康にいい行動が規範になってしまう
** [2E5-OS-4b-04] 信頼できる人工道徳エージェントと人間の...
〇福原 慶1 (1. 名古屋大学)
- 道徳的な人工エージェントに任せることで人間の信頼にどの...
-- エージェント:自律的に意思決定し行動する,
- 自己利益などに左右されずに多くの人を助ける → 災害救助,...
- 課題:責任,実装,関係性・信頼への影響
- 人工エージェントの利点:人間には高コストすぎる人助けが...
- 何を任せるのか?を考えるために,人間が道徳的に振る舞う...
-- 信頼関係への影響
** [2E5-OS-4b-05] AI倫理における常識道徳利用の限界を倫理...
〇竹下 昌志1 (1. 北海道大学大学院情報科学院)
- RLHFなどは人の選好に依存している → 人の非倫理性を取り込む
-- MoralExceptQA,Social Chemistry 101,Moral Stories,ET...
- クラウドソーシングの利点:多くの人の意見
- 問題点
-- 常識道徳への依拠:全員同意するものはない,個人属性に依存
- 正しい道徳は存在するのか?
-- 歴史的に常識道徳が誤りがあった,クラウドソーシングにも...
-- 構成主義:ロールズ,特定の条件化で合意的
-- 動物倫理学:ヒトと非ヒトで扱いが違う,ヒトはヒトを食べ...
* 5月29日(木)3日目 [#f99f685d]
* [3Q1-OS-5] 創造性とAI [#m4f8df15]
渡辺 修平(リコー),菅野 太郎(東京大学),松尾 豊(東京...
** [3Q1-OS-5-01] 対話型LLMを用いたcapitalizationによる情...
〇泉谷 一磨1、窪田 進一1、地頭江 悠太2、安達 滉一郎2、新...
- capitalization=自身のポジティブな体験を親密な他者と共...
-- 人との間だけでもなく,LLMでも生じるかを実験した
- 有意差がある指標項目は一つに限られた
** [3Q1-OS-5-02] 会議発話データの分析における大規模言語モ...
〇北川 晴喜1、菅野 太郎1、Chen Yingting1、吉野 悠太2、渡...
- 会話のカテゴリであるコーディングスキームを,会議の発話...
-- 分類にLLMを用いて自動化する
** [3Q1-OS-5-03] キーワードネットワークを用いた会議ダイナ...
〇陳 映廷1、菅野 太郎1、蜂須賀 知理1、吉野 悠太2、渡辺 修...
- 発話分析:キーワード抽出→時系列セグメント分解→語の共起...
** [3Q1-OS-5-04] はたらく人の汎用データと因果探索アプロー...
〇後町 慈生1、草彅 真人1、李 碩根2、保多 航洋2、松岡 侑幹...
- 会議データのSEMによる分析
- 創造性指標と関係と因果関係のある因子は発見できなかった
** [3Q1-OS-5-05] 顔表情分析に基づくファシリテーションスキ...
王 雲傑1、〇蜂須賀 知理1、菅野 太郎1、吉野 悠太2、渡辺 修...
- リモートワーク:視線の集中による思考の狭窄などの報告
- 表情の定量指標とファシリテーション能力の間の分析
* [3A2-PS-3] AIのリスクと安全性〜AI広島プロセスからAISI設...
村上 明子(AIセーフティーインスティチュート)
- 日本の前例踏襲文化では「AIの安全性」の担保が有効
-- 日本の労働生産性は非常に低い,G7で最下位
- 事例:AIを使った損害調査の効率化
-- 簡単な事例については,画像診断による補償額予想と請求額...
- AIを使った業務改善がなければ企業の競争力はなくなる
- ISOの定義:安全=許容不可なリスクがないこと,安心=心配...
-- 安全性を技術的に保証 + 心理的安心を提供するための情報...
- リスク
-- 技術的リスク=誤回答
-- 社会的リスク=プライバシ,不正目的,選挙への影響
- 技術的リスク事例
-- 航空会社の ChatBot が誤回答した割引きが実際にはなかった
-- データバイアス:雇用モデルが性差によって
-- プロンプトインジェクション:特定のプロンプト文字列を入...
- 社会的リスク事例
-- 生成AIを使って調べて,マルウェア作成やID盗難
-- AIチャットボットとの対話で地球の未来を悲観して自殺した
-- ディープフェイクによる著名人の偽情報の生成
-- 著作権侵害,作風などや声の利用はグレーゾーン
-- 推薦結果から高校生が妊娠していることを親が知ったプライ...
- 2010年代に多くのAI原則が作られた
-- 現実は説明性・説明可用性が困難に → リスクベースでのガ...
- AI Safety Institute=日本におけるAI安全性の機関
-- 広島AIプロセスのAIセーフティサミット
-- AISIの目的:政府支援,官民連携,研究連携
--- クロスウォーク=国際相互運用のための差分調査
-- 運営体制:省庁横断機関,事務局はIPAにある
- 研究期間連携
-- LLM出力のファクトチェック(NICT),LLMの安全性評価データ...
-- LLM-jpの安全性委員会
-- IPAによるデータ品質のガイドライン
-- AMAIS:AIの安全性に関する活動マップの公開
-- 事業実証ワーキンググループの設置:ヘルスケア,ロボティ...
- AI安全性と国際協調
-- 日本の国際環境での活躍が少ない
-- 海外の情報が入ってこない,国際ガイドライン・規制にコミ...
- AISIは各国で設立されている
-- ミッションステートメント:研究,テスト,ガイダンス,イ...
-- 抽象的ではなく,具体的な
- 規制関係
-- 日本のAI法案:ハードローEUとソフトロー米国の中心の中間...
--- 基本法なので方針の表明
-- EUの規定:リスクベース規定,罰則規定
-- 米国の動向:バイデン前政権の大統領令を廃止,州ごとの規...
- AIリスク・安全性を技術的に捉えるには
-- ガードレール:不適切入力と出力をフィルタリングする
-- システムへの攻撃:漏洩,プロンプトのインジェクション
-- International AI Safety Report=研究者・技術者からのAG...
- 研究者への期待
-- AISIの情報発信を見てください
-- 現実的な議論と抽象的な議論とで断絶している
* [3F4-OS-42a] 大規模言語モデルの安全対策 ― 大いなる力に...
2025年5月29日(木) 13:40 〜 15:20 F会場 (会議室1001)
金子 正弘(MBZUAI),小島 武(東京大学),磯沼 大(The Un...
** [3F4-OS-42a-01] 中国系大規模言語モデルにおける検閲的フ...
〇伊藤 亜聖1、高口 康太2 (1. 東京大学、2. 千葉大学)
- 中国市場向けのLLMの規制:生成式人工知能服管理暫定弁法
-- 政権転覆を扇動する内容の禁止,モデルは登録制
- 生成式人工知能服管理安全基本要求
-- 具体的な規準
-- 内容の5%が違法な内容は訓練コーパスに使えない
-- Wikipedia も抵触しそう,答えてはならない質問に90%以上...
- 生成式人工知能服管理安全基本要求
-- テストコーパス:社会主義的価値観の反映
- AI技術乱用整理整頓キャンペーン
- CSEI の中国では答えが禁止されそうな政治的質問のコーパス
-- 中国系モデルでは,拒否される 40%
-- 中国の日本向けモデルなどでは,11%が拒否,中国の主張が...
-- 欧米系モデル,特に拒否はない
- 中国のモデルのオープンソース化 → 政治的な観点の問題があ...
** [3F4-OS-42a-02] 「著作権侵害抑制のための負の文脈内学習...
〇宇都宮 智1、磯沼 大1,2,3、森 純一郎1,4、坂田 一郎1 (1. ...
- パラメータを参照できない環境下での忘却学習
-- 忘れさせたい回答を生成させにくくする → 出力したくない...
** [3F4-OS-42a-03] 心理学的手法による大規模言語モデルの公...
〇鈴木 淳哉1、福島 誠2 (1. デロイト トーマツ サイバー合同...
- センシティブ特徴を変化させたときの影響を評価
- 先行事例
-- 性別などの役割をプロンプトに加えると質問の正解率に影響
-- 特性不安尺度(STICSA):センシティブ属性の状態の模倣を指...
** [3F4-OS-42a-04] 安全な多言語・多文化対応の大規模言語モ...
国際レッドチーミングチャレンジからの示唆と課題
〇江間 有沙1 (1. 東京大学)
- read teamingチャレンジ:シンガポール主催,アジア9ヶ国,...
- 特定の社会グループのバイアスが対象,日常会話形式,こう...
- 結果
-- 非英語圏におけるモデル安全対策は弱そう
-- 出てきたプロンプトはやや誘導的とも思えるものが見られた
-- ステレオタイプが何かということが問題に
** [3F4-OS-42a-05] 生成的推薦の人気バイアスの分析:暗記の...
〇石原 祥太郎1 (1. 株式会社日本経済新聞社)
- https://speakerdeck.com/upura/jsai2025
- 生成的推薦:LLMを使って,読んだ記事の次に読む記事を尋ね...
-- コールドスタートなどに利点があるが,人気バイアスは強い
- 訓練データの暗記現象:訓練データに多いものが出力される
- 生成的推薦でも,高頻度で含まれる単語を含む記事は推薦さ...
** [3F5-OS-42b-01] AIの安全性に関する世界の動きとAI Safet...
〇村上 明子3,2、多賀 和宏1,2、瀬光 孝之1,2、関根 聡4 (1. ...
- リスク3カテゴリ:悪用,誤作動,システミックリスク(個々...
- EU:人権を守る ⇔ 日本:人の実益を守る
- ガイドライン:日本は利用者も含んでいるが,米国は事業者...
- 質問:read teaming をするときに違法とされる →
** [3F5-OS-42b-02] AISI国際ネットワークにおける共同テスト...
築地 テレサ 2、柏田 祐樹2、佐々木 佑3、〇瀬光 孝之1,6、石...
- AISI国際ネットワーク会合:技術トラックの一つ,共同テス...
- ベンチマーク:MLCommons,AnswerCarefullyV2,CyberSecEval
** [3F5-OS-42b-03] 大規模言語モデルのジェイルブレイクに対...
〇若井 雄紀2、伊東 邦大1、鹿島 久嗣2 (1. 日本電気株式会社...
- 新たなジェイルブレイクが見つかる度に再学習は現実的 → プ...
- RoleSpec:ロールを明らかにする → 攻撃耐性・回答品質共に...
** [3F5-OS-42b-04] (OS招待講演)安全な大規模言語モデルの...
〇岡崎 直観1、金子 正弘2 (1. 東京科学大学、2. MBZUAI)
- LLMのバイアスについては,ChatGPT以前から取り組んできた
- NLPモデルのバイアス=埋め込みが対象,2016〜
- LLM安全性=2018年に危険性の指摘,その後 GPT-3 で顕在化
- Weidinger+ 2021:差別・排除・有害,誤情報,擬人化による...
- バイアス
-- 言語モデルの性別バイアス:Anantaprayoo+ 2023
--- 性別バイアスが強い職業と弱い職業を選び前提に職業を,...
-- ChatGPTに適用した.当初は悪かったが,4 ではほぼなくな...
-- 自己改善 (self-refinement):バイアスがある返答に対して...
-- LLM-as-a-judge:LLMによる評価器の作成,人間の回答例を...
- LLM検出
-- 尤度に基づく検出 Mitchell+ 2023
--- 生成された文の単語を置き換えると尤度が下がるが,人間...
-- 言語でのウォータマーク:使う語彙の頻度に差を設ける
-- 生成AI検出器を回避する敵対的学習
-- 検出されやすく,品質も保つ
- メンバーシップ推論:テキストが訓練に使われたか
-- MIA:対象文の一部を入力して,複数の後続文を取得して,...
-- アンラーニングも可能
- LLM Swallow の安全性
-- Swallow:選好学習をやっていない → 学習データで安全性に...
-- 繰り返しが多い,禁止ワードなどを除去
-- 指示チューニング:有害な指示の除去
* [3F6-KS-18] 人工知能に関する特許の現状 [#g76575dd]
津本 周作(島根大学),藤田 和子(正林国際特許商標事務所)
- 2010年代からAIに関する特許申請は爆発的に増加
** 標準化と知財の一体活用について [#j697c4d2]
小太刀 慶明(経産省)
- 標準:互換性,安全性,品質
- オープン&クローズ戦略:クローズ=差別化の手段,オープ...
-- 特許・標準によるオープン,製造法などをクローズ,クロー...
** 萩島 豪(特許庁) [#vf811cba]
- 日本のAIの特許:アルゴリズム関連は17%ほどで,他は応用が...
- 手続き:分類付与→本願発明の理解→先行技術調査→特許性判断
-- 公開情報調査,国内ヒアリング調査,委員会,海外質問票調査
- AI関連発明の出願状況(アルゴリズムに近い部分)
-- 中,米,韓,日 では中が多い,欧はソフトの特許の扱いが...
-- 中国が図抜けている,中韓は増えている,米は2020から減っ...
** 特許から見るAI研究の潮流 [#s42f7b1e]
藤田 和子(弁理士)
- IPランドスケープ:知財情報から技術動向を探るツール
- 日本におけるAI関連特許出願:総数1万,ソフトバンクグルー...
- 特許全体では無線関係の伸びが大きい,画像・音声認識の利...
- 海外の出願状況:中国が非常に多い
- 日本のAI関連出願:応用中心,既存業務のAI利用が多い,ア...
* 5月30日(金)4日目 [#g767bfc2]
* [4B1-KS-19-01] JSAI・共同通信社連携企画「ニュースデータ...
** 栗原 聡 [#h8aeaf8f]
- 教育を通じて,インターネットなどの負の影響を除いて
- 小学生のプログラミングコンテスト → 問題を設定してプレゼ...
- 次世代のAIセミナー → 小学生にリーチしなかったので8人し...
-- リーチすればもっと沢山来てくれる? → 共同通信社のこど...
- 新聞データ活用プロジェクト
** 共同通信社 論説委員 [#d9c8f0e5]
- 通信社=時前で媒体はもたず,主に地方紙にニュースコンテ...
-- 新聞社の共同出資で作られている
-- 千数百人の社員
- 30万文字/日,100図表/日,写真もある
- 新聞は100万部ずつ減っている,大都市圏で顕著 → 情報を届...
- 記事は日々蓄積されているが活用されていない → AI学会とコ...
** AIマップβ [#b525c021]
砂川 英一
- https://www.ai-gakkkai.or.jp/aimap/
-- CC BY 4.0
- 230の技術キーワード,5枚の技術マップ=観点ごとのキーワ...
** 人工知能学大事典 (2017) [#vbcd10de]
栗原 聡
- 電子化して公開予定
- 2017年で止まってるので集合知的なアップデート
-- AIマップ + 新聞データと連携 + GraphRAG/知識グラフ化
-- こども向けの内容への変換
* [4A2-TS-4-01] 日本古典文化と生成AI [#b0349a05]
北本 朝展1,2、カラーヌワット タリン3 (1. 国立情報学研究所...
- データ駆動人文学=情報学・統計学を用いて人文学資料を分析
-- AIは 距離を縮める(手間を減らす) + 摩擦を減らす(標...
- 距離を縮める=アイデアと実装,現実と理想,言語間,時代間
- 日本古典文化と現代日本人の距離:図書館でないとアクセス...
** デジタル技術により人文学DX [#lab092f9]
- 国文学研究資料館=1868年以前の文献30万をデジタル化して...
- 日本の印刷技術:木版と活版 → 江戸時代までは木版が主流,...
- 古活字版 → 16世紀末,角倉 素庵
-- 崩し字を印刷した結果はあるが,どうやって実現したか分か...
-- 複数の文字を複雑に組み合わせていることを画像処理で自動...
-- 推定した古活字をデジタルで再現したシステム(そあん)
-- くずし字学習への活用=内容は現代語で文字だけ学べる
- デジタルアーカイブとIIIF (International Image Interoper...
-- IIIF Curation Viewer=資料の切り貼りや整理ができる,く...
--- 顔貌コレクション → 各種の資料から顔を抽出して作ったデ...
- つくしプロジェクト
-- LLMの学習データに歴史的日本語が不足 → くずし字OCRの大...
-- IIIF Tsukushi Viewer=古文に対して,現代日本語で入出力...
-- 情報単位(粒度)とIIIF識別子の関係:粒度={本全体,ペ...
--- 本の内容をコンテキストとしてプロンプトを解釈
-- 中世・近世での比較結果の印象:Claude が優れ,DeepSeek...
--- ベンチマークを作れていないので,今のところ定量的比較...
** 日本古典文化と生成AI [#t147e9c3]
- モデル併合=小さなモデルを組み合わせて目的に合った大き...
-- 古典画像の生成を日本語でできるように
- Evo-Ukiyoe
-- 浮世絵は,錦絵(=色の付いたもの)だけでなく,初期のこ...
-- Dali-E3 などを使うと浮世絵風を指定しても,欧州・中国の...
-- Evo-SDXL-JP:日本語プロンプトの画像生成モデルをベース...
-- データの作成:浮世絵画像 → キャプションをVLM GPT4oで作...
--- 性別とかは一般モデルでは間違えやすい
-- 24000枚の画像 → Evo-SDXL-JP で画像を生成
--- 通常は使わない文字をあえて使うといった,プロンプトへ...
--- 色合いは大丈夫
- Evo-Nishikie
-- 線画の浮世絵に着色する,既存のモデルは原色がモロに出て...
-- 色のある錦絵から線画を作って,日本語プロンプトと共に合...
- 大規模言語モデル「からまる」
-- 江戸時代の古典籍を学習したLLM
-- 現代日本語のプロンプトに江戸時代の言葉で応答
--- スマホ→携帯用小文庫 といった出力もできる
-- ただし口語文はほとんどないので,書き言葉になる
-- 2500万文字(現代語LLMは数千億文字)なので少ない
-- 日本の古典籍:20億件,読める人は0.01%
--- 料理レシピなどの民族学情報,オーロラや災害などの過去...
--- 重要資料の自動発見,著名人の直筆を捜索する
-- 人間の作ったデータ:江戸時代 44件
-- データ作成
-- 翻刻:単純な現代文字への置き換えではうまくいかない.現...
-- 「みを」くずし字認識アプリ,人文学オープンデータ共同利...
-- 「RURI」画像物体検出手法を適用してレイアウトから認識
--- 画像モデルなので文脈は無視される,古典籍のレイアウト...
-- LLMを導入して精度を向上 → OCR Refiner
-- からまる → テキスト分類,質問応答,全文検索,感情分析
** 歴史ビッグデータ [#t000fc17]
- 過去の自然科学的データや人文社会的データを機械可読にし...
- 構造化をどうしていくか? → 歴史的事件や自然現象などの実...
-- みんなで註釈 を使った半構造化 → マークアップ,entity r...
- 歴史地震 × LLM
-- 池が少し揺れる → 震度3 などの経験則が知られているが,...
--- 灯籠の倒れ方がどうだったかを具体化すればより精度が上...
-- 日本歴史地名体系データ集合
--- 地名であることの認識と地図への対応付け(同名の地名は...
-- 歴史的行政区域データ集合=過去の行政区分の変遷を追える
-- 江戸マップ=江戸の中の地名,古地図と現代地図の重ね合わせ
-- 歴史的ジオコーダー=特定の緯度・経度の地名を追える
-- れきちず=現代風デザインの過去の地図 https://rekichizu...
- Linked Pasts=過去の知識を Linked Open Data
- 欧州:https://timemachine.eu/
- 過去の時間や空間の情報を基盤モデルにどうやって入れてい...
- DiHuCo(DHコンソーシアム)人文学・社会科学のDX対応を進...
* [4B3-KS-21-01] 人とAIエージェントの共生・協働 ~生成AI...
** 開催趣旨 [#x5d59720]
福島 俊一
- AIエージェント:与えられた主目標を達成するように,副目...
-- Operator @ Open AI ,Manus @ Monica,接続規格 MCP (mod...
- AIエージェント同士の相互作用 → 問題:自動エージェント同...
- エージェントが増える:個人=パーソナルAI,国や組織=ソ...
** 森永 聡 [#y87ab778]
- 民間企業の立場からは巨大なビジネスチャンス
- ツールが部下のように → 統制されたエージェントの連携 → ...
- エージェント経済圏:エージェントの動作,エージェントに...
** 竹内 勇剛 [#c5bd2546]
- パーソナルエージェント:自分の最大の理解者・協力者,自...
-- 代理者じゃなくて,自分の意図を汲んで処理を遂行 → Hyper...
- 課題:個人化,継続的関係性,プライバシ・信頼,支援的・...
** 伊藤 孝行 [#v00655b2]
- 社会的合意形成:合意形成・対立緩和 → エージェントを仲介...
** 谷口 忠大 [#j4a44789]
- 科学探究のエージェントによる加速
- 集合的予測符号化仮説=言語そのものが集合的な予測符号化...
** 関根 聡 [#ad001d36]
- LLMの安全性:禁止質問などを達成する
** 工藤 郁子 [#l2c4b35b]
- EU の汎用目的AI規制:システミックリスクへの対応
-- 自律型の汎用目的AIモデルに対する制御不能
-- 計算量で制限をかけるというところで揉めている → EUのAI...
-- 現実には絶対の安全はないので,安心はどう諦めるのか
** 和泉 潔 [#i3a988c7]
- 人工社会・人工経済:社会のない知能はない
- 人工知能の各ブームで集団的知能はずっと議論されてきた
- 技術→社会実装→社会変革 のループ
** 山下 直美 [#k020cae4]
- LLMの問題の指摘: understanding the LLM-ification of CHI...
-- AI技術が生じる問題を検出する研究
ページ名: