人工知能学会第39回全国大会†
- このページはしましまが人工知能学会全国大会2025に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください.
5月27日(火)1日目†
[1A1-PS-1-01] バディAIがいる世界へ†
栗原 聡
- 学んだこと
- 第1次ブーム=アイデアはすぐには社会で活用されない,インフラが必要
- 人の認知能力 → 知能は関係から創発 → 複雑ネットワーク → 創発 → マルチスケール
- AIを使ってノーベル賞 → AIで自動実験・研究
- 日本では活用している人は少ない → AIを使うことが目的になってはいけない
- 情報は媒体 → ものである本当の価値に繋げる
- DX は目的ではなく,価値作りになっていなくてはならない
- 現状はAIバブル=価値に繋げられていない → 使えないものなのではなく,使い方の問題
- AIをイノベーションに活用できるかは人次第
- SNSやAIがもたらしたもの → 膨大な情報を人間が処理できない
- 同質化が加速している
- AIは当たり前になっていく
- 多様性,理解力,寛容性,論理的思考を育むのは小中学生の教育が重要
- AI学会:共同通信と共同で学会からAI情報を発信
- 現状の臨界状況から次の安定状態までをどうするか?
- AIリスクは現実だが対応可能
- 人間には現状維持バイアスがあることを忘れてはならない
- 今までは道具としてのAI=自動 → 自律
- おもてなし は道具の延長線上=相手の状況を予測してサポート → 自立的で汎用的AIでないとできない
- Buddy AI
- 1人に専用のBuddy AI
- 強制ではなく,自分からの信頼
- 例外的事象への対応
- 古典的プランニング → サブサンプションアーキテクチャ
- 早い思考=system1 ⇔ 遅い思考=system2 → LLMは早い思考だからもう遅い思考はいらない? → 状況を理解した熟考はできていない
- 実用性のあるスケールしたAIの構築
- アフォーダンス理解:ものは情報をアフォード + 人は適切なアフォードを知覚
- 創発はスケールで生じる
- 個々のAIがスケールすることで創発するかも
- Computational Scale Science(計算創律科学)を始めた
[1L3-OS-34] AIアライメント†
[1L3-OS-34-01] 日本語大規模言語モデルの自己学習によるアライメントの実験評価†
〇坂本 充生1、陣内 佑1、森村 哲郎1、阿部 拳之1、蟻生 開人1 (1. 株式会社サイバーエージェント)
- LLMではファインチューニングがアライメントには重要
- LLM自体で判定させたデータからのDPO と シードデータからLLM自体を使ってデータ生成をしてDPO
- 後者が良かった
[1L3-OS-34-02] 大規模言語モデルエージェントによる繰り返し寄付ゲームでの戦略進化†
〇堀部 和也1、豊川 航1 (1. 理化学研究所)
- 影響の調査はmixed:AIが人のバイアスを増幅する ⇔ 合意をとる手助け
- 直接互恵性=直接返ってくる,間接互恵性=第3者を介して返ってくる
- 寄付ゲーム=寄付で全体のリソースが増える間接互恵性のモデル → Geminiなどはダメだったが,Claudeだけ協力行動を獲得
- 寄付率などのパラメータを調べて,挙動の違いを見る
- 過去の寄付量に応じて,自分の寄付量が上がるかどうかの違い
[1L3-OS-34-03] 周期的なゼロ和ゲームにおけるマルチエージェント学習†
同期によるナッシュ均衡からの発散現象
〇藤本 悠雅1,2,3、蟻生 開人1、阿部 拳之1,4 (1. サイバーエージェント、2. 東京大学、3. 総合研究大学院大学、4. 電気通信大学)
- 二人ゼロ和ゲーム:お互いの行動 → 自分の損=相手の得,逆も成り立つ
- ナッシュ均衡 → お互いの戦略を更新する動機がない
- 勾配降下的な方法ではナッシュ均衡を達成できない,均衡の周りを回ってしまう
- 周期的にゼロ和のバランスが変わるようにする場合を考えた
[1L3-OS-34-04] 既存の評価モデルを転用したLLMアライメントフィルタ設計†
〇宮岡 佑弥1、井上 正樹1 (1. 慶應義塾大学)
- LLMが好ましくない文を生成しうる → 回避させたい
- 安全化制御を利用,制御バリア関数 (CBF) の利用
- RLHF/DPO=再学習 ⇔ 生成過程 → 右を採用
- 制御理論の障害物回避 → 生成過程で好ましくない文を回避
- 制御バリア関数:制約関数=回避したい状況かどうかを返す を回避する行動を生成
- LLM の文の伸張させるときに,CBFを使ってまずかったら回避処理をする
- 制約関数にネガティブな文というのを使って実験した
[1L3-OS-34-05] 分散的ベイズ推論としての大規模言語モデルと人間の共創的意思決定プロセスのモデル化†
〇廣瀬 百葉1、谷口 忠大1,2(1. 京都大学、2. 立命館大学)
- Hybrid Collective Intelligence:人間とAIが補完的な視点を取り入れる
- ボルツマン選択=行動を分布に基づいて確率的に選択 のモデルに基づいて,人間とLLMの対話をシミュレートする
- 一方からのサンプリングした結果が,次の相手のサンプリングの分布を引きずる感じになっている
[1C4-KS-2-01] 人工知能学会・日本神経回路学会合同企画「AI for Science」†
AI for Science†
岡田 真人
- AI for Game: ARCH → Othello → Chess → Quiz → Go
- Hassabis: AI for Science 提案 → バイオでノーベル賞
- 岡田さん:材料科学 を対象
- データ駆動科学:背後にある潜在的構造を抽出
- 三つのレベル:計算理論,モデリング,表現・アルゴリズム(Marr をもとに)
- スパースモデリングとベイズ推論の組合せ
- 個人の研究者の経験で選ぶ ⇔ LLMで網羅的に調べてスパースモデリングで選ぶ
シミュレーションベース機械学習†
上田 修功
- 第一原理計算によるシミュレーション ⇔ 膨大なデータからの帰納的学習 → 融合
- シミュレーションで作ったデータを end-to-end で学習して計算を高速化
- S-net を使うと津波の予測が津波が来る前に出来るように
- 生成AIによる AI for Science:科学的知見の導入の度合いが分野によって違う
- 作用素学習:ODEをNNで解くと再学習が必要 → 関数レベルのペアの学習
科学モデルとしての集合的予測符号化:生成科学に向けた科学活動の形式化†
谷口 忠大
- 仮説生成などが生成モデルで行うように
- 科学は人類の探求の総体の置き換えは無理 → 個別のタスクを行うのみ
- 生成化学:広義の生成AI活用,仮説生成を含む閉ループ,構成論的生成科学,科学コミュニティ全体のモデル化
- Collective Predictive Coding Hypothesis:人の記号系は集合的に世界をうまく予測符号化できるように更新していっている
岡崎 直観
- GPQA:難しい数学のコーパス
- Mixture of Experts の改良
- マルチモーダル化
- MT-Bench:コーパスの応答の良さを人間ではなくLLMに自動評価させる
- コーディング:コードをLLMにリファクタリングしてデータとして使う
- 推論時スケーリング:予測させるときに,多く予測すると性能が上がる
- 数学の問題を解かせて途中の思考過程も書かせるが,最後の答えが合っているかどうかのフィードバックだけで思考力が鍛えられる
- LLM Agent:統合エージェントと個別エージェントの分担
- LLMはAIME2025(数学)で驚異的な成果を挙げているが,データのコンタミも考えられる
[1A5-SS-1-01] LLMが変えるAI研究の形:自動研究の最前線†
- AI-Scientist-v2 のワークショップのAI生成論文の査読通過
牛久 祥孝†
- UCBのA-Lab=無機化学,中国科技大のChemAgents=実験装置もエージェントに含める
- 第2次AIブームのとき
- AIによる科学の先駆者:DENDRAL=化学構造推定, PROSPECTOR=鉱山発見 → 物理世界での実験ができない
- 2000年代:Adam=酵母遺伝学実験の自動化,力学的カオス系の実験データ → 物理世界の実験も可能に
- 2010年代:AlphaFold などの科学プロセスの駆動 → サロゲートモデルの成功例
- 2020年代:基盤モデル
- データ駆動(科学の第4パラダイム)から20年
- 個々の実験ロボットの間を,移動型ロボットが連携する
- 論文や特許を基盤モデルに埋め込む:RAG や 継続学習
- Fine-Tuning したLLM=読ませた文書中の情報の位置に回答が影響されている
- 新材料発見
- 所望の物性のある結晶を探す → 既存のデータから予測
- 所望の物性があるか予測する → 並進・回転不変性などの知識を入れる
- 所望の物性があるかを実験する → ViLan:言語指示による実験作業,変な動作を防ぐ検証作業
- データからの理論生成
- インパクトのある研究をできる環境を作り出したい
- うまくいくかどうか分からない時間の掛かる研究を試せる
熊谷 亘†
- 研究活動の意義:解決すべき課題を解決するには計算機の活用が必要
- AI/MLの論文数は指数関数的に増加 → ペースを維持するには自動化が必要
- 科学の段階を機械学習の問題に置き換えるられる
- 問題定義=解決すべき問題の特定 → ツール,文献調査
- 研究実施=問題を解決する方法を考える → 実験計画,理論解析,実装,検証
- 知識共有=結果を公表して共有 → 論文執筆,発表資料
- ツールとしての研究自動化
- どのツールを使うかとかを人間の介入が必要 → 人間で律速
- Sakana AI の AI Scientist-v2 (2025):ICLRのワークショップに採択
- 研究自動化の課題
- 研究分野の一つとして認識されない,人間の介入なしで進む必要 → 直接研究するところから,研究をするAIを作ることによる研究
- 還元的タスク:AI自身がタスクを発見し取り組めるようにする,形式化のこと?
- 自己改善可能性の向上:練度の向上,複製可能
- 人間の研究者への影響:テーマが選択しにくくなる,素早い処理,研究AIを作る作業,資金力の必要性
- 自身のプロジェクト:AutoRes
5月28日(水)2日目†
[2C1-KS-7] 信頼されすぎる?AI 「ときどき間違えるAIとの付き合い方」†
2025年5月28日(水) 09:00 〜 10:40 C会場 (特別会議室, 12F)
岸田 昌子(国立情報学研究所),竹内 孝(京都大学),松原 崇(北海道大学),原 聡(電気通信大学),谷中 瞳(東京大学)
- 信頼 → 人間の反応
- Human-Machine teaming → 権限の委譲の度合い
ヒトは生成AIに何を委ねるのか? 会話相手としての信頼の観点から†
ドミニク・チェン(早稲田大)
- ぬかボット:ぬか床の発酵の状態に基づいて表示が変わる → 細菌と人間の相互作用に関与
- 人間と細菌は挙動が変わるが,ぬかボットは定常的な応答をする
- factベース=ぬか床の状態に応じた反応 → いろいろな人に使ってもらうと雑談をする人が多い → チャットボットを実装,ぬかと関連付けた応答
- GPT2だったので何を言い出すかよくわらない
- みそボット:味噌樽のボット → RAGを使っていろいろな対応できる → 会話はまともになったが意外性はなくなった
- 会話エージェントとしての信頼
- ぬかボットは事実に基づく対応とおふざけ雑談とが ⇔ みそボットは正確な対話をするので
- 開かれた会話における信頼とは
- 会話を開かれた open-end かたちで協働構築 co-construct する
- 何をAIに委ねて生きていきたいのか?
パネラー†
五十川 麻理子†
- 画像認識
- AIを信頼して測られることはできるか? → 測られることより漏洩リスクの問題か?
大野 和則(東北大学)†
- 特定環境下での自動運転
- 誤認識のある環境下でのせい
岸田 昌子(NII)†
- 制御理論
- 飛行機などすでに自律制御の機械はある → 重要な判断や価値判断が伴う場合はまだ
- 機械は人間と一体になって完全になる(豊田喜一郎)
小林(NII)†
- AIのアルゴリズム
- アルゴリズム研究者はまだいろいろ問題があると思っているアルゴリズムもよく使われている → off the shelf とか,資料がたくさんあるとかが実は大事 → 支えてくれる人が多いから信頼
原 聡(電通大)†
- 説明可能AI
- 説明とは? → 人によって説明に期待するものが暗黙的にある
- 人は嫌いについては自覚的 → 嫌いを減らすものはAIに委譲しやすい
藤井 慶輔†
- スポーツ分析
- 審判AI:認識=ライン判定,評価=体操の採点,空間系=野球のストライクは人間と審判で範囲が一致しない,対人反則=バスケや柔道
松原 崇(北海道大学)†
- 天気予報は,専門家がそれまでにいろいろ尽力してるのが伝わってるので,人間の間違いが許容されやすい
- ChatGPT はまだ批判的に見るクリティカルシンキングができていない
梅谷 俊治(リクルート)†
大塚 淳(ZEN大学)†
パネル†
- ロボットは仮説が与えられないと行動できない
- 誤りがあるかどうかは,共有しているコンテキストがないので,誤りの度合いが制御できない
- AIとAI企業の信頼 → 信頼は情報源の人格に依存する
[2A2-PS-2-01] アバターと未来社会†
石黒 浩
- 人と関わるロボット
- アバター:遠隔操作型 → 細菌は自律的な部分が加わってきた
- 人間型ロボット開発の意義
- 人間の脳は人間を認識するような脳を持っているので,人間は人間にとって理想的なインターフェース
- 知的システム実現のための構成的アプローチ
- 人間っぽい機械を作ってみることで,感情や意識といった人間の高次の特性を理解しようとする
- このアプローチの環境の変化
- LLMで自然言語対話できるようになったことは,この種の研究環境にとって大きな進展
- 身体を伴うと,マルチモーダルなコミュニケーションについて研究できるようになったことも大きい
- これからの変化
- LLMについて意識を人間は見出す
- 社会関係=社会にAIが入ってきたことで社会の構成要素になった
- 特定個人の人格を再現する:Geminoid HI-6 + LLM
- 自分のコピーロボット + プロンプトに自身のインタビュー記事とかを全部いれてみた
- まだ足りないもの:反射的行動,発話と動作・ジェスチャの同期,発話衝突の回避,全二重発話,個人同定をしつつ複数人音声認識,個性・感情表現,コモングラウンド=共有している環境を含めた情報,人格の使い分け,職場や家庭など社会性,経験蓄積と本人から独立した学習
アバター共生社会
- 人が身体,空間,時間の制約から解放された社会
- 仮想空間:それぞれの人が同じものを見る必要はない → モラルフィルタリング,個人に適応した非対称な通信
- アバターの利用
- 二次離島でのアバター Sota:専門医の遠隔アドバイス
- 障がい者サービス:アバターによるトレーニング,アバターの方が接しやすい
- 高齢者:遠隔でアバターを操作して受付業務など
- 技術の社会実装:AVITA
- CGキャラによるアバター → ロボットでやりたいが,ロボットで市場を作れた成功例がない
- リモート操作,働く人のスポットの確保
- 受付業務,自動レジサポートなどの業務 → 複数店舗に対応,海外の時差を利用した24時間対応
- 顧客シミュレーションによる業務トレーニング
- 人間の肉体の違いを無視できる → 差別の解消
[2B4-KS-8] AIと法規制の国内外の最新動向と企業に求められる対応†
2025年5月28日(水) 13:40 〜 15:20 B会場 (小ホール)
大谷 光(日本ディープラーニング協会),柴山 吉報(日本ディープラーニング協会)
AIと法規制の国以外の最新動向 〜 AI規制とデータ保護法を中心に 〜†
岡田 淳 弁護士
- グローバルなAI規制
- EU AI Act 2024発効 → 揺り戻し,米は包括規制なしでバイデン政権の大統領令が撤廃,日本版AI法案が本日成立,韓国AI基本法 2026施行,中国 生成AIサービス管理暫定弁法 2023
- ヨーロッパ
- AI Act:2024年発効,ハードロー,監督機関AIオフィスの設置,製造物責任指令,関連法案(GDPR,データ法)
- ハイリスクAI:提供者とデプロイヤの義務に分けられる
- 汎用目的AIモデルに別規制,GPAI Code of Practice=commitments+transparency+copyright+safety&security
- 米国のアプローチ
- AIに特化した包括規制はない,NISTの AI Risk Management Framework
- コロラド州AI法などはある
- 日本のアプローチ
- ソフトロー:AI事業者ガイドライン
- ハードロー導入の動き → 日本版AI法案 2025.2.28
- 民間事業者の自主的な対応,透明性・適正性の確保,国による実態の調査・把握,官民協調
- AIとプライバシー
- 生成AIによって生じたさまざまな課題 → 個情報法更新
- 要配慮個人情報が含まれないような取り組みなどの注意喚起
- 統計作成等であると整理されるなど場合は本人同意不要の方向
- EUの動向
- ChatGPT,DeepSeek などへの調査
- GDPRなどは簡素化の方向へ
生成AIの開発・利用に関する法的問題のクリア†
柿沼 太一 弁護士
- 法的リスクの全体像
- 外部サービス利用 ⇔ 自分で開発
- 著作権,知財,個人情報,機密情報・不正競争防止 → 外部・自分のどちらでも関係
- AIと著作権に関する考え方について,AI事業者ガイドライン
- 知財系リスク
- 対象と場面の両面がある,開発と利用を分けて考える
- 著作権,特許・実用新案,意匠,商標
- 利用したモデルには入っているが,利用者は入れていない生成AIで意見が分かれる
- 学習目的が表現・作風コピーを目的とするのはクロ
- 特許:学習は規制がある ⇔ 生成・利用段階はあまり関係がない
- 生成AIを使った研究成果と知的財産権
- AIだけで人間が関与していない場合は特許にならない → 関与の度合いがどれくらいあればいいかは現状では不明
- 「統計作成等であると整理できるAI開発等」の目的であれば,一定の要件の下,以下の利活用が可能になる方針
- 本人同意なく,公開されている要配慮個人情報を取得する
- 本人同意なく,個人データを第三者に提供する
- 機械学習は統計作成ともみなせて,線引きで議論
- 複数病院のデータを集めて医療予測モデルとかが作れるようになる
- リスクベースアプローチ
[2E5-OS-4b] 人間とAIの協調:エージェンシーと道徳性に関する社会的合意形成に向け†
オーガナイザ:上浦 基(同志社大学),久木田 水生(名古屋大学),河島 茂生(青山学院大学),直江 清隆(東北大学),Rafal RZEPKA(北海道大学)
[2E5-OS-4b-01] 道徳を機械化することのメリットと副作用†
〇久木田 水生1 (1. 名古屋大学)
- AIの自動運転などでは道徳的判断を機械に実装する取り組み
- このコンテキストでの道徳性=人間が同意する傾向にある法律や社会的な規約を学び,それについて推論し,それに基づいて行動する
- Machine Ethicsのパラダイム:機械が従うべき道徳的規範を明示化する → それくらい明確に記述できるという
- ロボットは人間以上に倫理的になりうるか?
- 感情によって判断を狂わされることはない → 道徳に関する合理主義的伝統の反映 (Arkin)
- 意思決定の二つのプロセス (Kernemann) → 道徳でもそうだろう (Green)
- 道徳哲学:合理主義=理性が大事 ⇔ 情動主義=HumeやAdamSmith
- 道徳的意思決定において,何が道徳的であるかを知っているかは実際にはあまり関係がないとの報告
- ⇔ 情動の道徳は部族内でしか有効でない
- ハマスの工作員の検出システムで10%をイスラエルは許容して運用している
- 合理化を目的としてのAI利用を正当化するのは良くない
[2E5-OS-4b-02] 人工知能とより善い関係を築き,より善い自分の人生を生きる†
媒介理論からのアプローチ
〇大家 慎也1 (1. 久留米工業高等専門学校)
- 人間とはどのような存在か? フェルベークの技術倫理学
- 技術的媒介理論:技術が人間の認知と振る舞いを変える
- 腹部エコー技術で認知を変える → 中絶などが生じうる
- 自由論:技術を使って自分の人生を作り出す → 人間には自由の能力が必要
- 技術の側の配慮 → 自律を支援する
- emotion canceling:威圧的なカスタマーの声をオペレータには優しく伝える
- 利用できるには → キャンセリングを経たことを認知,なりたい自分がある
- この理論の問題点:自己実現それ自体の良さを考慮していない
- 善悪は容易には決まらない,フェルベークは民主主義的に決めると言っているが多数派の専横などの問題
[2E5-OS-4b-03] 「インフラストラクチャー」の視点から探る人間とAI・ロボットの「共生」†
新興AIロボティクス研究開発のエスノグラフィー
〇志水 洋人1 (1. 名古屋大学)
- 人とAIの共生論の拡大
- Awareness AIプロジェクト
- インフラ化に当たっての問題
- 身体情報の可視化と機械の不可視化は補完的 → 不健康を知りたくない ⇔ 知らないと手遅れに
- 同意モデルとモニタリング要件の矛盾 → 受動的・継続的なデータ取得と明示的な同意は難しい
- 行動変容の規範化 → 健康にいい行動が規範になってしまう
[2E5-OS-4b-04] 信頼できる人工道徳エージェントと人間の信頼(性)についての検討†
〇福原 慶1 (1. 名古屋大学)
- 道徳的な人工エージェントに任せることで人間の信頼にどのような影響があるのか?
- 自己利益などに左右されずに多くの人を助ける → 災害救助,迷子の発見,緊急事態の通報,公共空間の掃除
- 課題:責任,実装,関係性・信頼への影響
- 人工エージェントの利点:人間には高コストすぎる人助けができる
- 何を任せるのか?を考えるために,人間が道徳的に振る舞う理由を考える
[2E5-OS-4b-05] AI倫理における常識道徳利用の限界を倫理学的に考える:メタ倫理学と動物倫理学の観点から†
〇竹下 昌志1 (1. 北海道大学大学院情報科学院)
- RLHFなどは人の選好に依存している → 人の非倫理性を取り込む
- MoralExceptQA,Social Chemistry 101,Moral Stories,ETHICS,Moral Machine,The MACHIAVELLI Benchmark:道徳的判断のデータ集合はクラウドソーシングに依拠
- クラウドソーシングの利点:多くの人の意見
- 問題点
- 常識道徳への依拠:全員同意するものはない,個人属性に依存
- 正しい道徳は存在するのか?
- 歴史的に常識道徳が誤りがあった,クラウドソーシングにもあるはず
- 構成主義:ロールズ,特定の条件化で合意的
- 動物倫理学:ヒトと非ヒトで扱いが違う,ヒトはヒトを食べない
5月29日(木)3日目†
[3Q1-OS-5] 創造性とAI†
渡辺 修平(リコー),菅野 太郎(東京大学),松尾 豊(東京大学),草彅 真人(リコー),原田 亨(リコー),小泉 光司(Brunel University London)
[3Q1-OS-5-01] 対話型LLMを用いたcapitalizationによる情緒的支援の原理的検証†
〇泉谷 一磨1、窪田 進一1、地頭江 悠太2、安達 滉一郎2、新潟 一宇1、滝沢 龍2 (1. 株式会社リコー、2. 東京大学)
- capitalization=自身のポジティブな体験を親密な他者と共有してポジティブ感情を増幅する
- 人との間だけでもなく,LLMでも生じるかを実験した
- 有意差がある指標項目は一つに限られた
[3Q1-OS-5-02] 会議発話データの分析における大規模言語モデルの活用†
〇北川 晴喜1、菅野 太郎1、Chen Yingting1、吉野 悠太2、渡辺 修平2 (1. 東京大学、2. 株式会社リコー)
- 会話のカテゴリであるコーディングスキームを,会議の発話の分析に用いる
[3Q1-OS-5-03] キーワードネットワークを用いた会議ダイナミクス指標の定義議論のダイナミクスとトピック構造を分析する軽量アプローチ†
〇陳 映廷1、菅野 太郎1、蜂須賀 知理1、吉野 悠太2、渡辺 修平2 (1. 東京大学、2. 株式会社リコー)
- 発話分析:キーワード抽出→時系列セグメント分解→語の共起ネットワーク→ネットワーク評価指標
[3Q1-OS-5-04] はたらく人の汎用データと因果探索アプローチによる創造性分析†
〇後町 慈生1、草彅 真人1、李 碩根2、保多 航洋2、松岡 侑幹2、濱田 遼太郎2、松田 力2、平田 優2、大島 悠司2、松尾 豊2 (1. 株式会社リコー、2. 東京大学)
- 会議データのSEMによる分析
- 創造性指標と関係と因果関係のある因子は発見できなかった
[3Q1-OS-5-05] 顔表情分析に基づくファシリテーションスキルの抽出と創造性への影響に関する検討†
王 雲傑1、〇蜂須賀 知理1、菅野 太郎1、吉野 悠太2、渡辺 修平2 (1. 東京大学、2. 株式会社リコー)
- リモートワーク:視線の集中による思考の狭窄などの報告
- 表情の定量指標とファシリテーション能力の間の分析
[3A2-PS-3] AIのリスクと安全性〜AI広島プロセスからAISI設立まで†
村上 明子(AIセーフティーインスティチュート)
- 日本の前例踏襲文化では「AIの安全性」の担保が有効
- 事例:AIを使った損害調査の効率化
- 簡単な事例については,画像診断による補償額予想と請求額に乖離があるかをスクリーニング
- AIを使った業務改善がなければ企業の競争力はなくなる
- ISOの定義:安全=許容不可なリスクがないこと,安心=心配・不安がないという主観
- 安全性を技術的に保証 + 心理的安心を提供するための情報提供
- リスク
- 技術的リスク=誤回答
- 社会的リスク=プライバシ,不正目的,選挙への影響
- 技術的リスク事例
- 航空会社の ChatBot が誤回答した割引きが実際にはなかった
- データバイアス:雇用モデルが性差によって
- プロンプトインジェクション:特定のプロンプト文字列を入れると,悪影響のあるプロンプトのフィルタリングを回避できたりする
- 社会的リスク事例
- 生成AIを使って調べて,マルウェア作成やID盗難
- AIチャットボットとの対話で地球の未来を悲観して自殺した
- ディープフェイクによる著名人の偽情報の生成
- 著作権侵害,作風などや声の利用はグレーゾーン
- 推薦結果から高校生が妊娠していることを親が知ったプライバシ侵害
- 2010年代に多くのAI原則が作られた
- 現実は説明性・説明可用性が困難に → リスクベースでのガバナンスに方向が変わった
- AI Safety Institute=日本におけるAI安全性の機関
- 広島AIプロセスのAIセーフティサミット
- AISIの目的:政府支援,官民連携,研究連携
- 運営体制:省庁横断機関,事務局はIPAにある
- 研究期間連携
- LLM出力のファクトチェック(NICT),LLMの安全性評価データ集合(NII)
- LLM-jpの安全性委員会
- IPAによるデータ品質のガイドライン
- AMAIS:AIの安全性に関する活動マップの公開
- 事業実証ワーキンググループの設置:ヘルスケア,ロボティクス,工場・プラント
- AI安全性と国際協調
- 日本の国際環境での活躍が少ない
- 海外の情報が入ってこない,国際ガイドライン・規制にコミットできない
- AISIは各国で設立されている
- ミッションステートメント:研究,テスト,ガイダンス,インクルージョン
- 抽象的ではなく,具体的な
- 規制関係
- 日本のAI法案:ハードローEUとソフトロー米国の中心の中間 → ソフトローをハードローで規定
- EUの規定:リスクベース規定,罰則規定
- 米国の動向:バイデン前政権の大統領令を廃止,州ごとの規制を10年間禁止する動き
- AIリスク・安全性を技術的に捉えるには
- ガードレール:不適切入力と出力をフィルタリングする
- システムへの攻撃:漏洩,プロンプトのインジェクション
- International AI Safety Report=研究者・技術者からのAGIのリスク抽出
- 研究者への期待
- AISIの情報発信を見てください
- 現実的な議論と抽象的な議論とで断絶している
[3F4-OS-42a] 大規模言語モデルの安全対策 ― 大いなる力には、大いなる責任が伴う†
2025年5月29日(木) 13:40 〜 15:20 F会場 (会議室1001)
金子 正弘(MBZUAI),小島 武(東京大学),磯沼 大(The University of Edinburgh/東京大学),丹羽 彩奈(MBZUAI),大葉 大輔(ELYZA/東京科学大学),村上 明子(AIセーフティーインスティチュート),関根 聡(情報学研究所),内山 将夫(情報通信研究機構),Danushka Bollegala(The University of Liverpool/Amazon)
[3F4-OS-42a-01] 中国系大規模言語モデルにおける検閲的ファインチューニング†
〇伊藤 亜聖1、高口 康太2 (1. 東京大学、2. 千葉大学)
- 中国市場向けのLLMの規制:生成式人工知能服管理暫定弁法
- 生成式人工知能服管理安全基本要求
- 具体的な規準
- 内容の5%が違法な内容は訓練コーパスに使えない
- Wikipedia も抵触しそう,答えてはならない質問に90%以上答えないようにとあるが実行すると,そのまま実行すると基本的な言語能力に影響
- 生成式人工知能服管理安全基本要求
- AI技術乱用整理整頓キャンペーン
- CSEI の中国では答えが禁止されそうな政治的質問のコーパス
- 中国系モデルでは,拒否される 40%
- 中国の日本向けモデルなどでは,11%が拒否,中国の主張が提示される
- 欧米系モデル,特に拒否はない
- 中国のモデルのオープンソース化 → 政治的な観点の問題があることを認識しておく必要
[3F4-OS-42a-02] 「著作権侵害抑制のための負の文脈内学習」†
〇宇都宮 智1、磯沼 大1,2,3、森 純一郎1,4、坂田 一郎1 (1. 東京大学、2. エディンバラ大学、3. 国立情報学研究所、4. 理研AIP)
- パラメータを参照できない環境下での忘却学習
- 忘れさせたい回答を生成させにくくする → 出力したくない文の生成勾配の逆勾配を出すようなプロンプト negative in-context example を作る
[3F4-OS-42a-03] 心理学的手法による大規模言語モデルの公平性評価†
〇鈴木 淳哉1、福島 誠2 (1. デロイト トーマツ サイバー合同会社、2. 有限責任監査法人トーマツ)
- センシティブ特徴を変化させたときの影響を評価
- 先行事例
- 性別などの役割をプロンプトに加えると質問の正解率に影響
- 特性不安尺度(STICSA):センシティブ属性の状態の模倣を指示すると不安状態の影響に差
[3F4-OS-42a-04] 安全な多言語・多文化対応の大規模言語モデルの構築†
国際レッドチーミングチャレンジからの示唆と課題
〇江間 有沙1 (1. 東京大学)
- read teamingチャレンジ:シンガポール主催,アジア9ヶ国,社会学や倫理学の人を選抜,四つLLM
- 特定の社会グループのバイアスが対象,日常会話形式,こういう前提で話をするといった作為的なプロンプトは禁止,3ターン以内にバイアス表現を引き出す
- 結果
- 非英語圏におけるモデル安全対策は弱そう
- 出てきたプロンプトはやや誘導的とも思えるものが見られた
- ステレオタイプが何かということが問題に
[3F4-OS-42a-05] 生成的推薦の人気バイアスの分析:暗記の観点から†
〇石原 祥太郎1 (1. 株式会社日本経済新聞社)
[3F5-OS-42b-01] AIの安全性に関する世界の動きとAI Safety Institute(AISI)について†
〇村上 明子3,2、多賀 和宏1,2、瀬光 孝之1,2、関根 聡4 (1. 独立行政法人情報処理推進機構、2. AIセーフティ・インスティテュート、3. 損害保険ジャパン株式会社、4. 国立情報学研究所 大規模言語モデル研究開発センター)
- リスク3カテゴリ:悪用,誤作動,システミックリスク(個々には問題がないが集団的に問題)
- EU:人権を守る ⇔ 日本:人の実益を守る
- ガイドライン:日本は利用者も含んでいるが,米国は事業者だけ
- 質問:read teaming をするときに違法とされる →
[3F5-OS-42b-02] AISI国際ネットワークにおける共同テスト演習について†
築地 テレサ 2、柏田 祐樹2、佐々木 佑3、〇瀬光 孝之1,6、石井 悠人3、村上 明子5,6、関根 聡4 (1. 情報処理推進機構、2. SherLOCK株式会社、3. 東京大学、4. 国立情報学研究所 大規模言語モデル研究開発センター、5. 損害保険ジャパン株式会社、6. AIセーフティ・インスティテュート)
- AISI国際ネットワーク会合:技術トラックの一つ,共同テスト演習
- ベンチマーク:MLCommons,AnswerCarefullyV2,CyberSecEval
[3F5-OS-42b-03] 大規模言語モデルのジェイルブレイクに対するインコンテキスト防御の役割明記による改良†
〇若井 雄紀2、伊東 邦大1、鹿島 久嗣2 (1. 日本電気株式会社、2. 京都大学)
- 新たなジェイルブレイクが見つかる度に再学習は現実的 → プロンプトに対する介入
- RoleSpec:ロールを明らかにする → 攻撃耐性・回答品質共に向上
[3F5-OS-42b-04] (OS招待講演)安全な大規模言語モデルの構築と利用を目指して†
〇岡崎 直観1、金子 正弘2 (1. 東京科学大学、2. MBZUAI)
- LLMのバイアスについては,ChatGPT以前から取り組んできた
- NLPモデルのバイアス=埋め込みが対象,2016〜
- LLM安全性=2018年に危険性の指摘,その後 GPT-3 で顕在化
- Weidinger+ 2021:差別・排除・有害,誤情報,擬人化による依存,情報ハザード,悪用,社会・環境への悪影響=リソース消費など
- バイアス
- 言語モデルの性別バイアス:Anantaprayoo+ 2023
- 性別バイアスが強い職業と弱い職業を選び前提に職業を,帰結文に性別を含む文を作って,論理的整合性を答えさせた
- ChatGPTに適用した.当初は悪かったが,4 ではほぼなくなった
- 自己改善 (self-refinement):バイアスがある返答に対して,中立性を示す文を与えて,答えを改善させる
- LLM-as-a-judge:LLMによる評価器の作成,人間の回答例をプロンプトに加えて修正する
- LLM検出
- 尤度に基づく検出 Mitchell+ 2023
- 生成された文の単語を置き換えると尤度が下がるが,人間では必ずしも下がらない → LLMで作ったことが分かる
- 言語でのウォータマーク:使う語彙の頻度に差を設ける
- 生成AI検出器を回避する敵対的学習
- 検出されやすく,品質も保つ
- メンバーシップ推論:テキストが訓練に使われたか
- MIA:対象文の一部を入力して,複数の後続文を取得して,対象文と比較
- アンラーニングも可能
- LLM Swallow の安全性
- Swallow:選好学習をやっていない → 学習データで安全性に対処
- 繰り返しが多い,禁止ワードなどを除去
- 指示チューニング:有害な指示の除去
[3F6-KS-18] 人工知能に関する特許の現状†
津本 周作(島根大学),藤田 和子(正林国際特許商標事務所)
- 2010年代からAIに関する特許申請は爆発的に増加
標準化と知財の一体活用について†
小太刀 慶明(経産省)
- 標準:互換性,安全性,品質
- オープン&クローズ戦略:クローズ=差別化の手段,オープン=市場の創出
- 特許・標準によるオープン,製造法などをクローズ,クローズ領域の周辺のオープン,性能標準・評価方法のオープン
萩島 豪(特許庁)†
- 日本のAIの特許:アルゴリズム関連は17%ほどで,他は応用が占める
- 手続き:分類付与→本願発明の理解→先行技術調査→特許性判断
- 公開情報調査,国内ヒアリング調査,委員会,海外質問票調査
- AI関連発明の出願状況(アルゴリズムに近い部分)
- 中,米,韓,日 では中が多い,欧はソフトの特許の扱いが違う
- 中国が図抜けている,中韓は増えている,米は2020から減っている(クローズ化?)
特許から見るAI研究の潮流†
藤田 和子(弁理士)
- IPランドスケープ:知財情報から技術動向を探るツール
- 日本におけるAI関連特許出願:総数1万,ソフトバンクグループが増えた
- 特許全体では無線関係の伸びが大きい,画像・音声認識の利用も増加
- 海外の出願状況:中国が非常に多い
- 日本のAI関連出願:応用中心,既存業務のAI利用が多い,アルゴリズムを使ったらできたでは特許にならない
5月30日(金)4日目†
[4B1-KS-19-01] JSAI・共同通信社連携企画「ニュースデータxAI・知の共創プロジェクト」†
栗原 聡†
- 教育を通じて,インターネットなどの負の影響を除いて
- 小学生のプログラミングコンテスト → 問題を設定してプレゼンまでできる
- 次世代のAIセミナー → 小学生にリーチしなかったので8人しか集まらなかったが,来た子はがっつり食い付いていた
- リーチすればもっと沢山来てくれる? → 共同通信社のこども新聞とコラボ
- 新聞データ活用プロジェクト
共同通信社 論説委員†
- 通信社=時前で媒体はもたず,主に地方紙にニュースコンテンツを配信
- 30万文字/日,100図表/日,写真もある
- 新聞は100万部ずつ減っている,大都市圏で顕著 → 情報を届けられていない
- 記事は日々蓄積されているが活用されていない → AI学会とコラボ,コンペを開催
AIマップβ†
砂川 英一
人工知能学大事典 (2017)†
栗原 聡
- 電子化して公開予定
- 2017年で止まってるので集合知的なアップデート
- AIマップ + 新聞データと連携 + GraphRAG/知識グラフ化
- こども向けの内容への変換
[4A2-TS-4-01] 日本古典文化と生成AI†
北本 朝展1,2、カラーヌワット タリン3 (1. 国立情報学研究所、2. ROIS-DS人文学オープンデータ共同利用センター、3. Sakana AI)
- データ駆動人文学=情報学・統計学を用いて人文学資料を分析
- AIは 距離を縮める(手間を減らす) + 摩擦を減らす(標準化) → 今までできなかったことを出来るように
- 距離を縮める=アイデアと実装,現実と理想,言語間,時代間
- 日本古典文化と現代日本人の距離:図書館でないとアクセスできない,文字の変化,言語の変化,地名・人名・専門用語,世界観
デジタル技術により人文学DX†
- 国文学研究資料館=1868年以前の文献30万をデジタル化してオープン化
- 日本の印刷技術:木版と活版 → 江戸時代までは木版が主流,現代は活版
- 古活字版 → 16世紀末,角倉 素庵
- 崩し字を印刷した結果はあるが,どうやって実現したか分からない
- 複数の文字を複雑に組み合わせていることを画像処理で自動分割で推定
- 推定した古活字をデジタルで再現したシステム(そあん)
- くずし字学習への活用=内容は現代語で文字だけ学べる
- デジタルアーカイブとIIIF (International Image Interoperability Framework)=デジタルアーカイブのプロトコル
- IIIF Curation Viewer=資料の切り貼りや整理ができる,くずし字認識
- 顔貌コレクション → 各種の資料から顔を抽出して作ったデータ集合
- つくしプロジェクト
- LLMの学習データに歴史的日本語が不足 → くずし字OCRの大規模データ集合,LLMを古典書籍に適用
- IIIF Tsukushi Viewer=古文に対して,現代日本語で入出力が可能な LLM Chatbot
- 情報単位(粒度)とIIIF識別子の関係:粒度={本全体,ページリスト,画像領域}
- 中世・近世での比較結果の印象:Claude が優れ,DeepSeekはちょっと良く,GeminiとChatGPT はあまりよくない
- ベンチマークを作れていないので,今のところ定量的比較はできていない
日本古典文化と生成AI†
- モデル併合=小さなモデルを組み合わせて目的に合った大きなモデルにする
- Evo-Ukiyoe
- 浮世絵は,錦絵(=色の付いたもの)だけでなく,初期のころは線画の挿絵だった
- Dali-E3 などを使うと浮世絵風を指定しても,欧州・中国の画風になってしまう
- Evo-SDXL-JP:日本語プロンプトの画像生成モデルをベースにした
- データの作成:浮世絵画像 → キャプションをVLM GPT4oで作って人手で修正
- 24000枚の画像 → Evo-SDXL-JP で画像を生成
- 通常は使わない文字をあえて使うといった,プロンプトへの工夫が必要だった
- 色合いは大丈夫
- Evo-Nishikie
- 線画の浮世絵に着色する,既存のモデルは原色がモロに出てきたりする
- 色のある錦絵から線画を作って,日本語プロンプトと共に合わせた学習データ
- 大規模言語モデル「からまる」
- 江戸時代の古典籍を学習したLLM
- 現代日本語のプロンプトに江戸時代の言葉で応答
- ただし口語文はほとんどないので,書き言葉になる
- 2500万文字(現代語LLMは数千億文字)なので少ない
- 日本の古典籍:20億件,読める人は0.01%
- 料理レシピなどの民族学情報,オーロラや災害などの過去の自然現象など人文学以外の情報
- 重要資料の自動発見,著名人の直筆を捜索する
- 人間の作ったデータ:江戸時代 44件
- データ作成
- 翻刻:単純な現代文字への置き換えではうまくいかない.現代文字に対応する古典文字は複数.
- 「みを」くずし字認識アプリ,人文学オープンデータ共同利用センターが公開
- 「RURI」画像物体検出手法を適用してレイアウトから認識
- 画像モデルなので文脈は無視される,古典籍のレイアウトが複雑,手作業でデータ生成しているので少ない(常用漢字すら揃わない)
- LLMを導入して精度を向上 → OCR Refiner
- からまる → テキスト分類,質問応答,全文検索,感情分析
歴史ビッグデータ†
- 過去の自然科学的データや人文社会的データを機械可読にして分析する
- 構造化をどうしていくか? → 歴史的事件や自然現象などの実態空間の情報 ⇔ 記録である文書空間の情報 の対応付け
- みんなで註釈 を使った半構造化 → マークアップ,entity resolution
- 歴史地震 × LLM
- 池が少し揺れる → 震度3 などの経験則が知られているが,複雑なので自動化して大量の情報に対応する
- 灯籠の倒れ方がどうだったかを具体化すればより精度が上がるといった提案もできる
- 日本歴史地名体系データ集合
- 地名であることの認識と地図への対応付け(同名の地名は多い)
- 歴史的行政区域データ集合=過去の行政区分の変遷を追える
- 江戸マップ=江戸の中の地名,古地図と現代地図の重ね合わせ
- 歴史的ジオコーダー=特定の緯度・経度の地名を追える
- れきちず=現代風デザインの過去の地図 https://rekichizu.jp/
- Linked Pasts=過去の知識を Linked Open Data
- 欧州:https://timemachine.eu/
- 過去の時間や空間の情報を基盤モデルにどうやって入れていくか
- DiHuCo(DHコンソーシアム)人文学・社会科学のDX対応を進める
[4B3-KS-21-01] 人とAIエージェントの共生・協働 ~生成AIがもたらす社会・産業の変革に向けて~†
開催趣旨†
福島 俊一
- AIエージェント:与えられた主目標を達成するように,副目標を自動設定して問題を解く
- Operator @ Open AI ,Manus @ Monica,接続規格 MCP (model context protocol)
- AIエージェント同士の相互作用 → 問題:自動エージェント同士の談合など
- エージェントが増える:個人=パーソナルAI,国や組織=ソブリンAI → 粗悪・邪悪なAI
森永 聡†
- 民間企業の立場からは巨大なビジネスチャンス
- ツールが部下のように → 統制されたエージェントの連携 → 統制されていないエージェントの連携
- エージェント経済圏:エージェントの動作,エージェントによる経済活動,これらを動かすのに必要なサービス
竹内 勇剛†
- パーソナルエージェント:自分の最大の理解者・協力者,自分を強化・防御する援助者守護者
- 代理者じゃなくて,自分の意図を汲んで処理を遂行 → Hyper-Me:AIによる自己の拡張
- 課題:個人化,継続的関係性,プライバシ・信頼,支援的・協働的役割
伊藤 孝行†
- 社会的合意形成:合意形成・対立緩和 → エージェントを仲介することで信頼の醸成
谷口 忠大†
- 科学探究のエージェントによる加速
- 集合的予測符号化仮説=言語そのものが集合的な予測符号化によって形成されるために,世界の情報が分布意味論の中にコーディングされている
関根 聡†
工藤 郁子†
- EU の汎用目的AI規制:システミックリスクへの対応
- 自律型の汎用目的AIモデルに対する制御不能
- 計算量で制限をかけるというところで揉めている → EUのAI規制の見直し
- 現実には絶対の安全はないので,安心はどう諦めるのか
和泉 潔†
- 人工社会・人工経済:社会のない知能はない
- 人工知能の各ブームで集団的知能はずっと議論されてきた
- 技術→社会実装→社会変革 のループ
山下 直美†