#author("2024-05-30T11:45:47+00:00","default:ibisforest","ibisforest")
#author("2024-05-31T06:39:29+00:00","default:ibisforest","ibisforest")
* 人工知能学会第38回全国大会 [#m4f67d3c]

- このページはしましまが[[人工知能学会全国大会2024>人工知能学会全国大会#JSAI2024]]に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください.

- ホームページ: http://ai-gakkai.or.jp/jsai2024/
- 日時:2024年5月28日(火)〜 5月31日(金)
- 会場:[[アクトシティ浜松>https://www.actcity.jp/]] + オンライン

#contents

* 5月28日(火)1日目 [#w4fdadb4]

* プレナリーセッション:現場の問題から始めるAIシステム [#e111f000]
山口 高平

- 現場の問題にAI技術をどう適用するかを提案する「AIプロデューサ」が必要
-- 生成AIを使うとか特定の技術を使うことありきではなく,いろいろな技術を俯瞰して,その中から課題に対して適切な技術を選択する

- 知識の分類
-- 外在化性:暗黙知⇔形式知
-- 表現形式:構造化かどうか,表現形式:手続き・判断・合理性・定義(オントロジー,知識グラフ)
-- 領域固有性:常識と専門知識
- オントロジー=階層的な分け方 ⇒ もの・こと分析=固有表現のネットワーク
- 知識ベース開発工程
-- 実際の体験談は専門家から聞けるが,ルールの形式では提供されない

- 出張お助けくんAI
-- 会計規則の理由まで分かる人は少数で,他の人は手続きだけを知っているので,負荷が集中する
-- 会計ルールに基づく自動化による効率化 → 雇用の減少の危惧から,慶応全学には広がらず,理工系だけに留まった

- 交通システムのメンテナンス
-- マニュアルに記されていることはほとんどない,インタビュー聞くとやっと増えてきて,さらに実作業を見るともっと増える
-- 実作業をシステム管理者がして,それに対する熟練者の教示によって実作業の具体的な知識を取得する
-- AIスマートグラス:作業に対する理由を提示
-- 研修センターでは使えたが,道路では音声認識の騒音対策などの問題が生じた

- ロボット飲食店
-- ペッパーが入店した顧客に近づく → 直線的に来ても接客にならず,声がけをしながら近づくように改良
-- PRINTEPS:飲食店の業務フローの記述
-- 商品を運ぶロボ=顧客に受け渡し
-- ゴミ回収ロボ=呼ばれると回収にいくが,子どもに人気で寄ってくるので回収に行けなかったりする
-- トラブル対応の人員は必要で,それを回収できるかどうかは微妙
-- 実用上は限定されたタスクへの適用も考える
--- 配膳で人間の店員と交錯する問題があったが,下げ膳のみを自動化し専用通路を設けることで運用できた

- 教師ロボット連携
-- ロボットが授業に参加して,生徒と教師の媒介になる

* BIAS2024 [#z3e2ea07]

** Keynote: Diversity bias of AI applications in the labor market: Discussing some insights from the BIAS project [#a664da9e]
Carlotta Rigotti (Leiden University)

- 雇用の実務家 → AIシステム:精度や公平性に貢献
-- 欠点:コストの押しつけ,実務家の減少,プライバシ,透明性,差別などの再生産
- Amazon の雇用ソフトウェアが差別的(※ これはプライバシを考慮することと,配分の公正の数学的排他性)

- 雇用市場での,BIASプロジェクトのバイアスを研究
-- NLPやCBR導入での変化

- 事例
-- substantive fairness:知識やスキルのみに基づく判定
-- procedual fairness:手続きが大丈夫なら公平
- data protection law (GDPR)
-- fairness + lawfulness + transparency:サンプリングを均一に
-- anti-discrimnation law:直接差別と間接差別の両方
-- AI Act:差別の禁止

- 雇用者への質問調査,システムに聞かれたことや,そのことにどう感じたか
-- 趣味とかを聞かれることがあったが,差別的と感じることあまりなかった
-- 全般的にポジティブか中立の印象がおおい

** Governing AI in Hiring: An Effort to Eliminate Biased Decision [#v6f0f7b3]
Muhammad Jibril & Theresia Averina Florentina (Universitas Gadjah Mada)

- AI audit law:第3者の監査
- GDPR:AI単独の決定の禁止
- California's Bill AB331:自動決定のアセスメントの義務
- EU AI Act:リスクの段階,雇用は high-risk で,可能な中では一番厳しい有る甲斐
- AAA 2023:アセスメントの義務
- MPC Guidance:効果やバイアスについてアセスメント

- 自動化とAIの差は,その必要性に応じて変更される
-- AI audit law=ほとんどの決定を自動化,GDPR=完全な自動化, MPC guidance=人間の干渉の最小化

- AIを使って人間が監視 ⇔ AIの干渉を最小化して人間

- compliance measures:第3者による監査,チーム内に倫理担当

* 生成AI時代のナレッジグラフ [#hc89d758]
黒川 茂莉(KDDI総合研究所)、古崎 晃司(大阪電気通信大学)

- ナレッジグラフ推論チャレンジ
-- 推理小説部門=既存のシャーロックホームズのKG以上のものを作る
-- LLMを使って知識を抽出
- KGの一つ Wikidata の情報を正解として ChatGPT の回答を調べことも行った
-- 3.5 → 4 でだいぶ改善されている

- KG:データベース,ヘテロ(異質)な情報を構造化し統合,標準化が進む
-- 個別的な知識の参照データとして
- 文書中のチャンク:似ているものではなく,関係したものを見つける
- 生成AIからKG生成
-- 生活空間のシミュレーターに生成したシナリオに対応する履歴を生成させ,そこからKGを生成

- 生成AIを活用した知識処理(森田さん)
- KG:知識共有基盤,知識表現,信頼できる情報源
- LLMでエンティティ名を抽出し,関係も抽出
- GPTに基づく利用者の潜在的要求の推論

- ビジネス応用(広田 航)
-- 業務内容に合わせたニュース配信 → 事業領域のドメイン知識を利用するためにKG
-- 製品の特徴から,新たな販売分野の提案

- 生成AIとナレッジグラフの融合(黒川さん)
-- KG:連想の引き出し,ロングテールへの対応,生成AIの記憶の一部を代替
-- 画像のシーン理解:ウェイトレスは食事を運んでくるといった背景知識をKGから得てシナリオを認識

* 人間とAIが協調して学習するデジタル空間を活用した社会構築にむけて [#gf0b4d4c]
オーガナイザ:西田 遼(産業技術総合研究所)、大滝 啓介(豊田中央研究所)、竹内 孝(京都大学)

西田さん
- オンデマンド型乗合サービス:乗降スポットで呼ぶ乗合タクシー(迂回の最小化と利便性の両立)
-- 実験は高コストなので,シミュレーションで検証
-- 車両数,走行距離,乗客数が増えれば乗降スポットありの乗合の方が到着時間も短く
-- 鉄道やバスとの連携 → 個人の交通手段が変わるのかをシミュレーション
- 群衆の誘導:案内などの介入によって,群衆の移動や混雑をシミュレーション
- GHG排出量の削減 → 商用車のEV化
-- シミュレーションにより排出量を予測

はたらくを支援するデジタル空間
- 作業者の行動モデルを作り,シミュレーションを行う
- 物流倉庫作業
-- 実データと比較すると,シミュレーションは一斉に昼休みがだが,実データはあまり揃っていない
-- ロボット導入の効果測定 → ロボットが運んで,棚への出し入れが人間がする場合に,人間の担当範囲をうまく決めると人間の移動負荷が減る
- 飲食店の接客スキル
-- 訓練の短時間化を,VR で作業をして,その履歴を指導者が見てコメントを書く
- VR空間での,実作業者と仮想作業者の協調作業

吉村さん
- 都市中心部を歩行者空間にして再活性化
-- 歩道を広げたり,交差点などの車両の進入領域を歩行者に開放
- 歩行者と車の共存:問題点=バス停が駅から遠くなる,自転車やキックボードなどの歩行者空間での扱い
-- VR と実空間の一致検証,歩行者と軽車両の分離,混雑の不快度の変化,心理的な距離感の検証
-- VRの利点:再現性,多様な状況,危険な実験,人の行動を計測できる,新技術のテスト,空間の広さの制限がない
- 実空間だと横断歩道を渡りやすいということが,VR空間で再現するか?
-- 人はVR空間が珍しくエキセントリックな行動をしやすいので,手紙を投函するタスクを課した
-- VR空間でも,横断歩道が良く使われ,また周囲の安全確認の度合いも横断歩道があるほうが,ない場合の横断よりも少ない

高野さん
- Web市場の拡大に伴う環境の複雑化 → メンタルヘルス
-- 実社会では見つからなかった人間関係を,オンラインで構築
- 人間の行動はアバターに影響される → ソーシャルサポートへの活用
-- Avatar Identification=自己とアバターとの関係性
- プラットフォーム「ピグパーティでの調査」
-- 髪型などを変えても自己との関係性は変わらないが,輪郭や顔などを変えると弱まる
-- 静的マイノリティなどの社交不安があることと,アバターコミュニケーションの活性には相関

* 5月29日(水)2日目 [#fa7233cf]

* 楽器の街・浜松で考える《Music×AI》の未来 [#c15fcdae]

- 北原 鉄朗
-- 生成AI以降のAIの文化,音楽を楽しむ我々への影響
-- 曲の雰囲気を高低を表す単純な線で表し曲を自動生成,盛り上がりの指定に基づくループの自動選択

- 中村 栄太
-- 演奏からの楽譜生成
-- 音楽文化の展開の背後にある原理を理解したい
-- CREEVO=AIによる創作スタイル:歌詞を入力するが,人は愚痴とかネガティブな方が多い

- 前澤 陽
-- ヤマハで自動伴奏などのチームマネジメント
-- 利用者の達成感を奪わない,できることとできないことの習得段階を理解して補助,遊び方の多様性をもたらす自由度
-- 生成は意外な気付きを与えてくれる
-- 現状は大規模なデータから一定のマナリズムは獲得できている

- 德井 直正
-- Neutone Morpho=VAEを用いたリアルタイム音色変換プラグイン
-- 音楽からの背景動画生成,制作者が全部を制御できないところの面白さ

- 浜中 雅俊
-- 人文学的な視点から,AIの音楽文化への影響
-- 音楽著作権:著作権制度を音楽の創作性を社会的枠組みとして捉える
--- クラッシクの創造性は作曲に,ジャズだと演奏に創造性があり
-- 剽窃やパクリに文化的視点から

** AIは音楽や音楽を楽しむ我々をどう変えるか? [#gf5bbd6d]

- 新しい聴取・消費の方法を提供する
-- 多くの音楽の要素を混ぜ合わせて聴取する
- 音楽は,音響だけでなく,音響を生成する行為全体とすれば,音楽といえないのでは?
- アーティストが作者ではなくブランドになる
-- 音楽に仕上げるのにエンジニアリングも関係しているが作者には含まれない → 人格を付けるために個人に割り当てている → AIだと人格がなくブランドになる
-- 漫画や工房で創る絵画など,今までもそういうものはあった
-- 著作権を考えると,責任主体みたいなものがあるという社会システムの制約
-- 音を楽しみたい ⇔ アーティストに入れ込みたい
- 表現の枠そのものを拡張するような,変革的創造性は,今のAIの仕組みでは持ち得ない
-- 事例としての新しさ,スタイルとしての新しさ
- 「創造性を人間が見いだせる」ことが重要

** AIは音楽を作りたいユーザのパートナーになれるか? [#vb0ecc13]

- 利用者の自己効力感=自分で動かして音を作り出す欲求を満たす
-- DJ が出てきたときは音楽じゃないという他分野の音楽家がいた → 新たな技術とともに音楽は変わってきた → 周りから承認されるフィールドがあれば,それは達成される
- パートナーになれるかどうかは,意外性や予測不可能性を人間側が許容できるか? → それができれば,人間がやらないことをAIがやって可能性が広がる
- パートナーになる必要性自体がない
- 演奏できなくても,ブライアン・イーノのようなプロデュースに特化した場合もある → 演奏技術がなくても,表現したいものを決める部分は残る
-- 創造のハードルは上がって,今までの内挿に留まるものしかつくれない人は残れない → 人のプールが減ると変化の速度は遅くなるのでは

* 進化する大規模言語モデル [#jf976c9e]
相澤 彰子1 (1. 国立情報学研究所)

- LLM後に自然言語処理の研究者がしていることの紹介

LLMの進化の系譜
- https://lifearchitect.ai/models/#summary-moels
- https://github.com/llm-jp/awesome-japanese-llm
- Hugging Face上の生成型言語モデル https://huggingface.co/ → 指数的増加
- モデルは,他のモデルをベースを生成されている
-- 進化系統樹 https://arxiv.org/abs/2304.13712 → 大きく三つの系統 word2vec, GPT, LLaMA
- LLMの黎明期
-- 分布仮説と文脈類似度 → 文脈が類似している文脈語のベクトルを作る
-- 〜数千万次元 → 数百〜数万の埋め込みに圧縮
- word2vec:一部の語を隠して,その語を予測するモデルを教師あり学習で作る
-- アナロジータスク:概念間の推論が空間上の計算でできた
- タスク性能の飛躍的向上
-- 未知語:マルコフモデルは未知語の生成確率が0になってしまう
--- 未知語トークンで代替していた
--- 2016〜 サブワードに分割して対応
-- 語義の曖昧性:多義語の問題
--- ロジスティック → RNN で語の順序を考えることで対処 https://arxiv.org/abs/2008.11608
--- transformer で文法・意味制約に対応できるように → BERTの全盛,NLPでも人間の性能を超えるようになった
- 大規模化 2020〜
-- 文字列を生成する生成モデルの大規模化
-- エンコードしてデーコードして元のトークン列に戻す → デコーダーが生成モデル
-- タスクごとの特徴 → タスクごと損失関数 → プロンプト入力にタスクを統一
-- プロンプト → 自然言語なので,いろいろな人が利用できるように
-- 統一モデルは規模の競争に
- LLMの多様化
-- mixture of experts,多義語の選択理由も示せるように

LLM構築の現場レポート
- LLM-jp と NII LLMC https://llm-jp.nii.ac.jp/
- 構築:コーパス,モデル,チューニング
- コーパス整備
-- chinchilla scaling law:1パラメータ=20トークン が必要
-- 目的に合わせたコーパスの混合 https://arxiv.org/abs/2303.18223v10
--- 分野(対話,論文)や,言語の比率
-- コーパスの質:有害情報,重複,文書の質の担保
-- 課題:現状 15兆トークンとなっている,token crisis=良質かつ大量のテキストが枯渇
- モデル構築
-- tokenizer=未知語をサブトークンに分解する,小さな辞書⇔少ないトークン数
--- トークン数で課金,入力長はトークン数で制限 → 言語によって表現に必要なトークン数が変わる → 言語に合わせたトークンの開発
--- 統計的アプローチの限界で,形態素は性能には関係しなさそうだが,言語学との対応はない
-- モデルの訓練 → 高コスト
--- 少しでも効率的に最後まで計算するには,ノウハウの塊
- チューニング・評価
-- 固有表現抽出や含意関係認識など,個別のタスクにあわせた調整
-- タスク自体も多様化:コード生成,社会的規範
-- 統合モデルは多様なタスクで評価する必要 → ベンチマークや評価手法の確立
--- データリーク:訓練と評価データを分けるのが難しい,直接的でなくても背後で同じデータが影響している
--- 同じ質問でも,選択肢の集合など聞き方で変わる → 問題自体の理解
--- 「結婚してるの?」という質問に擬人化して答えてよいかどうかの正解はない
- 透明性・安全性
-- LLMの構築にLLMが必要:軽量化,再利用,フィルタリング,アノテーション,指示データ生成,報酬モデル,評価,モデルの連携
-- データだけでなく,モデルから学んでいる → モデルのネットワークができている https://crfm.stanford.edu/ecosystem-graphs/

雑感
- 正しい言語とは:誤記の delve という語が論文に増えている
-- 人の文書でも,LLM出力でもそれらを見ると,語の使用頻度は変わる
- 新しいビッグサイエンスなった,経験則とトレードオフの嵐,断片化した情報が再び統合される,モデル自体が研究対象に

* 5月30日(木)3日目 [#j4105732]

* データセットとベンチマークの技術的・社会的な視点 [#b296d54a]
オーガナイザ:鈴木 健二(ソニーグループ株式会社)、原 聡(大阪大学)、谷中 瞳(東京大学)、菅原 朔(国立情報学研究所)

** (OS招待講演) EUにおけるAI・データ関連法制の状況 [#p365caff]
〇生貝 直人1 (1. 一橋大学)

- AI規制論の変化
-- 生成AI以前:EU以外はソフトロー,製品安全+プロファイリング
-- 生成AI以後:EU以外もハードロー,誤情報と情報環境全般への影響,著作権,国家安全保障
- GDPRとAI
-- 透明性・異議の申し立てる権利(22条)
-- データへの扱い.情報提供(12条)アクセス権(15条)消去権(17条)
- EU AI Act
-- 2021年4月に提案,2024年5月22日成立
-- 4段階にリスクを分けたリスクベースアプローチ,汎用目的AIモデル (genral-purpose AI model) には追加的制約
-- AIの定義 3条-1,汎用目的AIモデル 3条-63
-- 許容できないリスク:サブリミナル技法,顔識別の無差別スクレイピング,プロファイリングに基づく犯罪予測
-- ハイリスクAI:入試,裁判,機械などの安全性
--- データの偏りがない,人間による監視などの整合規格
--- New legislative framework (NLF) が実質的なルール形成
-- 低リスクAI→本人への通知,生成AIのものはウォーターマーク付加の義務
-- 最小リスク→制約なし
-- 汎用目的AI:学習データの公表,データ権利者のオプトアウト
--- 一定計算量以上の汎用目的AIモデルはシステミックリスクの評価・軽減
-- 生成AIのリスク:人間が作ったのと紛らわしい
-- 適用範囲は,生成された出力が域内で利用される場合
- アメリカ
-- 2023年の大統領令
-- dual-use基盤モデル:社会に大きな影響がある場合はハードローを指向
- 欧州評議会「AI条約」
-- 2024年5月採択,主に公的部門に対する制約
- デジタルサービス法
-- EUの人口10%以上が利用するサービスに対するシステミックリスクの低減義務
- データ法
-- データ契約の公正性などの定義
- 日本の状況
-- 文化審議会著作権分科会「AIと著作権に関する考え方」
--- オプトアウトの条件を変更
-- AI事業者ガイドライン
--- データの透明性確保,ソフトロー
--- ディープフェイク対応,「AIの進化と実装に関するプラットフォーム」

** 不法行為判断予測データセット構築におけるELSI課題 [#s965fdb5]
〇山田 寛章1、小原 隆太郎2,3、角田 美穂子3 (1. 東京工業大学、2. 中村・角田・松本法律事務所、3. 一橋大学)

- 不法行為データ集合:法的判断予測 → 定型的な紛争調停の省力化,検証可能性は重要
-- 海外には多くあるが,日本法向けのものがなかったので民法の不法行為用のものを作成
- タスク設計:争いのない事実,原告の主張,被告の主張 → 不法行為の判断
-- 3477件を41名の法律専門家がアノテーション
- 裁判所でデジタル化・公開されている判決書が限定的 ← 全体の1%程度
-- 商用判例データベースはやや網羅的
- AIの司法における適切な用途
-- 信頼を高めるためのもので,判断者の責任者を解除する方向で用いられてはならない
-- 誤予測があることを前提とした利用,納得性の確保,リスクの管理
- データの利用可能性と権利保護
-- 元データのステークホルダーの権利,データベースを作った提供企業の著作権により商用利用の制限

** デンマークにおける公共部門によるデータセット公開とプライバシー保護 [#l99530fe]
〇内藤 識1 (1. 早稲田大学)

- EUの法令:GDPRによる規制と共に利用を促進するdirectiveもある
- DinGeo.dk:自治体などの1000以上の情報,不動産,洪水,学区,空き巣リスクなど
- スマートメーター:電力消費量に応じて価格を変動させて温室効果ガス削減をめざす,同意取得の困難さから法学者が懸念を指摘
- 日本では判例は一部しか公開されていないが,デンマークはAPIで利用可能,デンマークの方が削除される個人情報の範囲は広い
-- エストニア:判例データの公開を一部のみの公開にすることは申し立てることができる
- オープンデータ:行政の透明性向上 ⇔ プライバシー保護,同意に関する規制

* AIは『鉄腕アトム』の夢をみるか?~生成AIによるコンテンツ制作の可能性と問題 [#cd2d717a]
手塚 眞

- 1996年,富士通と共同でコンピュータエージェント「TEO フィンフィン」
-- 架空の動物とのインタラクション,視覚センサーとマイクを使う
-- IJCAI1997での講演でマイクに反応せず.デモのときに,生き物のサイクルをシミュレートしたので寝ている状況になっていた.
-- 子どもが本当の動物だと思い込んで,嫌われたことに精神的に被害を受けたとのクレーム
-- 大声は嫌うように作っていたが,再学習気候によってそうでないように慣らしている人がいた
- 手塚治虫の新作を作るプロジェクト TEZUKA2020
-- 「ぱいどん」自動生成のシナリオを手塚さんが修正,キャラデザは生成モデルによる
- TEZUKA 2023:ブラックジャックの新作を作る
-- プロットはやはり人間が最終段階は修正
-- 画像の生成はうまくできたが,チューニングに使う手塚治虫の絵の権利許諾は問題なかったが,基盤モデルの権利をクリアできなかったので利用せず
-- タイトルは自動生成したものから選んだ,プロにも以外なタイトル「機械の心臓 Heartbeat Mark II」
- プログラムの反応によって,人間には生命があると思い込むことがよくある

AIに創造的な発想ができるか?
- クリエイティブ=抽象的な精神活動の表出,0から1は生み出さない,情報の複雑な組合せで生まれる
- 「人間の最大の能力は抽象的思考である」
- 2万年ぐらい前から絵を描く → 動物を線画に抽象化している,空想上の動物も描いている
- 土偶・土器=人間とかけ離れた姿,火炎のような土器 → かなりの抽象化
- クリエイティブな発想の要因
-- 外的要因:制作条件=締切がないと完成しない,時間・空間=場所やタイミング,外的情報
-- 内的要因=学習してきた内容,過去の記憶,いろいろな情報から得られる感性
-- 超心理的要因=インスピレーション=突然思いつく,発見=目に付いたものからの思いつき,偶然性
- クリエーションは心が創る → この心をAIが持ちうるか?
- 創作のプロセス:発想 → 計画 → 実行 → 検証 → 発表
-- 発表=作ったものが観客に見られたときに作品は完成する
-- 現状は実行はできるが,検証・発表の段階が全くできない
- 現在のAIができること:模倣,シミュレーション,パターン化,外的要因による造形 → 類型的なエンターテインメント・コンテンツや複雑な構成のゲームに向く
-- アート作品,複雑な心理コンテンツ,心理と表現が複雑に絡んだコンテンツには不向き
- 漫画表現:ストーリ,ネーム(せりふ)コマ割り,キャラ,背景,吹き出し,デザイン,演出
-- 絵がコマをまたぐコマ割り,コマがだんだん小さくなる演出,背景の処理の変化による情景
- 創作パートナー・アシスタントとしてのAI:既存のアイデアをチェック,参考資料の収集,枠などの単純な部品,全体を整える
- 今後のAIによる創作の可能性
-- 企画アイデアのシミュレーション=そのままは使えないがネタ出し
-- プロットからのシナリオ生成=短いプロットを長くする
-- 複雑なシミュレーション=肖像権をクリアするために,街の風景の人を自動生成
-- 複雑な手作業の工程の緩和=災害の状況など生成
-- 現実には行えない表現のサポート=病気などで途中で出演できなくなった俳優の代行,ハリウッドでは自身のアバターを生成してその利用権を設定していたりする
-- 表現の調整=メーキャップの変更
- 生成AIを使ってゆくために
-- どこに使っていくか → 計画を立てる
-- 個人に合わせたカスタマイズ → 効率のよい生成を誘導
-- 生成プロセスの高度な制御 → 思ったことを表現できる
-- クオリティコントロールと評価 → 品質の担保を専門家が保証
- AIを使うには,つねに専門家を必要とする
-- プロのクリエータになるには,最初からAIに頼らず,ノウハウを自分で学習する必要

* 次世代AIモデルの研究開発へ [#wb61fca8]

** 福島 俊一(科学技術振興機構) [#r68a3226]

- CDRSの戦略提言:賢く見える理由,リスク対応技術,社会課題の解決,人との関わり,大規模化するプロジェクトへの追随
- 次世代AIモデルの基本原理の研究:自然効率,実世界操作,倫理性,信頼・安全性,自発性
-- 道具としてのAI,人間の知能に近づける,望ましいパートナー
-- 大規模モデルが賢く見える原理の解明,生物からのヒント,他者や環境との関係性(コモングラウンド,言語獲得,アフォーダンス),AIリスク,AI駆動プロセス革新,AIは主体か客体か

** 尾形 哲也(早稲田大学) [#naecb718]

- LLMを手がける企業が人間型ロボットに参入 → ロボット用の基盤モデルを作る機運
- 現在の大規模モデルは現実と虚実の区別がない → 人間に合わせて計算結果を変える可能性
- ピッキングなどの部分タスクはデータを集めればできそうだが,シミュレーションで集めたデータの限界で複雑なものは現状の延長線上では難しいと予測

** 谷口 忠大(京都大学/立命館大学) [#da6154e5]

- 記号創発システム
- 物理なり社会的なりの制約が必ずある
- 集合的予測符号化仮説:言語自体が世界を符号化しやすいように発達している
- 三重過程=社会的規範・集合的知能が,システム1や2の他にある

** 三宅 陽一郎 [#oc0c7787]

- AI学会の AI哲学マップ
-- https://doi.org/10.11517/jjsai.38.1_56
-- https://doi.org/10.11517/jjsai.38.2_245
-- https://doi.org/10.11517/jjsai.38.3_408
-- 哲学から人工知能への15の批判
- 環境ととの結びつきは身体がないので限定的
- その空間で拡大する植物型知能

** 牛久 祥孝(オムロンサイニックエックス) [#d14db4ed]

- データ駆動科学:AlphaFold,Matlantis
- 各分野に特化したAIを作るのは困難,専門データの収集は難しい,新たな研究分野のデータは少ない → 科学のための基盤モデル
- 汎用性=モデルに学術情報は少ない,外挿性=ドメイン外のデータの理解や生成,信頼性=説明可能性を超えた信じてもらえる推論,論理性=記号的操作との接続

** 山川 宏 [#w20fd5f5]

- Sleeper Agents:LLMにバックドア(ある時期になると変なことを言い出すとか)を埋め込むとなかなか消えない
- gatekeeper アプローチ:安全範囲内にモデル押さえ込む構想
- ポスト・シンギュラリティ共生学:超知能が存在する世界での共生

** 討論 [#jf8c1561]

- 知識は自然言語ではなく,機械可読な形式で集積しては?
- 社会としての行動を維持するために,言語の意味の変化という可塑性を備えた
- 客観的概念というのは本当はなくあらゆるものは文脈依存だが,客観的概念というのを想定してしまっている,それがロボットを動かすときには顕在化する
- AIが何を考えているか教わる仕組みの必要性
- 分からないときに問いを作るのは難しい,何が報酬になるのかを問いにする

* 5月31日(金)4日目 [#r5e333dc]
* 5月31日(金)4日目 [#d7efe14c]

* スポーツデータとAI:スポーツをシステムとして捉えて楽しむ [#p89a0b63]
神武 直彦

- 事例紹介
-- フェンシング:高速カメラ画像から,動きの良し悪しの解析
-- アーティスティックスイミング:演技の技術点判定をレーザーなどのセンサーやAI技術で行う
-- ラグビー:リーダーシップ,フィジカル向上と怪我の回避
- ラグビー:2019年→2023年
-- 扱うデータは同じ:練習内容,食事,休息
-- 特定の選手のプレイの質や量を把握可能になった
--- 海外に外注 → BIツール・ChatGPTの利用で自己分析可能に
-- ChatGPTによってデータ処理やコーディングを行う
--- 目的は明確だが,実現方法は分からなかった → 映像の対比によってデータやコードの正しさを検証
-- 睡眠データから拾う状態を把握 → 食事などの環境面の改善
-- 強豪国はデータやシステムにも強い
- スポーツの苦手意識の克服
-- 早生まれの人はスポーツから早期に離脱しやすい ← プロ選手は4〜6月生まれが多い
- 畜産:事業者の高齢化,室内から放牧へ
-- 位置情報 → 行動変化からの健康状態モニタリング

スポーツをシステムとして捉える
- 慶応の高校野球チームの強化 → エースがいないなかで,チームとしての向上をめざすため,複数の専門家の協力
- アスリートの日常:競技機械,トレーニング,コーチング,健康な生活 → アスリート,競技主催者,コーチ,施設運営者,家族など関係者の共同作業
- Daniel J. Simons:パスの回数を数えさせることに注目するとぬいぐるみの乱入など他のことが目に入らなくなる → 認知バイアス:人は認知したいものを認知する
-- 一部分を理解して全体と理解できない,自分と違う意見が間違っているとは限らない,自分は全体を理解しているという思い込みは危険
- システム思考:繋がりを理解して,介入の副次的な影響を考慮する
-- アポロ計画で言われるようになった

スポーツデータとAI
- スポーツ:クローズド(非対戦)⇔オープン(対戦)と 個人⇔団体 の二つの軸
- AI適用の難しい種目:団体オープン,攻守が変化,多人数・動きの変化が大きい,競技スペースが区切られていない(サッカー⇔テニス),接触プレイが多い
- スポーツの成績に影響する要素:心技体 → 医療とも関連するので体はAIが活用されている
-- 技 → センサー:映像(ドローン,固定,iPad),GPS,加速度,心拍
-- 体 → センサー,自己申告
- スポーツへのAI活用:自動化,可能性・リスク予測,創造性向上
- ラグビーの事例
-- フィジカル面が重要で,データ分析の知見がある
-- 試合中もGPSを付けている,日本近辺を重点化した衛生 みちびき GNSS を使い高精度・高価
- データ活用の例:怪我の予防,コミュニケーションの誘発,コンディショニング管理,個人化したトレーニング,戦略の立案・実施
- 映像の利用:センサーでは敵チームのデータを取れない
-- 個人の識別が難しいのが課題
-- 画像処理で,タックルのタイミングなどのタグ付け自動化でコーチングに活用
- 全力度シート:練習中の活動量を選手にフィードバック
-- 5時間ぐらいかけていたが,自動化処理で練習終了時にすぐにフィードバックできるように

コロナ禍の知見
- オンラインのラジオ体操,1000人ぐらいの参加
-- 実グラウンドだと遠くて見えなかったりするが,個々にカメラがあるので個々に画像分析してコーチングができるように
-- 雨で休みのときは返金があったが,オンラインだとそれがないので経営的にも有利

まとめ
- 論理的・科学的なスポーツ意思決定需要の高まり
- テクノロジーの高度化と普及によるスポーツデータの普及
- 「だれのため」から「どのように」
- 意思決定インテリジェンス取得のためのAI活用
- スポーツ分野でのAI専門家の需要の高まり

* 信頼されない?AI #1 ~社会とAIの新しいつながりを考える~ [#ed11f8a6]
オーガナイザ:竹内 孝(京都大学)、谷中 瞳(東京大学)、松原 崇(大阪大学)

** 丸山 隆一 [#p80aa94e]

- 信頼:対象真実性,内容真実性,対応可能性
-- truster → trustee
- 信頼が成立するタイプ(大屋 2024)判断の依頼の類型 → 
-- 類型によって必要な要素:代理型=透明性,権威型=事前審査,信託型=答責能力

** 菅原 朔 [#yf910942]

- 言語システムにおける信頼
-- 文書に摂動・削除を加えて予測 → これが解けているが,このことは何を示すのか?
- データ収集の方法論,タスク設計,評価の理論的基盤
- 何を評価するのか,,評価指標,評価の再現性,意図した挙動,関連タスクの可否
- 高度な理解,獲得の原理,妥当な評価

** 竹内 孝 [#d1cc7e97]

- データから将来を予測するAI → 人間のバイアスを継承してしまう
- What-if分析:反実仮想,予測するとき一部明らかなものを予測し一致を確認
- 実際に作るときはプラグマティズム → 演繹的理解との兼ね合い

** 西田 知史 [#fc74ff3f]

- 客観的信頼性=指標で評価 & 主観的信頼性=人間が主観で
- AIへの信頼に関わる要件のアンケート:「陰ながら支えるAI」と「パートナーとして働くAI」という前提によって大きく変わる
- 機能における信頼と社会的関係における信頼

** 原 聡 [#fb7d3bb4]

- 説明可能AI:どんなに説明しても,気に食わないと信頼しないのが人間?
- 修正可能AI:干渉できるようなAI

** 藤井 慶輔 [#c5befcac]

- スポーツAI:データ収集は困難,反実仮想の推定,強化学習による行動モデル
- 選手からファンまで関係者の信頼を得る
-- 選手(除く野球)→ 数値評価を信用しない
-- 指導者・監督 → 主観にあうかどうかで決まる
-- チーム経営者 → 親和的

** 松原 崇 [#k654e936]

- 物理の第一原理を信頼している人にはAIは受け容れられない
- 背後にある数理的関係性の知識のあるデータ駆動予測

** 谷中 瞳 [#g48b2e4f]

- モデルの信頼性:透明性と論理的意味
- 記号論理と機械学習の相補的な利用

** 岸田 昌子 [#ub7aa369]

- 制御理論,不確実性の動的システムへの影響
- AI自立的に意思決定を行う目的は制御と同じ ⇔ 制御の方が理論的保障がある
- リスクを明示的に考慮することに注目している

** 討論 [#hda2c899]

- reliability=道具として→工学的に保証,trust=仲間として
- 親密さを獲得する意図をもったものは危険
- 性能評価の reliablity 向上がどう trust に繋がるか
- 説明・プロセスの実効性はあまり感じない
- 信頼の根拠となる trust anchor は人によって異なる


トップ   編集 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS