#author("2022-06-17T13:40:19+00:00","default:ibisforest","ibisforest")
* 人工知能学会第36回全国大会 [#kde5e3a8]

- このページはしましまが[[人工知能学会全国大会2022>人工知能学会全国大会#JSAI2022]]に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください.

- ホームページ: http://ai-gakkai.or.jp/jsai2021/
- 日時:2022年6月14日(火)〜 6月17日(金)
- 会場:京都国際会議場 + オンライン

#contents

* 6月14日(火)1日目 [#wd777e5c]

* 未来の知能とバイアス [#x9276455]
山川 宏(全脳アーキテクチャ・イニシアティブ代表)

- 汎用人工知能 (AGI) とその現状
-- 記号AI(システム2)と機械学習AI(システム1)→ 最近はこれを組合わせる必要が認識される
-- 72団体がAGIの実現を目指している

- Entification 存在を見出す処理
-- 私たちは「存在 (entity)」として世界を認識している
-- 記号AIでは,人がentityを与えていた
- クワイン,no entity (→内包的)without identity (→外延的)← 対照学習
--- 類似したものをまとめる処理,entity を切り出す処理
- entitification:入力空間からenity空間への写像

- 全脳アーキテクチャ
-- 脳全体のアーキテクチャに学んで人間のようなAGIを創る
-- 脳情報フロー → 仮説的コンポーネント図 → 実装

- 宇宙へ浸透する生命
-- 生命=存在する情報 → 繁殖可能な自律分散システム
-- 自分とは違う形質の子孫をデジタル生命は巨大化・長寿命 → 宇宙への進出

- 生命の願い
-- 人類のもつ攻撃性:個体生存への執着,類似性の法則,猜疑心の連鎖

* 6月15日(水)2日目 [#s1049268]

* AI倫理・ガバナンス -イノベーションと規制の狭間で- [#c4ad2d8d]

** 人工知能のリスクと倫理 [#bf9ddbf6]
久木田水生

- 厳密な意味でのリスク管理と倫理は相反するもの
- EUのAI規制案
-- リスクベースアプローチ,EUの既存の規制と調和,future-proof(将来の問題に対処できるように),EUにおける統一的な市場の確保,投資とイノベーションの促進
-- コストと利益の両方を見ている
- 許容できないリスク:EUの重視する価値に反するもの,サブリミナルな危害,公的機関による汎用の社会的スコアリング,公共の場所でのリアルタイムの遠隔生体認証
- 高リスク:健康・安全・基本的な権利へのリスク
- リスク管理:ある行動をとったときに生じる損書の期待値の評価
- 規制案への批判:どの程度のリスクであるかを判定するのは難しい
-- 日本の経団連の意見書→解釈が曖昧との指摘
- 解釈の余地がありそうな部分:EUの重視する価値,意識されない,健康,脆弱性
- シェリー・タークルのコミュニケーションロボへの批判
-- 子供の脆弱性利用して共感を得て,他人とのコミュニケーションの機会を奪っている
- 具体的なリスク基準である future-proof と倫理は相容れない
-- 倫理は何が重大な帰結であるのか自体をも問う

** 利害関係者ごとに異なるAIの指標に対する選好のクラウドソーシングによる統合方法の検討 [#y8aebc51]
〇横田 拓也1、中尾 悠里1 (1. 富士通株式会社) 

- 文化に適応した公平性モデル
-- ワークショップ → 可視化インターフェース → 人による修正 → 理論的修正
- ワークショップ:観点の抽出の後,可視化インターフェースを作ってから再度検討
-- テーマ的コード化:全ての対話を録音し分析 → 返済可能性,個人のリスク,集団リスクの観点(属性によるグループ) → 日米英で差があった
- 2回目のワークショップ:可視化インタフェース,特徴量の寄与度などが分かる
- 特徴の重みを修正するインターフェースでクラウドソーシングで重みを修正
- 人が認識しにくい,複数の要因が関わる偏りの修正


** 利害関係者ごとに異なるAIの指標に対する選好のクラウドソーシングによる統合方法の検討 [#l159a455]
〇横田 拓也1、中尾 悠里1 (1. 富士通株式会社) 

- COMPAS を利用された被疑者による裁判:スコアリング手法の妥当性を問う
- 利害関係者が集まって相談する必要:多くの利点はあるが高コスト
- ステイクホルダーによって,予測のどの指標を重視すべきかは変わる
-- この意見の違いを低コストで抽出したい → オンラインのアンケート
- 意見は数理的に集約できるか? → 効用関数を集約する関数で実現
- 全員が望むモデルを獲得できるか? → 他の利害関係者の選好を知っていても合意はできない

** 共創型事業におけるAI 原則の実践に向けた課題と考察 [#kcabbbe9]
〇奥田 浩人1、石田 哲也1 (1. コニカミノルタ株式会社)

- 共創型事業:データ,モデル,ソリューションなど複数の事業者が協力して行う事業
- 事業者ごとにリスクやコストの許容度が異なる → その差異を可視化して交渉に用いる

** 倫理的なAIシステムの実現に向けてAI倫理影響評価法の提案 [#bbc3950d]
〇新田 泉1、大橋 恭子1、志賀 聡子1、小野寺 佐知子1 (1. 富士通株式会社)

- AI倫理評価方式:システム仕様→倫理ガイドライン・ユースケース
- 要求仕様を定めた後,ユースケースで生じうる問題点を検討

* 6月16日(木)3日目 [#ncd2559e]

* AI関連標準仕様を理解する [#me818eae]

** 安全安心なAIシステムへ向けての動向 [#hfe955d8]

-安全安心なAIシステムとは
-- ITシステムのマネージ:ISO 9001・14001他,ISO/IEC 15408,ISO 31000
--- 経営陣:善管(善良な管理者)としての注意義務
-- NIST,OECD勧告,EU AI法,米大統領令で用語が違う,安全性,透明性,説明責任
- NIST AI RMF
-- マップ:コンテキストに基づくリスク認識,Measure:リスクを分析・追跡,Manage:リスクの優先順位付けと対処
- 欧州AI規則の概要
-- 4リスクに比例した管理

** AI標準化を巡る全体構図 [#l9afad89]

- 科学技術の流れからの視点
-- 〜17世紀:簡潔な一般理論,18〜20世紀:各分野固有のりろんで補完,21世紀〜:実世界データを使った近似
- SC42の概要
- US-EU Joint Statement:文書がありすぎるのでまとめる
- 部分情報しかない人間が,不確実な環境で行うことを念頭に

** AI関連標準仕様を理解する 〜ユースケースでAIを理解する〜 [#u0ea4cfd]

- ISO/IEC TR 24030: 2021 Information technology -- artificial intelligence
- ユースケースを出してボトムアップの具体的な議論に
- ユースケースを出すことでアピールする国と,国内でのとりまとめから出さない国と

** AIガバナンスとの企画と背景について [#g5cc2e0c]

- ISO/IEC 38507:ガバナンス
-- AIを導入する組織の経営者に対して必要なガイドラインを提供
- 経営者に向けたAIの解説,意思決定の自動化,データ駆動型AI,適応システム,AIのエコシステム
- AIの利活用 (Use of AI) 組織内部の利活用が対象
- 最終的には経営者の責任
- ポリシーを理解し,それを改訂していく

** AIの倫理・信頼性とoversight [#v82f90e8]

- 欧州評議会 CAHAI によるAI倫理原則の分析:116個を分析,透明性,正義(=バイアス),安全性,責任,プライバシーの5分野で合意が見られた → 欧州での優先課題に
- 欧州の new approach 規制と標準は一体として新しいルール → ISOでのルール化を目指す
- 米 NIST RMF リスク管理フレームワーク,任意規格として作る → デファクトを目指す
- human oversight:人間の監督をどこまでするのか?
-- 人間がコントロールを取り戻す能力という提案もあるが,まとまらない

** 人工知能/データにおける標準化最新情報,日本の取り組み [#d4ef688c]

- データの品質に関わる規格
- ISO 8000-8:データの共有に関する規格

** Human-Machine Teamingと今後のR&Dの方向性 [#pf941d46]

- 人と機械のチームによる問題解決
- 人間の知覚に依存するAIでは人間との関係性が重要,AIへの過剰な反応に対する対案
- 社会面:人間の職が確保され,現行法体系に準拠,技術面:双方の利点を生かす,人間の訓練機会
- 分類:human supervisor, human master/mentor,Peer,human subordinate
- 協調安全:両方が動くと事故がおきやすい
- 適応的信頼校正:人間のAIへの過信・不信をキャリブレーションする
-- 信頼されるための性質 (trustworthiness) で人間の信頼 (trust) を得る

* 6月17日(金)4日目 [#ncc4d906]

* 人工知能におけるプライバシー,公平性,説明責任,透明性への学際的アプローチ [#i346b783]

** (OS招待講演) “機械学習の説明”の信頼性 [#q8140dfe]
〇原 聡1 (1. 大阪大学)

- 機械学習の説明の信頼性
-- 技術的=説明としてだとうか?,社会的=社会に導入しても問題ないか?
- 技術的信頼性の評価軸
-- faithfulness(忠実性)=モデルの判断過程を忠実に反映しているか?
-- plausibility(尤もらしさ)=利用者が見て意味のある説明になっているか?
- 忠実性の評価:sanity checks for saliency maps [NeurIPS, 2018]
-- ground truth を知らないので定量評価は無理 → 公理的な条件を充足するかどうかで評価
-- faithfulな説明では,学習済みとそうでないモデルで違う説明がなされるはず
-- 元画像で学習したモデルと,徐々に無作為化した画像で学習したモデルを比較する
- 社会的な信頼性の評価軸
-- 嘘の説明をすることでインセンティブが得られる
- モデルの公平性の指標を操作する
-- 与えられたデータの部分集合で訓練することで操作する

** 偽発見率を保証したコンセプトによる説明可能モデルの学習 [#pd137da7]
〇徐 楷文1,2、福地 一斗1,2、秋本 洋平1,2、佐久間 淳1,2 (1. 筑波大学、2. 理化学研究所 革新知能統合研究センター)

- VAE で抽出した特徴量から線形モデルで予測するのに,有用な特徴量を選択
-- FDR (false discovery rate) をknowckoff法で決める
- 発見した特徴が予測に有用で,解釈可能なものか検証した

** 類似度とネットワークを考慮した多様性に関する試論 [#sf45ee60]
〇金城 敬太1 (1. 共立女子大学 ビジネス学部)

- diversity(多様性):人の多様性,物や財の多様性
- カテゴリ間でコミュニケーションがないと多様性が有効に働かない → 多様性をエントロピーの指数で,カテゴリ間でリンクがあるときその辺で重み付けする

** 日本の産業構造を踏まえたAIの公平性に関する企業の役割の考察 [#h2002f9a]
〇原嶋 瞭1,2、江間 有沙1、井上 彰1、神嶌 敏弘3、松本 敬史1,2、木畑 登樹夫2 (1. 東京大学、2. 有限責任監査法人トーマツ、3. 産業技術総合研究所) 

- 達成すべき公平性規準を選択する必要がある
-- 日本ではシステム開発が外注されているので,発注側と開発側で意思統一が図れない

- 質問
-- 政府調達調達ではいろいろな制約があるが,そうした制約の公平性は考えられるか?
-- 特徴量などの情報がビジネス上の秘密で公開できない場合もある

** 日本人にとってアルゴリズムによる差別はどう感じられるか?質問紙調査を使った検討 [#me09f6a5]
〇前田 春香1,2,3 (1. 東京大学、2. 理研AIPセンター、3. 日本学術振興会) 

- 不正義に着目
-- 関係のない変数の利用は不公平,複数の規準を比較すると demographic parity が公平感が強い
- 目的:日本人を対象に,どのような事例を差別だと思うかについて質問票調査
-- 画像認識で人種・性別によって認識の事例.認識されないとか,動物への誤認識など
- 人種では誤認識が全般的に差別的と捉えられる
- 性別では場合によっては捉えられない場合がある

** 説明可能AIにおける目的帰属型の説明についての検討 [#s81c53a9]
〇葛谷 潤1、荒井 ひろみ1 (1. 理化学研究所) 

- 説明可能AIの社会的観点: [Miller 2019] 対比性,選択性,社会性,[Cappelen & Dever 2021] 内部よりも外的環境や構築の歴史
- 2種類の説明:因果プロセス解明型=起こったことの起動原因やメカニズムを示す,目的帰属型=起こったことを,それを行った目的を示す

** パーソナルデータに関する消費者の信頼と価値 [#i5f47e29]
〇多根 悦子1 (1. 東京大学) 

- パーソナルデータ提供への不安の調査

トップ   編集 差分 履歴 添付 複製 名前変更 リロード   新規 一覧 検索 最終更新   ヘルプ   最終更新のRSS