しましま/人工知能学会全国大会2022
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
* 人工知能学会第36回全国大会 [#kde5e3a8]
- このページはしましまが[[人工知能学会全国大会2022>人工知...
- ホームページ: http://ai-gakkai.or.jp/jsai2021/
- 日時:2022年6月14日(火)〜 6月17日(金)
- 会場:京都国際会議場 + オンライン
#contents
* 6月14日(火)1日目 [#wd777e5c]
* 未来の知能とバイアス [#x9276455]
山川 宏(全脳アーキテクチャ・イニシアティブ代表)
- 汎用人工知能 (AGI) とその現状
-- 記号AI(システム2)と機械学習AI(システム1)→ 最近はこ...
-- 72団体がAGIの実現を目指している
- Entification 存在を見出す処理
-- 私たちは「存在 (entity)」として世界を認識している
-- 記号AIでは,人がentityを与えていた
- クワイン,no entity (→内包的)without identity (→外延...
--- 類似したものをまとめる処理,entity を切り出す処理
- entitification:入力空間からenity空間への写像
- 全脳アーキテクチャ
-- 脳全体のアーキテクチャに学んで人間のようなAGIを創る
-- 脳情報フロー → 仮説的コンポーネント図 → 実装
- 宇宙へ浸透する生命
-- 生命=存在する情報 → 繁殖可能な自律分散システム
-- 自分とは違う形質の子孫をデジタル生命は巨大化・長寿命 →...
- 生命の願い
-- 人類のもつ攻撃性:個体生存への執着,類似性の法則,猜疑...
* 6月15日(水)2日目 [#s1049268]
* AI倫理・ガバナンス -イノベーションと規制の狭間で- [#c...
** 人工知能のリスクと倫理 [#bf9ddbf6]
久木田水生
- 厳密な意味でのリスク管理と倫理は相反するもの
- EUのAI規制案
-- リスクベースアプローチ,EUの既存の規制と調和,future-p...
-- コストと利益の両方を見ている
- 許容できないリスク:EUの重視する価値に反するもの,サブ...
- 高リスク:健康・安全・基本的な権利へのリスク
- リスク管理:ある行動をとったときに生じる損書の期待値の...
- 規制案への批判:どの程度のリスクであるかを判定するのは...
-- 日本の経団連の意見書→解釈が曖昧との指摘
- 解釈の余地がありそうな部分:EUの重視する価値,意識され...
- シェリー・タークルのコミュニケーションロボへの批判
-- 子供の脆弱性利用して共感を得て,他人とのコミュニケーシ...
- 具体的なリスク基準である future-proof と倫理は相容れない
-- 倫理は何が重大な帰結であるのか自体をも問う
** 利害関係者ごとに異なるAIの指標に対する選好のクラウドソ...
〇横田 拓也1、中尾 悠里1 (1. 富士通株式会社)
- 文化に適応した公平性モデル
-- ワークショップ → 可視化インターフェース → 人による修正...
- ワークショップ:観点の抽出の後,可視化インターフェース...
-- テーマ的コード化:全ての対話を録音し分析 → 返済可能性...
- 2回目のワークショップ:可視化インタフェース,特徴量の寄...
- 特徴の重みを修正するインターフェースでクラウドソーシン...
- 人が認識しにくい,複数の要因が関わる偏りの修正
** 利害関係者ごとに異なるAIの指標に対する選好のクラウドソ...
〇横田 拓也1、中尾 悠里1 (1. 富士通株式会社)
- COMPAS を利用された被疑者による裁判:スコアリング手法の...
- 利害関係者が集まって相談する必要:多くの利点はあるが高...
- ステイクホルダーによって,予測のどの指標を重視すべきか...
-- この意見の違いを低コストで抽出したい → オンラインのア...
- 意見は数理的に集約できるか? → 効用関数を集約する関数で...
- 全員が望むモデルを獲得できるか? → 他の利害関係者の選好...
** 共創型事業におけるAI 原則の実践に向けた課題と考察 [#kc...
〇奥田 浩人1、石田 哲也1 (1. コニカミノルタ株式会社)
- 共創型事業:データ,モデル,ソリューションなど複数の事...
- 事業者ごとにリスクやコストの許容度が異なる → その差異を...
** 倫理的なAIシステムの実現に向けてAI倫理影響評価法の提案...
〇新田 泉1、大橋 恭子1、志賀 聡子1、小野寺 佐知子1 (1. 富...
- AI倫理評価方式:システム仕様→倫理ガイドライン・ユースケ...
- 要求仕様を定めた後,ユースケースで生じうる問題点を検討
* 6月16日(木)3日目 [#ncd2559e]
* AI関連標準仕様を理解する [#me818eae]
** 安全安心なAIシステムへ向けての動向 [#hfe955d8]
-安全安心なAIシステムとは
-- ITシステムのマネージ:ISO 9001・14001他,ISO/IEC 15408...
--- 経営陣:善管(善良な管理者)としての注意義務
-- NIST,OECD勧告,EU AI法,米大統領令で用語が違う,安全...
- NIST AI RMF
-- マップ:コンテキストに基づくリスク認識,Measure:リスク...
- 欧州AI規則の概要
-- 4リスクに比例した管理
** AI標準化を巡る全体構図 [#l9afad89]
- 科学技術の流れからの視点
-- 〜17世紀:簡潔な一般理論,18〜20世紀:各分野固有のりろ...
- SC42の概要
- US-EU Joint Statement:文書がありすぎるのでまとめる
- 部分情報しかない人間が,不確実な環境で行うことを念頭に
** AI関連標準仕様を理解する 〜ユースケースでAIを理解する...
- ISO/IEC TR 24030: 2021 Information technology -- artif...
- ユースケースを出してボトムアップの具体的な議論に
- ユースケースを出すことでアピールする国と,国内でのとり...
** AIガバナンスとの企画と背景について [#g5cc2e0c]
- ISO/IEC 38507:ガバナンス
-- AIを導入する組織の経営者に対して必要なガイドラインを提供
- 経営者に向けたAIの解説,意思決定の自動化,データ駆動型A...
- AIの利活用 (Use of AI) 組織内部の利活用が対象
- 最終的には経営者の責任
- ポリシーを理解し,それを改訂していく
** AIの倫理・信頼性とoversight [#v82f90e8]
- 欧州評議会 CAHAI によるAI倫理原則の分析:116個を分析,...
- 欧州の new approach 規制と標準は一体として新しいルール ...
- 米 NIST RMF リスク管理フレームワーク,任意規格として作...
- human oversight:人間の監督をどこまでするのか?
-- 人間がコントロールを取り戻す能力という提案もあるが,ま...
** 人工知能/データにおける標準化最新情報,日本の取り組み...
- データの品質に関わる規格
- ISO 8000-8:データの共有に関する規格
** Human-Machine Teamingと今後のR&Dの方向性 [#pf941d46]
- 人と機械のチームによる問題解決
- 人間の知覚に依存するAIでは人間との関係性が重要,AIへの...
- 社会面:人間の職が確保され,現行法体系に準拠,技術面:...
- 分類:human supervisor, human master/mentor,Peer,huma...
- 協調安全:両方が動くと事故がおきやすい
- 適応的信頼校正:人間のAIへの過信・不信をキャリブレーシ...
-- 信頼されるための性質 (trustworthiness) で人間の信頼 (t...
* 6月17日(金)4日目 [#ncc4d906]
* 人工知能におけるプライバシー,公平性,説明責任,透明性...
** (OS招待講演) “機械学習の説明”の信頼性 [#q8140dfe]
〇原 聡1 (1. 大阪大学)
- 機械学習の説明の信頼性
-- 技術的=説明としてだとうか?,社会的=社会に導入しても...
- 技術的信頼性の評価軸
-- faithfulness(忠実性)=モデルの判断過程を忠実に反映し...
-- plausibility(尤もらしさ)=利用者が見て意味のある説明...
- 忠実性の評価:sanity checks for saliency maps [NeurIPS,...
-- ground truth を知らないので定量評価は無理 → 公理的な条...
-- faithfulな説明では,学習済みとそうでないモデルで違う説...
-- 元画像で学習したモデルと,徐々に無作為化した画像で学習...
- 社会的な信頼性の評価軸
-- 嘘の説明をすることでインセンティブが得られる
- モデルの公平性の指標を操作する
-- 与えられたデータの部分集合で訓練することで操作する
** 偽発見率を保証したコンセプトによる説明可能モデルの学習...
〇徐 楷文1,2、福地 一斗1,2、秋本 洋平1,2、佐久間 淳1,2 (1...
- VAE で抽出した特徴量から線形モデルで予測するのに,有用...
-- FDR (false discovery rate) をknowckoff法で決める
- 発見した特徴が予測に有用で,解釈可能なものか検証した
** 類似度とネットワークを考慮した多様性に関する試論 [#sf4...
〇金城 敬太1 (1. 共立女子大学 ビジネス学部)
- diversity(多様性):人の多様性,物や財の多様性
- カテゴリ間でコミュニケーションがないと多様性が有効に働...
** 日本の産業構造を踏まえたAIの公平性に関する企業の役割の...
〇原嶋 瞭1,2、江間 有沙1、井上 彰1、神嶌 敏弘3、松本 敬史...
- 達成すべき公平性規準を選択する必要がある
-- 日本ではシステム開発が外注されているので,発注側と開発...
- 質問
-- 政府調達調達ではいろいろな制約があるが,そうした制約の...
-- 特徴量などの情報がビジネス上の秘密で公開できない場合も...
** 日本人にとってアルゴリズムによる差別はどう感じられるか...
〇前田 春香1,2,3 (1. 東京大学、2. 理研AIPセンター、3. 日...
- 不正義に着目
-- 関係のない変数の利用は不公平,複数の規準を比較すると d...
- 目的:日本人を対象に,どのような事例を差別だと思うかに...
-- 画像認識で人種・性別によって認識の事例.認識されないと...
- 人種では誤認識が全般的に差別的と捉えられる
- 性別では場合によっては捉えられない場合がある
** 説明可能AIにおける目的帰属型の説明についての検討 [#s81...
〇葛谷 潤1、荒井 ひろみ1 (1. 理化学研究所)
- 説明可能AIの社会的観点: [Miller 2019] 対比性,選択性,...
- 2種類の説明:因果プロセス解明型=起こったことの起動原因...
** パーソナルデータに関する消費者の信頼と価値 [#i5f47e29]
〇多根 悦子1 (1. 東京大学)
- パーソナルデータ提供への不安の調査
終了行:
* 人工知能学会第36回全国大会 [#kde5e3a8]
- このページはしましまが[[人工知能学会全国大会2022>人工知...
- ホームページ: http://ai-gakkai.or.jp/jsai2021/
- 日時:2022年6月14日(火)〜 6月17日(金)
- 会場:京都国際会議場 + オンライン
#contents
* 6月14日(火)1日目 [#wd777e5c]
* 未来の知能とバイアス [#x9276455]
山川 宏(全脳アーキテクチャ・イニシアティブ代表)
- 汎用人工知能 (AGI) とその現状
-- 記号AI(システム2)と機械学習AI(システム1)→ 最近はこ...
-- 72団体がAGIの実現を目指している
- Entification 存在を見出す処理
-- 私たちは「存在 (entity)」として世界を認識している
-- 記号AIでは,人がentityを与えていた
- クワイン,no entity (→内包的)without identity (→外延...
--- 類似したものをまとめる処理,entity を切り出す処理
- entitification:入力空間からenity空間への写像
- 全脳アーキテクチャ
-- 脳全体のアーキテクチャに学んで人間のようなAGIを創る
-- 脳情報フロー → 仮説的コンポーネント図 → 実装
- 宇宙へ浸透する生命
-- 生命=存在する情報 → 繁殖可能な自律分散システム
-- 自分とは違う形質の子孫をデジタル生命は巨大化・長寿命 →...
- 生命の願い
-- 人類のもつ攻撃性:個体生存への執着,類似性の法則,猜疑...
* 6月15日(水)2日目 [#s1049268]
* AI倫理・ガバナンス -イノベーションと規制の狭間で- [#c...
** 人工知能のリスクと倫理 [#bf9ddbf6]
久木田水生
- 厳密な意味でのリスク管理と倫理は相反するもの
- EUのAI規制案
-- リスクベースアプローチ,EUの既存の規制と調和,future-p...
-- コストと利益の両方を見ている
- 許容できないリスク:EUの重視する価値に反するもの,サブ...
- 高リスク:健康・安全・基本的な権利へのリスク
- リスク管理:ある行動をとったときに生じる損書の期待値の...
- 規制案への批判:どの程度のリスクであるかを判定するのは...
-- 日本の経団連の意見書→解釈が曖昧との指摘
- 解釈の余地がありそうな部分:EUの重視する価値,意識され...
- シェリー・タークルのコミュニケーションロボへの批判
-- 子供の脆弱性利用して共感を得て,他人とのコミュニケーシ...
- 具体的なリスク基準である future-proof と倫理は相容れない
-- 倫理は何が重大な帰結であるのか自体をも問う
** 利害関係者ごとに異なるAIの指標に対する選好のクラウドソ...
〇横田 拓也1、中尾 悠里1 (1. 富士通株式会社)
- 文化に適応した公平性モデル
-- ワークショップ → 可視化インターフェース → 人による修正...
- ワークショップ:観点の抽出の後,可視化インターフェース...
-- テーマ的コード化:全ての対話を録音し分析 → 返済可能性...
- 2回目のワークショップ:可視化インタフェース,特徴量の寄...
- 特徴の重みを修正するインターフェースでクラウドソーシン...
- 人が認識しにくい,複数の要因が関わる偏りの修正
** 利害関係者ごとに異なるAIの指標に対する選好のクラウドソ...
〇横田 拓也1、中尾 悠里1 (1. 富士通株式会社)
- COMPAS を利用された被疑者による裁判:スコアリング手法の...
- 利害関係者が集まって相談する必要:多くの利点はあるが高...
- ステイクホルダーによって,予測のどの指標を重視すべきか...
-- この意見の違いを低コストで抽出したい → オンラインのア...
- 意見は数理的に集約できるか? → 効用関数を集約する関数で...
- 全員が望むモデルを獲得できるか? → 他の利害関係者の選好...
** 共創型事業におけるAI 原則の実践に向けた課題と考察 [#kc...
〇奥田 浩人1、石田 哲也1 (1. コニカミノルタ株式会社)
- 共創型事業:データ,モデル,ソリューションなど複数の事...
- 事業者ごとにリスクやコストの許容度が異なる → その差異を...
** 倫理的なAIシステムの実現に向けてAI倫理影響評価法の提案...
〇新田 泉1、大橋 恭子1、志賀 聡子1、小野寺 佐知子1 (1. 富...
- AI倫理評価方式:システム仕様→倫理ガイドライン・ユースケ...
- 要求仕様を定めた後,ユースケースで生じうる問題点を検討
* 6月16日(木)3日目 [#ncd2559e]
* AI関連標準仕様を理解する [#me818eae]
** 安全安心なAIシステムへ向けての動向 [#hfe955d8]
-安全安心なAIシステムとは
-- ITシステムのマネージ:ISO 9001・14001他,ISO/IEC 15408...
--- 経営陣:善管(善良な管理者)としての注意義務
-- NIST,OECD勧告,EU AI法,米大統領令で用語が違う,安全...
- NIST AI RMF
-- マップ:コンテキストに基づくリスク認識,Measure:リスク...
- 欧州AI規則の概要
-- 4リスクに比例した管理
** AI標準化を巡る全体構図 [#l9afad89]
- 科学技術の流れからの視点
-- 〜17世紀:簡潔な一般理論,18〜20世紀:各分野固有のりろ...
- SC42の概要
- US-EU Joint Statement:文書がありすぎるのでまとめる
- 部分情報しかない人間が,不確実な環境で行うことを念頭に
** AI関連標準仕様を理解する 〜ユースケースでAIを理解する...
- ISO/IEC TR 24030: 2021 Information technology -- artif...
- ユースケースを出してボトムアップの具体的な議論に
- ユースケースを出すことでアピールする国と,国内でのとり...
** AIガバナンスとの企画と背景について [#g5cc2e0c]
- ISO/IEC 38507:ガバナンス
-- AIを導入する組織の経営者に対して必要なガイドラインを提供
- 経営者に向けたAIの解説,意思決定の自動化,データ駆動型A...
- AIの利活用 (Use of AI) 組織内部の利活用が対象
- 最終的には経営者の責任
- ポリシーを理解し,それを改訂していく
** AIの倫理・信頼性とoversight [#v82f90e8]
- 欧州評議会 CAHAI によるAI倫理原則の分析:116個を分析,...
- 欧州の new approach 規制と標準は一体として新しいルール ...
- 米 NIST RMF リスク管理フレームワーク,任意規格として作...
- human oversight:人間の監督をどこまでするのか?
-- 人間がコントロールを取り戻す能力という提案もあるが,ま...
** 人工知能/データにおける標準化最新情報,日本の取り組み...
- データの品質に関わる規格
- ISO 8000-8:データの共有に関する規格
** Human-Machine Teamingと今後のR&Dの方向性 [#pf941d46]
- 人と機械のチームによる問題解決
- 人間の知覚に依存するAIでは人間との関係性が重要,AIへの...
- 社会面:人間の職が確保され,現行法体系に準拠,技術面:...
- 分類:human supervisor, human master/mentor,Peer,huma...
- 協調安全:両方が動くと事故がおきやすい
- 適応的信頼校正:人間のAIへの過信・不信をキャリブレーシ...
-- 信頼されるための性質 (trustworthiness) で人間の信頼 (t...
* 6月17日(金)4日目 [#ncc4d906]
* 人工知能におけるプライバシー,公平性,説明責任,透明性...
** (OS招待講演) “機械学習の説明”の信頼性 [#q8140dfe]
〇原 聡1 (1. 大阪大学)
- 機械学習の説明の信頼性
-- 技術的=説明としてだとうか?,社会的=社会に導入しても...
- 技術的信頼性の評価軸
-- faithfulness(忠実性)=モデルの判断過程を忠実に反映し...
-- plausibility(尤もらしさ)=利用者が見て意味のある説明...
- 忠実性の評価:sanity checks for saliency maps [NeurIPS,...
-- ground truth を知らないので定量評価は無理 → 公理的な条...
-- faithfulな説明では,学習済みとそうでないモデルで違う説...
-- 元画像で学習したモデルと,徐々に無作為化した画像で学習...
- 社会的な信頼性の評価軸
-- 嘘の説明をすることでインセンティブが得られる
- モデルの公平性の指標を操作する
-- 与えられたデータの部分集合で訓練することで操作する
** 偽発見率を保証したコンセプトによる説明可能モデルの学習...
〇徐 楷文1,2、福地 一斗1,2、秋本 洋平1,2、佐久間 淳1,2 (1...
- VAE で抽出した特徴量から線形モデルで予測するのに,有用...
-- FDR (false discovery rate) をknowckoff法で決める
- 発見した特徴が予測に有用で,解釈可能なものか検証した
** 類似度とネットワークを考慮した多様性に関する試論 [#sf4...
〇金城 敬太1 (1. 共立女子大学 ビジネス学部)
- diversity(多様性):人の多様性,物や財の多様性
- カテゴリ間でコミュニケーションがないと多様性が有効に働...
** 日本の産業構造を踏まえたAIの公平性に関する企業の役割の...
〇原嶋 瞭1,2、江間 有沙1、井上 彰1、神嶌 敏弘3、松本 敬史...
- 達成すべき公平性規準を選択する必要がある
-- 日本ではシステム開発が外注されているので,発注側と開発...
- 質問
-- 政府調達調達ではいろいろな制約があるが,そうした制約の...
-- 特徴量などの情報がビジネス上の秘密で公開できない場合も...
** 日本人にとってアルゴリズムによる差別はどう感じられるか...
〇前田 春香1,2,3 (1. 東京大学、2. 理研AIPセンター、3. 日...
- 不正義に着目
-- 関係のない変数の利用は不公平,複数の規準を比較すると d...
- 目的:日本人を対象に,どのような事例を差別だと思うかに...
-- 画像認識で人種・性別によって認識の事例.認識されないと...
- 人種では誤認識が全般的に差別的と捉えられる
- 性別では場合によっては捉えられない場合がある
** 説明可能AIにおける目的帰属型の説明についての検討 [#s81...
〇葛谷 潤1、荒井 ひろみ1 (1. 理化学研究所)
- 説明可能AIの社会的観点: [Miller 2019] 対比性,選択性,...
- 2種類の説明:因果プロセス解明型=起こったことの起動原因...
** パーソナルデータに関する消費者の信頼と価値 [#i5f47e29]
〇多根 悦子1 (1. 東京大学)
- パーソナルデータ提供への不安の調査
ページ名: