人工知能学会第36回全国大会†
- このページはしましまが人工知能学会全国大会2022に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください.
6月14日(火)1日目†
未来の知能とバイアス†
山川 宏(全脳アーキテクチャ・イニシアティブ代表)
- 汎用人工知能 (AGI) とその現状
- 記号AI(システム2)と機械学習AI(システム1)→ 最近はこれを組合わせる必要が認識される
- 72団体がAGIの実現を目指している
- Entification 存在を見出す処理
- 私たちは「存在 (entity)」として世界を認識している
- 記号AIでは,人がentityを与えていた
- クワイン,no entity (→内包的)without identity (→外延的)← 対照学習
- 類似したものをまとめる処理,entity を切り出す処理
- entitification:入力空間からenity空間への写像
- 全脳アーキテクチャ
- 脳全体のアーキテクチャに学んで人間のようなAGIを創る
- 脳情報フロー → 仮説的コンポーネント図 → 実装
- 宇宙へ浸透する生命
- 生命=存在する情報 → 繁殖可能な自律分散システム
- 自分とは違う形質の子孫をデジタル生命は巨大化・長寿命 → 宇宙への進出
- 生命の願い
- 人類のもつ攻撃性:個体生存への執着,類似性の法則,猜疑心の連鎖
6月15日(水)2日目†
AI倫理・ガバナンス -イノベーションと規制の狭間で-†
人工知能のリスクと倫理†
久木田水生
- 厳密な意味でのリスク管理と倫理は相反するもの
- EUのAI規制案
- リスクベースアプローチ,EUの既存の規制と調和,future-proof(将来の問題に対処できるように),EUにおける統一的な市場の確保,投資とイノベーションの促進
- コストと利益の両方を見ている
- 許容できないリスク:EUの重視する価値に反するもの,サブリミナルな危害,公的機関による汎用の社会的スコアリング,公共の場所でのリアルタイムの遠隔生体認証
- 高リスク:健康・安全・基本的な権利へのリスク
- リスク管理:ある行動をとったときに生じる損書の期待値の評価
- 規制案への批判:どの程度のリスクであるかを判定するのは難しい
- 解釈の余地がありそうな部分:EUの重視する価値,意識されない,健康,脆弱性
- シェリー・タークルのコミュニケーションロボへの批判
- 子供の脆弱性利用して共感を得て,他人とのコミュニケーションの機会を奪っている
- 具体的なリスク基準である future-proof と倫理は相容れない
利害関係者ごとに異なるAIの指標に対する選好のクラウドソーシングによる統合方法の検討†
〇横田 拓也1、中尾 悠里1 (1. 富士通株式会社)
- 文化に適応した公平性モデル
- ワークショップ → 可視化インターフェース → 人による修正 → 理論的修正
- ワークショップ:観点の抽出の後,可視化インターフェースを作ってから再度検討
- テーマ的コード化:全ての対話を録音し分析 → 返済可能性,個人のリスク,集団リスクの観点(属性によるグループ) → 日米英で差があった
- 2回目のワークショップ:可視化インタフェース,特徴量の寄与度などが分かる
- 特徴の重みを修正するインターフェースでクラウドソーシングで重みを修正
- 人が認識しにくい,複数の要因が関わる偏りの修正
利害関係者ごとに異なるAIの指標に対する選好のクラウドソーシングによる統合方法の検討†
〇横田 拓也1、中尾 悠里1 (1. 富士通株式会社)
- COMPAS を利用された被疑者による裁判:スコアリング手法の妥当性を問う
- 利害関係者が集まって相談する必要:多くの利点はあるが高コスト
- ステイクホルダーによって,予測のどの指標を重視すべきかは変わる
- この意見の違いを低コストで抽出したい → オンラインのアンケート
- 意見は数理的に集約できるか? → 効用関数を集約する関数で実現
- 全員が望むモデルを獲得できるか? → 他の利害関係者の選好を知っていても合意はできない
共創型事業におけるAI 原則の実践に向けた課題と考察†
〇奥田 浩人1、石田 哲也1 (1. コニカミノルタ株式会社)
- 共創型事業:データ,モデル,ソリューションなど複数の事業者が協力して行う事業
- 事業者ごとにリスクやコストの許容度が異なる → その差異を可視化して交渉に用いる
倫理的なAIシステムの実現に向けてAI倫理影響評価法の提案†
〇新田 泉1、大橋 恭子1、志賀 聡子1、小野寺 佐知子1 (1. 富士通株式会社)
- AI倫理評価方式:システム仕様→倫理ガイドライン・ユースケース
- 要求仕様を定めた後,ユースケースで生じうる問題点を検討
6月16日(木)3日目†
AI関連標準仕様を理解する†
安全安心なAIシステムへ向けての動向†
- 安全安心なAIシステムとは
- ITシステムのマネージ:ISO 9001・14001他,ISO/IEC 15408,ISO 31000
- NIST,OECD勧告,EU AI法,米大統領令で用語が違う,安全性,透明性,説明責任
- NIST AI RMF
- マップ:コンテキストに基づくリスク認識,Measure:リスクを分析・追跡,Manage:リスクの優先順位付けと対処
- 欧州AI規則の概要
AI標準化を巡る全体構図†
- 科学技術の流れからの視点
- 〜17世紀:簡潔な一般理論,18〜20世紀:各分野固有のりろんで補完,21世紀〜:実世界データを使った近似
- SC42の概要
- US-EU Joint Statement:文書がありすぎるのでまとめる
- 部分情報しかない人間が,不確実な環境で行うことを念頭に
AI関連標準仕様を理解する 〜ユースケースでAIを理解する〜†
- ISO/IEC TR 24030: 2021 Information technology -- artificial intelligence
- ユースケースを出してボトムアップの具体的な議論に
- ユースケースを出すことでアピールする国と,国内でのとりまとめから出さない国と
AIガバナンスとの企画と背景について†
- ISO/IEC 38507:ガバナンス
- AIを導入する組織の経営者に対して必要なガイドラインを提供
- 経営者に向けたAIの解説,意思決定の自動化,データ駆動型AI,適応システム,AIのエコシステム
- AIの利活用 (Use of AI) 組織内部の利活用が対象
- 最終的には経営者の責任
- ポリシーを理解し,それを改訂していく
AIの倫理・信頼性とoversight†
- 欧州評議会 CAHAI によるAI倫理原則の分析:116個を分析,透明性,正義(=バイアス),安全性,責任,プライバシーの5分野で合意が見られた → 欧州での優先課題に
- 欧州の new approach 規制と標準は一体として新しいルール → ISOでのルール化を目指す
- 米 NIST RMF リスク管理フレームワーク,任意規格として作る → デファクトを目指す
- human oversight:人間の監督をどこまでするのか?
- 人間がコントロールを取り戻す能力という提案もあるが,まとまらない
人工知能/データにおける標準化最新情報,日本の取り組み†
- データの品質に関わる規格
- ISO 8000-8:データの共有に関する規格
Human-Machine Teamingと今後のR&Dの方向性†
- 人と機械のチームによる問題解決
- 人間の知覚に依存するAIでは人間との関係性が重要,AIへの過剰な反応に対する対案
- 社会面:人間の職が確保され,現行法体系に準拠,技術面:双方の利点を生かす,人間の訓練機会
- 分類:human supervisor, human master/mentor,Peer,human subordinate
- 協調安全:両方が動くと事故がおきやすい
- 適応的信頼校正:人間のAIへの過信・不信をキャリブレーションする
- 信頼されるための性質 (trustworthiness) で人間の信頼 (trust) を得る
6月17日(金)4日目†
人工知能におけるプライバシー,公平性,説明責任,透明性への学際的アプローチ†
(OS招待講演) “機械学習の説明”の信頼性†
〇原 聡1 (1. 大阪大学)
- 機械学習の説明の信頼性
- 技術的=説明としてだとうか?,社会的=社会に導入しても問題ないか?
- 技術的信頼性の評価軸
- faithfulness(忠実性)=モデルの判断過程を忠実に反映しているか?
- plausibility(尤もらしさ)=利用者が見て意味のある説明になっているか?
- 忠実性の評価:sanity checks for saliency maps [NeurIPS, 2018]
- ground truth を知らないので定量評価は無理 → 公理的な条件を充足するかどうかで評価
- faithfulな説明では,学習済みとそうでないモデルで違う説明がなされるはず
- 元画像で学習したモデルと,徐々に無作為化した画像で学習したモデルを比較する
- 社会的な信頼性の評価軸
- モデルの公平性の指標を操作する
- 与えられたデータの部分集合で訓練することで操作する
偽発見率を保証したコンセプトによる説明可能モデルの学習†
〇徐 楷文1,2、福地 一斗1,2、秋本 洋平1,2、佐久間 淳1,2 (1. 筑波大学、2. 理化学研究所 革新知能統合研究センター)
- VAE で抽出した特徴量から線形モデルで予測するのに,有用な特徴量を選択
- FDR (false discovery rate) をknowckoff法で決める
- 発見した特徴が予測に有用で,解釈可能なものか検証した
類似度とネットワークを考慮した多様性に関する試論†
〇金城 敬太1 (1. 共立女子大学 ビジネス学部)
- diversity(多様性):人の多様性,物や財の多様性
- カテゴリ間でコミュニケーションがないと多様性が有効に働かない → 多様性をエントロピーの指数で,カテゴリ間でリンクがあるときその辺で重み付けする
日本の産業構造を踏まえたAIの公平性に関する企業の役割の考察†
〇原嶋 瞭1,2、江間 有沙1、井上 彰1、神嶌 敏弘3、松本 敬史1,2、木畑 登樹夫2 (1. 東京大学、2. 有限責任監査法人トーマツ、3. 産業技術総合研究所)
- 達成すべき公平性規準を選択する必要がある
- 日本ではシステム開発が外注されているので,発注側と開発側で意思統一が図れない
- 質問
- 政府調達調達ではいろいろな制約があるが,そうした制約の公平性は考えられるか?
- 特徴量などの情報がビジネス上の秘密で公開できない場合もある
日本人にとってアルゴリズムによる差別はどう感じられるか?質問紙調査を使った検討†
〇前田 春香1,2,3 (1. 東京大学、2. 理研AIPセンター、3. 日本学術振興会)
- 不正義に着目
- 関係のない変数の利用は不公平,複数の規準を比較すると demographic parity が公平感が強い
- 目的:日本人を対象に,どのような事例を差別だと思うかについて質問票調査
- 画像認識で人種・性別によって認識の事例.認識されないとか,動物への誤認識など
- 人種では誤認識が全般的に差別的と捉えられる
- 性別では場合によっては捉えられない場合がある
説明可能AIにおける目的帰属型の説明についての検討†
〇葛谷 潤1、荒井 ひろみ1 (1. 理化学研究所)
- 説明可能AIの社会的観点: [Miller 2019] 対比性,選択性,社会性,[Cappelen & Dever 2021] 内部よりも外的環境や構築の歴史
- 2種類の説明:因果プロセス解明型=起こったことの起動原因やメカニズムを示す,目的帰属型=起こったことを,それを行った目的を示す
パーソナルデータに関する消費者の信頼と価値†
〇多根 悦子1 (1. 東京大学)