人工知能学会第33回全国大会

このページはしましま人工知能学会全国大会2019に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください.

6月4日 (火) 1日目

[1A1-PS-1] 社会を変革する人工知能の広がりとチャレンジ

浦本 直彦1,2(1. 人工知能学会 会長、2. 三菱ケミカルホールディングス 先端技術・事業開発室 デジタルトランスフォーメーショングループ Chief Digital Technology Scientist)

  • 人工知能研究:1956-1974 探索推論,1980-1990 エキスパートシステム,2010- 機械学習・深層学習
  • アルゴリズム,大量データ,計算機能力 → 現在の人工知能技術 → 既存業務の自動化,新しいビジネスモデル,不連続なイノベーション
  • 今回の人工ブームの特徴:デジタル変革の波,データ主導,プレーヤーの変化,誰でも試せる民主化
  • 2012−19 の全国大会のタイトル分析
    • 深層学習,転移学習,CNNなどは延びているが,可視化やグラフなど他のものもちゃんと続けられている
  • Gartner 人工知能の幻滅期へ 2018年10月
  • 他の技術はどうだったか
    • 機械翻訳:文章理解・多義性 → 統計翻訳で向上
    • Webサービス:業務プロセスの変革はできなかった → マイクロサービスに引き継がれる
    • クラウドコンピューティング:自分でコントロールできない → 技術の理解が進んだ
    • IoT,ブロックチェーン:現在まだ奮闘中
    • 結局生き残ってるのでAIも残るだろう
  • データドリブン → 価値を生み出すところに価値がある
    • 演繹的 → 帰納的,還元主義→全体主義,自動的なマッチング・最適化
  • 考えるべきこと:ビジネス価値の創出,技術そのものの発展,社会の仕組み作り
  • ビジネスの例:素材プロセス産業での活用例
    • サプライチェーン:購買 → 製造 → 在庫 → 配送(各段階での予測や検知,自動化・最適化
    • 演繹:モデル化・シミュレーション → 帰納:データからの学習
      • 学習の限界:過去にない事象は予測できない,必ずしも最適な対策が得られるわけではない
    • プラントの異常検知:年に数回の異常 → データが少ない → 数千個のセンサーを活かしたモデル
    • フィルルムの品質検査:画像診断 → 複数の機械学習手法を試して古典的手法を採用
    • プラント運用の知識継承:テキストマイニングによる知恵の体系化
  • マテリアルズインフォマティクス
    • 新素材の開発:順問題(化学構造 → 物性)→ 逆問題(物性特性 → 化学構造)
    • 構造と物性の関係,構造の余録,文献の自動解析
  • 現実的な課題
    • 問題点:データにない状況の予測,解釈するのが難しい(説得できない),すぐに使えるデータは少ない,教師情報付きデータの収集,データの偏在
  • データ分析プロジェクトの手順(CRISP-DM)課題の理解 → データの理解 → データの準備 → モデルの作成 → 評価 → 展開・共有
    • ビッグデータは実際にはない,適切なアルゴリズムよりも深層学習を使いたがる,PoC貧乏(実際の業務に組み込めない)
    • Andrew Ng:小さい成功を収められるか,規模は適切か,業界特有の問題を解いているか,信頼出来るパートナー,価値の創出
  • 課題に対する研究
  • 知識化・知恵化に向けて:DIKWモデル
    • データ(観測事実) → 情報(5Wの抽出) → 知識(ノウハウ・プロセス) → 知恵(知識に基づく最善行動)
  • 社会変革
    • 技術が複雑化し,人間の認知能力を超え始めている.ソフトウェアの振る舞いが人間の直観や価値観とずれはじめている
    • 人間と違う誤分類のしかたをする:data poisoning,security of machine learning
      • 訓練データに安全対策が必要になるのでは?
    • 倫理指針:IEEE EAD,人工知能学会 倫理委員会
    • 人材育成
  • 人工知能技術を活用した価値の創出:ビジネス的な価値,社会的価値

[1A2-KS-1] AI研究に自由はあるか? 〜AI倫理をめぐる世界の動向を踏まえた第一歩とは?〜

  • 研究の自由
    • 優生学は現状では学問としてゆるされていない,名古屋議定書:遺伝資源の扱いに関する制限
    • → 社会的な制限がいろいろ加わっている

AI研究に自由はあるか? 中川 裕志

  • ミクロ→Yes,マクロ→No
  • 倫理指針が幾つも出されている:FLI Asiloma 23原則,IEEE EAD,総務省 AIネットワーク社会推進委員会,ICDPPC(個人情報保護の国家代表)人間中心のAI社会原則,EU:Ethics Guidelines for Trustworthy AI,OECD AI Recommendation
  • 人権,公平性,法令遵守,プライバシ,安全性,幸福はどれも言及,透明性やacountabilityは最近が加わってきている,逆に自律的AIは消える→間による悪用が出る,人間の代理エージェントや教育は加わってきた,独占禁止・協調が増えてきた.軍事禁止は弱くなってきた.
  • AI倫理の実装
    • (透明性)(説明可能性→理解可能性)→アカウンタビリティー → トラスト
    • 理解可能性は専門家だけでなく,一般の人も分からないといけない → ほぼ無理
    • アカウンタビリティーは説明だけでなく,補償の手段
    • → トラスト:よく分からないけど信用するから使う
  • GDPR22条:自動決定に対して服さなくてよい権利
    • 例:アカウントの凍結などの問題
  • 残された問題
    • トラストする対象:組織(情報銀行,ITサービス企業),人(業者にとっての利用者,self Soveregin idenity(支払ができることを保証する人格))データ(流通するデータは個人のものか,サービスが作り出したもの)
  • 人工知能の代理エージェント:複雑な世の中に対応する代理人,IEEE EADの最新版では1節をさいてる
    • Digital Persona:妊娠から墓場まで
      • 出生前の胎児の状態や,死後の情報の扱いなどもあるが,現状の個人情報は誕生から死亡まで → データは生物学的なものとは時期が違う
  • 悪用・誤用対策:結論への経路を明らかにする仕組み
  • AI社会原則:人間中心,教育・リテラシー,プライバシー確保,セキュリティ確保,構成競争確保,公平性・説明責任・透明性,イノベーション
    • 国家や企業によるモノポリーに対する警戒
  • トラスト:Lawful,Ethical,技術的にRobust → 人間主導,技術的頑健性,プライバシ,透明性,公平性など
  • OECD勧告:法的拘束力はないが,プライバシ法制ではOECD勧告に基づいていて影響力は大きい
    • 政策目標がある.デジタルエコシステム,policy environment,国際協調

大澤 正彦

  • ヒューマン・エージェント・インタラクション:人工物を道具から仲間に
    • 多くの交流活動

諏訪 正樹

  • 人と機械の関係性:人の役割を代替 → 人との協同(分担) →
    • 卓球ロボ フォルフェウス:人間に勝つのではなく,人間のうまさに合わせた動作
  • センサー分野:ブラックボックスの定義は不定
    • 第一歩は,予測不能になることの予測可能性
    • 入力を人間と共有する
  • 人工知能をとりまく人間同士の関係:中間生成物の所有権など

葭田貴子(よしだ)

  • 人間中心設計
    • X線画像診断 → 人間の認知能力を勘案したうえでスクリーニング技術を作る
    • 外骨格ロボ:人の意図通りに動いていること
  • 機械と人間の協調動作 → 事故・事件に対する主体はどちらになるのか?

江間有沙

  • 社会と技術の相互作用:よい技術が社会に受け入れられない,枯れた技術がよいとか,政治など他の要因でひっくり返る

浅川直輝

  • AIと倫理:記者の立場から
    • 2014年,AI学会の表紙問題,2015年:自動運転,2017:AI全般に拡大,2018:共通認識(シンギュラリティとかはないとか)が出てくる,2019:個々の話にもどってきた

パネル

  • 質問1:社会志向の解決と技術指向の解決
    • 大澤:被験者に嘘情報を与えることで良い結果を引き出せる→社会制度で制限すべきか
    • 諏訪:予測技術の進展で,不確定性を扱う保険が変わる → 技術から問題を提起
    • 葭田:あまり区別してこなかった
    • 江間:コリングリッツ(?)のジレンマ:何が起きるか分からない時点では制度は作れないし,分かるようになった時点では制度は手遅れ
    • 浅川:どちらをとるかの決定過程は国によって差がある
    • 中川:答えがある問題ではない.自動運転のトロッコ問題の状況に追い込まれないような交通システムを作り出す.
    • 会場:法律には確率の概念がない → 中川:比較こうりょうという(プライバシの忘れられる権利は政治家の汚職に適用されない)グレイゾーンが考えられている
  • 質問2:AI倫理の制約があったとして,それを実行可能か
    • 大澤:研修とか
    • 諏訪:法学は二元論になってるので,実世界への実装にギャップ
    • 葭田:違うフィールドとの議論は語彙のすりあわせから大変
    • 江間:AIを利用する社会構造自体がそういう倫理指針を考慮する体制にもっていく所自体が大変
    • 浅川:組織と個人の区別,アカウンタビリティーは組織を対象に考えている,Googleの軍事利用に反対する社員の個人の事例

[1G3-OS-13a] “ナッジ”エージェント:人をウェルビーイングへと導くエージェントの構築へ向けて(1)

  • 書籍「選択と誘導の認知科学」

[1G3-OS-13a-01] “ナッジ ”エージェント:人をウェルビーイングへと導くエージェントの提案

〇小野 哲雄1(1. 北海道大学)

  • nudge:行動経済学で,ほとんど気づかないくらいささやかな方法で人々を幸福や健康に導く [Thaler 08]
    • カフェテリアの食事の配置を工夫してサラダを多く取らせる
  • 行動経済学:非合理的な人間観
  • 行動経済学のナッジは身体性,バイアスは身体性に基づいて形成される,知覚から実行に直接結び付ける
  • ナッジエージェント(自身の考え)
    • 人の意思決定モデル + ナッジの認知的メカニズム → AI・IoT技術を用いて,ナッジを実現するエージェント
    • ナッジは,人とAIを共生させる最適な方略
  • ナッジエージェント構想
    • 理論 + データ帰納 による人間の決定モデルの獲得 → ナッジの構築
    • メニューの提示で高カロリー食品とそうでないもので表示を考える
    • ちゃんと列にならぶといった社会規範を実践するロボット
  • persuasion 説得 とはデバイスを使う点や,行動の変容を狙った点が違う

[1G3-OS-13a-02] (OS招待講演)選択と誘導の認知科学:ナッジはウェルビーイングを導くのか

〇山田 歩1(1. 滋賀県立大学)

Architecture vs Choice Architecture

  • ポスター・掲示による働きかけ
    • ごみを持ち帰るように働きかける看板など → なかなかうまくいかない
  • アーキテクチャによる働きかけ
    • 30分ぐらいで席を空けて欲しい → 椅子の堅さを堅めにする
    • 電車の座面の凸凹
    • アーキテクチャ:物理的なはたらきかけ,間隔・知覚から理解や判断をスキップして行動に繋がる
  • Lessig「CODE」:行動を規制する方法:道徳・規範,法律,市場,アーキテクチャ
  • 選択アーキテクチャ
    • Johnson, Bellman,Lohse [2002]:チェックボックスのデフォルト,現状維持バイアス
      • 肯定文と否定文と,デフォルトで選択されているかどうかで,選択確率は大きく変わる
      • グリーンエネルギー,臓器提供などの問題に適用
    • 選択肢を1段でやるか,2段階でやるか → 寄付を国内・国際で分けて,さらに細分する(Fox),どの選択肢も等確率で選ばれやすいので,分け方によって選択率が変わる
  • 選択アーキテクチャ:様々なフウーリス低xクスとバイアスを誘発し,意思決定を方向付ける → ナッジはこれを取り入れた

Libertarianism vs Paternalism

  • アーキテクチャ:権力 ⇔ 選択アーキテクチャ:幸福
  • パターナリズム:判断能力のない人に強制(未成年の飲酒) ⇔ リバタリアニズム:自由放任
    • ナッジはこの中間:強制はしないが,方向付けをする
  • 認知システム:自動システムと熟慮システム,注意研究と記憶研究(ナッジは注意が多い)
  • リバタリアニズム的観点:ウェルビーイングは,選択の自由が重要なので,それが本当にナッジでは確保されているのか?
    • 自由:強制 → 操作 → 理性的な説得
    • 誘導からの離脱が自由ならば自由 ⇔ 誘導に気づかなければ離脱はできない
    • ナッジの透明化(選択アーキテクチャの開示) → 実際に可能なのか?認知バイアスの補正は人間には難しい.
    • ストッキング実験:同じストッキングを並べて,違うものと思って選択させると,一番右のものが選ばれやすい.開示してもなかなか修正できない.
    • 臓器提供カードでのオプトインとオプトアウト:影響されてないと思っている人は影響されてた
      • オプトイン・アウトの認知バイアスを開示しても,意思決定はあまり変わらない
    • ナッジへの受容意識:アメリカでは臓器提供のオプトアウトに否定的,カフェテリアの配置は肯定的
    • まとめ:ナッジの影響力を自身で判断できない,ナッジの透明性を確保しても,ナッジの影響は残る.
    • リバタリアニズムは判断能力を水増し,パターナリズムは過小に見ているのでは?

[1G3-OS-13a-03] 人は他者の意見をどう活用しているか:商品の性質に関する検討

〇藤崎 樹1、本田 秀仁2、植田 一博1(1. 東京大学、2. 安田女子大学)

  • 星にの数の評価:星の数,星の分散,評価者の数などの影響
    • 消費モード:感情ベース(娯楽品) ⇔ 実用ベース(実用品)
  • 全体的に好評価だが低評価のものがある:感情では評価者に,実用では商品に原因を帰着 → 感情の方が低評価を無視しやすい
    • 評価数が増えると,少数の低評価の影響は拡大する

[1G3-OS-13a-04] 前傾体勢に伴うナッジ 〜意思決定環境の操作から態度の変容を促す〜

〇白砂 大1、本田 秀仁2、植田 一博1(1. 東京大学、2. 安田女子大学)

  • 身体の状態が心的状態を表す:前のめりになってると興味がある
  • 前傾の椅子を利用して身体の状態を変えることで心理状態を変えることができるか?
    • 歴史上のイベントの年号あて:他人の意見を示したときとそうでない場合 → 前傾の方が他人の意見に従いやすい

6月5日 (水) 2日目

[2N1-KS-5] 機械学習における説明可能性・公平性・安全性への工学的取り組み

イントロダクション -JST戦略プロポーザルの紹介-

福島 俊一(科学技術振興機構 研究開発戦略センター)

  • AIの利点:効率化,人間の可能性の拡大,高速・高精度
  • AIの懸念:失職,差別,プライバシ,悪用・軍事利用
  • → AIの社会原則の作業「人間中心のAI社会原則」EU「信頼できるAIのための倫理指針」,OECD「人工知能に関するOECD原則」
  • AIのブラックボックス問題:説明,動作保証,原因の解明ができない
  • 公平性,安全性
  • 品質モデル:V字モデルに代わる機械学習を用いた開発方法論
  • システム開発方法のパラダイム転換
    • システムの演繹的な作り方 → 帰納的な作り方
  • JST戦略プロポーザル「AIソフトウエア工学」帰納型に対応した方針
  • 動向
    • 2017年初頭から産業界の問題意識
    • 2018年,機械学習工学研究会,AIプロダクト品質保証(QA4AI)コンソーシアム
    • DAROA:XAI,Assured Autonomy
    • 自動運転:PEGASUS(独),2019/5 Open QA4AI conference

機械学習の説明可能性への取り組み -DARPA XAIプロジェクトを中心に-

川村 隆浩(科学技術振興機構)

  • XAIプロジェクト:AI第3の波,機械学習を用いたパートナーをwarfightersが理解する目標,制度と説明可能性のトレードオフを陽に述べていて,それを踏まえた評価
  • 二つのタスク:マルチメディアデータの分類問題 と 強化学習を用いた自律システムによる行動決定
    • 分類問題:画像上のヒートマップ表示
    • 自律システム:抽象レベルの異なる説明
  • Deep Explanation:深層学習に特化,直接的な特徴や重みの提示
  • Interpretableモデル:解釈可能性がそもそも高いモデルを使う
  • model induction:ブラックボックスモデルから入出力を見て解釈可能なモデルを生成
  • 説明:ヒートマップ,中間層の画像,部分的な学習を統合する,説明を目指した学習の方法
  • インターフェース:アナロジー,可視化,言語理解,ダイアログの活用
    • HCIと認知科学の融合が重要とみている
  • 説明の心理学:説明の効果を予測するために,計算可能なモデルに特に興味がある
  • 関係しないテーマ:ユーザモデリング,個人化など
  • プロジェクトの評価方法:学習データを提供,精度と説明の効果,利用者満足度は利用者評価値
  • プロジェクト:今年の2月に評価が出る予定だったが見つからない,成果物はオープンに
    • 予算:$800K〜$2M/年
    • 10チームのうち,深層学習を陽に挙げているのは3グループ
  • UCBの自動運転:saliencyマップ + テキストによる説明
  • Charls river alalytics:ブラックボックスモデルの入出力からのモデル生成
  • Xerox PARCのCOGLE:人間の概念と機械の学習能力の共通領域 (common ground) を使って,協調をめざす.オントロジー中の語彙を,共通領域中に定義
  • Texas A&M:フェイク ニュース検出,テキスト中の根拠の提示
  • CMU+StanfordのXRL や SRI international:saliencyマップなど
  • 品質保証とは言わない.心理学的に分かったと思わせるのが目標?
  • 公平性は範疇に入っていない,完全自動化は軍事で人間の監督下を前提

機械学習の公平性への取り組み -Fairness-aware data miningを中心に-

神嶌 敏弘(産業技術総合研究所)

機械学習の安全性への取り組み -自動車業界の取り組みを中心に-

中江 俊博・桑島 洋(デンソー)

  • 機械学習システムをとりまく環境:深層学習で画像認識の精度が大きく向上
  • 自動運転:認知→画像認識,判断→強化学習,操作
  • 機械学習システムのリスク:Tesla事故,Uberの公道実験の事故
  • 従来のソフトウエア開発とのギャップ
    • ソース → ビルド → 実行ファイル → システム ⇔ データ → 学習 → モデル → システム
    • 従来:ソースから確定的に挙動が決まる ⇔ 機械学習:確率的にしか挙動は保証できない
  • 機械学習はデータでその挙動のほとんどが決定される
    • データの収集 → 選定 → ラベル付け → 学習 ⇒ データの妥当性の検証技術が必要
  • モデルの説明:saliencyマップ,安全性:敵対的事例
  • 人でも識別が難しいアノテーション:人による判断の違い,状況依存 → アノテーションには揺らぎ
  • システムの課題:複数モデルによる頑健化,事後処理でのフィルタリング,異常検知,モデル以外の改良も考慮

各国の動向

  • 国際標準:ISO 21448 2022発効予定
    • (SOTIF, safty of the intended functionality):意図した領域内で適切に振る舞うことを確認する.
    • 自動ブレーキが水滴や雨の影響で予定外に動作
      • 人間が考えたリスク要因のトリガ要因を見つけて解消を目指す
      • 機械学習ではこうしたトリガ要因を見つけるといったことは現状ではできない
    • 機械学習には仕様を定義できない
  • EUのAI倫理ガイドライン
    • 最終製品だけでなく,設計や製造のプロセスにも言及している
  • 日本:QA4AI(自動運転グループ)
    • フェールセーフ設計
  • 学会:SafeAI,AISafety,WAISE(ロボット,リスク工学,検証,AI,システム/ソフト工学の研究者)

MLSE研究会・QA4AIコンソーシアムの活動・成果物報告

石川 冬樹(国立情報学研究所、機械学習工学研究会MLSE主査)

  • 機械学習工学
    • システムの要求の定義,語彙,記述 → 妥当性確認
  • 機械学習の難しさのアンケート
    • 顧客との意思決定(結果の不確実性の存在),テスト品質の評価・保証(そもそも確率的にしかあたらない)
  • QA4AIガイドライン
    • 五つの評価軸:データ,モデル,システム,プロセス,顧客の期待
  • 技術課題
    • メタモルフィックテスティング:人間が見つけられないミスを見つけようとする技術
    • ニューロンカバレッジ:レアイベントを含めた網羅性の確保
  • ガイドらアイン:自動運転,産業プロセス,スマートスピーカー,生成系システム
  • アカデミック
    • 狭い範囲の形式検証・安全性保証,問題を生じる場合の探索,バグの発見

[2A2-PS-2] 「人工知能」をどのように読み解くか

丸山 宏1(1. Preferred Networks, Inc. フェロー)

「人と工知能」とは何か

  • 「知性の探究」としての人工知能
    • 知性を探求する学問:脳・神経科学,心理学,経済学,ロボティクス,計算機科学
    • 物理学から派生した自動車は物理学とは呼ばないが,人工知能研究から生じた製品も人工知能と呼ばれる
  • HypeとしてのAI
    • データ分析・最適化,機械による自動化,未完成の汎用AI など全部がAIとしてマスコミでとりあげられる → 受け手と出し手の理解に齟齬があると困る
    • IEEE Spectrum:IBM Watsonを針小棒大に売り込んでしまった → over promise は非常に危険
  • 情報技術のフロンティア
    • AI技術は生き残ったどころか,CSの中心になりつつある
    • 1977年はWinstonの本ぐらいしかなかった → 当時のCOBOL/Fortranは再帰呼び出しができなかったが,AIの要求により議論されるように
  • CSに取り込まれるAI技術
    • 第1次ブーム:探索など → 再帰呼び出し,動的計画法など
    • 第2次ブーム:知識表現など → オブジェクトの概念,セマンティックWeb
    • 第3次ブーム:機械学習 → 新しい計算モデルになるのでは?

新しい計算モデル

  • 深層学習:(状態のない)関数の近似技術
    • 演繹的な関数の作り方:先験的な知識から演繹的に作る → 入出力が数学的に表現できて,それを実現するアルゴリズムが存在
    • 帰納的な関数の作り方:データから帰納的に作る → 入出力やアルゴリズムが未知でもよい ⇒ 計算機で解ける範囲の問題が広がる
  • 形式的定義は与えられない問題にも対処できる
    • アニメの色づけ:色のついた画像からエッジ抽出で線画を生成 → 線画から色つき画像への逆問題
  • 統計的機械学習の本質的限界
    • 学習時と推論時のデータが同分布でないとダメ
      • 株式の売買などは,売買の行動で分布が変わる
    • 内挿はうまく行くが,低頻度な外挿問題には対応できない
    • 無限個のデータがあれば収束するが,実際のデータは有限個 → 100%の正しさは保証できない
  • 最適化問題
  • 第3次AIがCSにもたらすもの
    • 従来:計算手順を明示的に与える → ブラックボックス計算:手順を暗黙的にあたえる
    • 計算の進化:理論背景,離散メカニズム,対象問題,プログラミング,精度,設計論などが変化する

科学・工学への展開

  • 科学の原理:少ないパラメタで多くの現象を説明する → オッカムの剃刀の原理
  • 実問題の多くは,多パラメタ空間
    • ExRNAに基づくがん診断:4000種類のマイクロアレイから少数のパラメータを見てはがん診断が出来なかった
    • X線1分子追跡法:タンパク質に金の結晶をくっつけてそれにX線を当ててその散乱からタンパク質の挙動を予測 → 逆問題を学習で解けるように
  • 科学にバイアスはなかったか?
    • 科学が対象とすべき問題のうち,単純なものしか対象としてこなかったのでは?
    • 少数パラメータの低次元科学(人の認知限界による拘束) → 高次元科学(認知限界を超える)
  • 工学
    • Software is eating the world" Marc Andreesssen, 2011 → deep learning がソフトウェアを喰っている
    • 丸山さんの予測:2020年には,ソフトウエアの50%には使われるようになる
    • 帰納的プログラミング:テストが困難,デバッグ・改変が困難
    • 要求仕様の手順は難しい:衝突しないことを前提にした自動車を設定すると,動かない自動車ができる → 効用と安全性のバランスを定量的に要件として明示する必要
    • Russell:コーヒーを取ってくるために,コーヒー店の人を皆殺しにしてコーヒーとってきては行けない → 最適化するときの制限,すなわちフレーム問題と向き合う必要
    • M. Jordan:機械学習にとっての工学的
      • 土木工学:理論 + 理論では対処できない状況を想定した安全係数がある
  • 技術者としてすべきこと
    • 人工知能という言葉が多義に使われている → 不幸をもたらす誤解があれば正すべき
    • 機械学習は新しいプログラミングパラダイム → 可能性と限界を正しく伝える
    • 工学技術としての熟成が必要 → 社会合意

[2J3-J-13] AI応用: 消費と生活

[2J3-J-13-01] 食事画像のラベル付け作業の省力化に関する考察

〇小林 尚生1、南野 充則1(1. 株式会社FiNC Technologies)

  • ヘルスケアアプリのための食事内容の記録 → 食事画像から内容を一般物体認識認識
  • アノテーションの難しさ:玉子丼と親子丼の区別の難しさ → 小さな差異でカテゴリが分かれるのでラベルの選択に時間がかかる
    • サジェスチョンに対して成否を返すことで省力化

[2J3-J-13-02] 機械学習による天気予報の当たり外れ予測の可能性

〇船木 将秀1(1. 新潟大学)

  • 天気予報は許可制,気象庁+75 予報事業者 → どの業者の的中率がよいかの統計はない
  • はずれる要因:モデルの問題,予報地域内での天気のばらつき → 予報の当たり方・外れ方のパターンを知りたい
  • 予報データと実況データ(AMeDAS,天気ツイート),予測は予報データから行う

[2J3-J-13-03] 調理作業スペースの概念モデルの可視化の検討

〇濱 龍太郎1、森 梓1、高久 由香里1、原田 篤1、橋本 敦史2(1. 株式会社 LIXIL、2. 京都大学教育学研究科)

  • ユーザビリティ:設計者と利用者の利用のイメージの不一致が問題
  • キッチンのシンクとコンロの間のワークスペース
    • 自分への遠近とシンク・コンロへの距離によって食材・道具を配置している仮説 → 画像認識で作業ビデオの物の配置を検証
  • 作業エリアの分割と,各エリアに配置するものの傾向を掴む

[2J3-J-13-04] 物体検出を用いた調理の時系列パターンによる分類

〇森 梓1、濱 龍太郎1、原田 篤1、高久 由香里1、橋本 敦史2(1. 株式会社LIXIL、2. 京都大学)

  • キッチンでの行動をの情報を観察 → 調理の動作は複雑でデータ収集が難しい → 画像認識を使う
  • エリア別の各アイテムの出現の時系列傾向を調査 → シンクでは,全般的にピークがあるもの,中盤ピーク,終盤ピークの三つに類型できた

[2J3-J-13-05] 一般家庭の消費電力を対象とした外れ値検出手法による異常検知性能の比較

〇橋本 美穂1、八木 悠太朗1、西垣 貴央1、小野田 崇1(1. 青山学院大学)

  • HEMS (Home Energy Management System):サイバー攻撃などによる異常動作の検出
  • 家庭の電力消費データ,わざと異常な電力消費をまぎれ混ませて実験
  • いくつかの異常検出アルゴリズムで検出精度を測った

[2I4-OS-15b] 人とAIが織りなす新たなエコシステム(2)

[2I4-OS-15b-01] AI社会におけるパーソナルデータ活用の社会的合意形成に関する考察

〇多根 悦子1(1. 東京大学大学院)

  • 課題:Facebookのデータ流出,中国の信用スコア,サイバー犯罪被害
  • 公正取引委員会の消費者の意識:懸念がある 76%,
  • 社会的合意形成:1945 Bush 事実と価値の二元論 → 公害とかで → 科学によって問うことはできるが,科学で答えを出せない問題 Weinberg
    • 社会的意思決定 Jasanoff 技術官僚モデル 専門家 → 民主主義モデル 多くの価値観の導入
  • 社会的合理性の担保
    • 意思決定の主体の多様性,意思決定に必要な情報の開示,透明性が担保と手続きの明確化
  • パーソナルデータを活用した新しいサービスを考えるワークショップ
    • 現状利用中のサービス → 情報の提供の可否を調査
    • ビジネス側にたった場合には,公開したくないデータを求める

[2I4-OS-15b-02] 代理人としてのAIの検討

〇赤坂 亮太1(1. 産業技術総合研究所)

  • 民法における代理人,法律行為の代行
  • 契約の成立:意思内容→意思表示→申込 ⇔意思の合致⇔ 承諾 ← 意思表示 ← 意思内容
    • 米国:UETA,E-Sign,意思伝達の道具として規定されている → 技術の進展に伴って今後は解釈を変える可能性がある
  • リステイトメント(コモン・ローで判例をまとめたもの)
  • AI代理人説
    • 本人が価格を決めるのではなくAIが決める → 事前の意思を本人は持てない
    • 経済学的に,安価な危険回避にコストを配分することで効率化 → AIを使った本人に帰するのは非効率
  • AI代理人は実現できるか → 所有物(奴隷)扱い
    • 瑕疵があったときはどうする?
    • 日本だと法文化の違い,契約書などの表示が全ての日本と,背後の意思を考える意思主義の米英との差

[2I4-OS-15b-03] (OS招待講演)人とAIが織りなす新たなエコシステムの実現に向けた法的課題

〇成原 慧1,2(1. 九州大学、2. 理化学研究所革新知能統合研究センター)

  • 人とAIのエコシステム
    • 複雑で制御に限界のあるシステム ⇔ 人々の保護を達成しつつ,人間が設定した大目標を達成
  • AIネットワーク化
    • 相互接続:標準の制定
    • 安全性:ハッキングが生命維持にかかわる
    • 複数エージェントが関わることで起きるトラブル
    • ネットは自由重視の文化⇔製造物責任などの法規制
  • 人間による把握の限界
    • AIの事故(民事の予見可能性,結果回避可能性)→学習で変化するので無理になるのでは
    • 開発者の製造物責任,予見は完全には無理,刑事の予見可能性・結果回避可能性
    • 把握できないシステムを作ることの是非,個々には大丈夫でも合わさるとまずい場合も
  • 目標・価値の設定
    • 国境を越えるネットワークだと,国家主権を超える
    • 目標・価値は普遍的なものか,複数の価値に基づくAIがあるときの調停
  • 個人の権利保護
    • どの権利の保護,誰が保護する
    • 恩恵の享受:緊急電話のユニバーサルサービスのようなサービス
    • 使わない人のコストは誰が負担すべきか
    • 持続可能なエコシステム:公正かつ自由な競争環境の維持・促進,影響評価(アセスメント)
  • 規範形成の動向
    • IEEE EAD 1st ed.: 2019/03,
      • 設計・運用で人権・複利・データ主体性の普遍的価値の実装 > コミュニティに特異な価値の導入
    • EC High-level Expert Group on AI, Ethics guidelines for trustworthy AI (2019/04)
      • 七つの原則,AIは変化するが,この七つの原則を達成する技術的・非技術的な手段を利用
    • OECD,Principle on AI (Recommendation of the Council on AI) 2019/05
      • AIシステムのライフ差来る(設計,実装,運用)に原則の実現を求める
  • 法的課題
    • 国際規範との役割分担
    • OECD外の中国などとの規範のすりあわせ
    • 普遍的な人権といった価値自体の国際的なすりあわせはない
    • 地理的な連続性が無関係になったことへの対応
  • 法と技術の役割分担
    • 学習能力のあるシステムでは by design 以外の方策
    • メタ技術の法(ウゴ・パガロ),デザインのデザイン

[2A5-KS-6] 物理学との対話2 ―科学とAIの接点―

オープニング

矢入郁子

  • 物理学から深層学習への期待
    • データの分析 → 隠れた物理法則を見つける思考のヒント → 深層学習による法則の発見

経緯

澤 博

  • 2017年:AI学科と物理学会の連携
  • 2018-06-07:JSAI2018 「機械知能と理解」
  • 2018-08-11-12 日本物理学会主催 科学セミナー 「AIと物理学」
  • 2019年〜:両学会市場で企画記事の掲載
  • 物理学とAIと
    • 物理学の歴史:実証主義(実験×理論),技術革新と物理学の相乗効果による発展
    • 認知科学(日高)理解とは関手の発見である
    • AIの能力は認知限界を超えているので,ブラックボックスのまま利用することは避けられない
    • 「AIを理解する」は新たなテーマではなかろうか?

機械に物理を教わる日は来るか → 部分的には既にそうなっている

勝本信吾

  • AIとは何か?,アナロジーと分類,人がAIを通して世界を理解するようになる,真のシンギュラリティはこないのでは
  • fourth paradim:ニュートンの法則は,ブラーエからのパターン抽出
    • 低次元公理系としての物理学は必要なくなる
  • 物理学会でも28件の機械学習系の発表がある
  • AI→物理の例:レーザ切断
    • 100を超えるパラメータの調整が必要,アブレーションというので穴が開くが,そのメカニズムはよく分かっていない.
    • 穴の奥の凸凹のパターンとパラメータの関係をNNで予測できるようになった
    • 教師データを作るのにいろいろ試していたら,今までの理論でできないレベルのきれいな切断ができてしまった
    • 個体の電子状態の第一原理計算:汎関数があって計算が大変なので近似でやってた
      • 汎関数をNNで求めてしまうと,今までを凌駕する近似が出来てしまった
  • 量子計算による機械学習
    • 量子ゲート操作とNNは相性がよい → 何でこんなに相性がいいのか? → ひょっとして,脳内では量子計算をしている?
  • このようにいろいろできるが,説明ができるAIが欲しくなってくる
  • 丸山の高次元科学への誘い
    • 物理型ではない自然科学になるのではないか

素粒子物理事件とAIの接点

田中純一

  • ヒッグス粒子発見:標準模型が完成した
  • 素粒子物理:ビックバン後 10^-12秒までたどれるようになった
    • 暗黒物質などはまだ説明できていない
  • LHC:アトラス検出器,16000画素のカメラ
  • 素粒子の研究とコンピュータ
    • モンテカルロシミュレーション,ファインマン図
    • ATLAS実験:400PBのデータ,モンテカルロシミュレーション:200PB程度
    • 計算資源:GRIDの実用化
  • モンテカルロシミュレーション:確率的にヒッグス粒子は生成されるので,生じるまで繰り返す
  • AI利用@素粒子実験
    • boosting + DT は良く使われるが,深層学習はあまり使われていない
    • エネルギーと運動量 から直接結果が出る方法を開発するのが夢
  • 再構成:検出器のデータの処理
    • Kaggleでも従来手法では超えていない → 荷電粒子が磁場で曲がるという事前知識がうまく使えていない
  • データ解析
    • boosted DT,深層学習と比べても性能がいい,20変数ぐらいなのでDTの方がよさそう
  • 自動「新粒子探索」
    • 人間の分析は,あたりを付けてよさそうなデータを分析している
    • 機械に分析させたら,データの他の部分からも何か新たな粒子が見つかる可能性

知の物理学研究センターが目指すところ

上田正仁

  • なぜ物理学とAIの融合か?
    • 複雑な自然から,「再現性」のある特徴を抽出する → 機械学習がやっていることと同じ
    • 物理学者はカンでやってきたが → 組織的に行う Physics for AI
  • 物理原理で説明可能なAIの構築
    • Web上などのデータは文化的な影響を受ける:月の海は国によってウサギ以外にも見える → 相関だけで因果関係は分からない → 説明の本質的な困難さ
      • 物理学だと物理法則に依存 → データは説明可能なので,説明可能なAIを作れる? A

サイエンスするAI

  • 人間の発見の追体験:発見プロセスをAIに実装する方法の解明 → 人間の認知バイアスをAIで回避するなどの補助 → AIによる物理法則の発見
  • 科学の発見は段階的:ブラーエ→ニュートン→アインシュタイン
  • AIは量子力学を理解・発見できるか?人間の直観にも合わない問題をAIは発見できるか?

6月6日 (木) 3日目

[3A1-PS-3] Explain Yourself – A Semantic Stack for Artificial Intelligence

Randy Goebel1(1. Professor of Computing Science at the University of Alberta, Canada, and co-founder of the Alberta Machine Intelligence Institute (AMII))

  • 第3次AIブーム:大きな進展とともに,データは大企業に囲われているといった負の側面もある
  • 深層学習・強化学習機械学習 ⊃ 知識推論 ⊃ 人工知能
  • 説明の重要性
    • 複数の抽象度でのモデルの構築が必要
    • エキスパートシステムの MYCIN は,生成したルールの説明を出力できた
    • Sutton の主張:弱い汎用手法が結局は,知識を使う手法を凌駕してきた
    • 深層学習ネットの回答:猫が棚に座っている → 実際は棚に猫が寝そべっている
      • 二つの修正方法:猫は寝ていないという知識を与える vs 多くの寝そべった画像と座っている画像を与える → 前者が容易な対処
  • アブダクションと説明
    • Abduction, C.S. Pierce;Scientific explanation, verisimilitude, Karl Popper
    • Causality, Peral "estimands" are abductive explanations
    • アブダクション:帰納のように汎化はせず,個体の属性を出力する
    • 事実 + 説明可能な理論 → 観測:ができるとが科学的合理性
    • 仮説集合(可能なもの全て) → 説明できる理論(事実と無矛盾) → 理論の選択規準(尤度最大とか) → 理論
  • 多層の説明モデル
    • 分野ごとに意味階層がある:セマンティックWebの階層,TCP-IPのスタック
      • 上位の階層の説明は記号的,下位はは非記号的
    • 階層は分野(domain)に依存
      • タンパク質の1次構造 と 2次構造 はそれぞれ別の記号で荒w素
      • 画像:風景⊃物体⊃線
    • アブダクションの結果は,適切な抽象度で行う必要
  • ボトムアップな説明モデルの構成
    • 深層学習による画像認識モデルの説明
    • 画像認識:入力(画像)+ saliencymap(モデル)→ 入力の中で有効な部分をハイライト(説明)
    • 評判分析:考慮されている単語の抽出,
    • 抽象度が下位の方から:coincidence → correlation → causality
    • ホーン節を正例・負例を使ってデバッグする
  • まとめ
    • 説明を考えるうえで,意味的な抽象度の階層を考えることは重要.
    • 学習を使って説明を構成できる

[3I4-KS-10] AIマップタスクフォースの活動 ―AI初学者・異分野研究者のためのAI研究の俯瞰―

  • ターゲット:異分野の研究者と初学者
  • マップA:知識はどのような処理か
    • 人間の知識処理を実現するというAIの立場から
    • ノーマンの行為の7段階モデル:知覚,解釈,評価,目標,意図形成,操作選択,実行
      • この各ステップはAIの各段階に対応している
    • さらにその外側に人間との対話や,AIの社会での位置づけなどの構図がある
  • マップB:
    • 研究のアプローチは多様 → 応用分野も多様
    • 技術の発展の軸:三つのブーム,それに対応した応用分野の発展
  • マップC:基礎から応用への展開
    • 大分類:基盤→手法→応用
  • マップD:知能をどのように捉えるか

6月7日 (金) 4日目

[4E2-OS-7a] AIの法学の応用(1)

  • 法律とAIは50年ぐらいの研究がある
    • より公正で効率的なシステムをめざす,法律家の訓練,法曹の権力濫用防止
    • 1976 Taxman の法律エキスパートシステム
    • 法解析学 legal analytics 2010ごろ
    • 最近 AIがもたらす法律問題
  • 2018/02 ネットを通じて民事裁判を起こせるように

[4E2-OS-7a-01] (OS招待講演)犯罪捜査支援のための犯罪者プロファイリング、その方法論の変遷と機械学習の展開

〇財津 亘1(1. 富山県警察本部刑事部科学捜査研究所)

  • 警察の組織:刑事部
    • 科学捜査研究所:法医(DNA,顔画像),化学(薬物),物理(火災,交通事故),文書心理(筆跡,プロファイリング,偽札,嘘発見器)
  • 専門:犯罪心理学,捜査心理学,認知心理学,精神生理学
  • 著書『犯罪捜査のためのテキストマイニング』『犯罪者プロファイリングにおけるベイズ確率論の展開』
  • プロファイリング
    • 統計データや心理学的手法で,犯行の連続性,犯人の年齢層,生活様式,職業,前歴,居住地などの推定や,次回の犯行予測
    • 依頼数は500件ぐらい,事件数では1000
    • 1994年に公式に研究開始,2000年に北海道で実務開始
    • 犯人を特定するものではない → 捜査効率を上げ,早期検挙が目的
    • 特異な事件に限らず,連続放火や連続窃盗に有効
    • 犯人像の推定:既知の犯罪行動 → 未知の犯人の属性を推定
  • FBI以前(〜1970年)→ 体系的ではなかった
    • 切り裂きジャック事件:トーマス・ボンドによる分析
    • マッドボンバー(米,1940-50),ジェームズ・ブラッセル → 分析があたった
  • FBI以降
    • 臨床的プロファイリング(FBI方式)1970〜:性的殺人犯の類型を開発
    • 統計的プロファイリング(リヴァプール方式)1980〜:David Canter が統計分析を導入
  • FBIのプロファイリング
    • 1977年より,36人の性的殺人犯の面接調査:秩序型(被害者に類型があり,手口も一定)⇔無秩序型(被害者に類型がない)
    • 秩序型:デッド・バンディ,30人を殺害,被害者の前で障害者のふりをして誘うなど狡猾さ
    • 無秩序型:リチャード・トレントン・チェイス,6人を襲う,薬物中毒
  • 臨床的プロファイリング
    • 面接の技術の個人差,回答の信頼性,類型が恣意的で曖昧,科学原則(実証性や再現性),分析者に属人的,推定された犯人に当てはまるかどうか分からない,動機の分析は逮捕に役立たない
  • 多変量解析による犯人推定(架電爆破予告)
    • 犯行曜日,犯行時間帯,予告対象,架電先,金銭要求,声の性別,爆弾の接地,電話種別
    • カテゴリカルPCA:2次元の分布図を描いて,類型を求める
  • 多変量解析の問題
    • 現実の様々な事件を少数の類型に当てはめるのは無理,過去の分析が未来の逮捕に役立つか
  • データの特性
    • 100件程度のデータ,多変量,カテゴリカル,欠損値がある,複数の変数が因果的・確率的に連鎖 → ベイジアンネットを利用
実務の仮想事例(似た事例)
  • 犯行
    • 複数の市にまたがる,アパート1階で,ガラスを割って,土足侵入,現金のみを奪う空き巣が5件,主に週末の犯行
    • 事件1と2は指紋が一致,2と4はDNA型が一致,3と5は足跡が一致
  • 過去の解決済み事件のデータからモデル構築
    • 事件を当てはめて,国籍,性別,年齢層,就業上程,婚姻,最終学歴,犯罪経歴,移動手段などを予測 → 捜査の優先順位をつける
  • ベイジアンネットの利点
    • 捜査員の経験や先行研究をモデル化できる
    • 事前に変数選択をしなくてよい
    • グラフで表示できるのは,捜査員に説明しやすい
    • 都道府県に依存しない分析
  • 機械学習の導入(2000年代)
  • 分析の種別
    • プロファイリング → 有効
    • ポリグラフ,筆跡鑑定 → AIは補助的

[4E2-OS-7a-02] 法律の要約のためのランダムフォレストを用いた重要文抽出

〇小川 泰弘1,2、佐藤 充晃2、駒水 孝裕1,2、外山 勝彦1,2(1. 名古屋大学 情報基盤センター、2. 名古屋大学大学院情報学研究科)

  • 法令:社会の設計図 → 法令は読みにくい・理解しにくい → 要約
    • 法令には官報に「法令のあらまし」があるが,1973年より前のものにはない,改正されたときには付かない → 法令のあらまし のあるものを使って要約を行う
  • 各文が重要かどうかの分類器を利用 → ランダムフォレストを採用

[4E2-OS-7a-03] AIによる立法支援システム

〇角田 篤泰1(1. 中央大学)

  • 法令:中央官庁の官僚の他に,自治体職員も条例・規則を作る → 自治体職員は法律の専門家ではないことも → IT技術による支援
  • 立法過程はソフトウエア開発プロセスは似ている → アジャイルの一つ類推型の開発と同様に,類似した条例を探してくる
  • eLen条例DB:9割の自治体の全公開例規を収集して検索できるように,類似例規を比較できる
  • 共通部分をテンプレートとし,違う部分を各自治体で選べるようにして条文を作れるように

[4E2-OS-7a-04] AI裁判支援システムへの人々の期待と受容

〇太田 勝造1(1. 東京大学)

  • 裁判の構成要素:事実認定 → 法規範の法律要件への当てはめ → 法的推論
    • 事実認定:ある証拠方法があると主要事実という経験則で決まる
    • 当てはめ:法があって結論が決まるのと,結論があって法と結び付けるのの混合で行う
    • 法的推論:記号的推論そのもの
  • 難しさ:法的当てはめは,判例には相互矛盾や誤りもある
  • レベル3と5の自動運転について,日英米瑞でアンケートした結果,日本は期待も不安も強い
  • AI裁判についてのアンケート → AI裁判の受容は低い

[4E3-OS-7b] AIの法学の応用(2)

[4E3-OS-7b-02] 司法試験の問題分類と法律文書における人物関係の構造化辞書

〇清田 直希1、狩野 芳伸1(1. 静岡大学)

  • 人物関係抽出:条文中の複数の人物間の立場や役割を明確に
  • 人物役割付与:人物がどのような特徴があるか(未成年,買主,債務者など),甲やAなどに置き換わるので難しい
  • 人物関係を抽出するための辞書を作成した

[4E3-OS-7b-01] 司法試験自動解答における論理型言語PROLEGルール生成のための過去問分析と設計

〇林 隆児1、狩野 芳伸1(1. 静岡大学)

  • PROLEG:Prologを用い,民法・判例によるルールベースと,事件の事実のファクトベースから法的推論を行う
  • 自然言語の司法試験問題文から,ルールベースの該当するルールを特定し,ファクトベースの定数を定める問題

[4E3-OS-7b-03] 法律構成を表す双極議論フレームワーク上での推論

〇川﨑 樹1、森口 草介1、高橋 和子1(1. 関西学院大学)

  • 双極議論フレームワーク(BAF):発言間の攻撃関係と指示関係を示す.論証,攻撃関係,支持関係はそれぞれ集合で表現.

[4E3-OS-7b-04] 機械学習による裁判の裾野拡大の試み

〇川本 達郎1、靖本 真未1、本村 陽一1(1. 産業技術総合研究所)

  • 民意で法律を決められるか? → 回答者次第
  • 投票クラスタリング:選択式回答と自由記述回答の両方ができてNLP技術を使って,クラスタリングを行う
  • 離婚時の親権問題についてアンケートを実施
    • 状況の相談者が専業主婦と専業主夫で大きく回答に差があった

[4E3-OS-7b-05] 刑事訴訟版のPROLEGの開発

〇佐藤 健1、西貝 吉晃2(1. 国立情報学研究所、2. 日本大学)

  • PROLEG:原則と例外に基づく知識表現言語,大陸法を念頭においた表現,判決推論の段階をサポート
    • 原則・例外で記述したルールベースと,実際の事件の事実を記した事実の記載
  • 例外事由があるとき,証明責任が被疑者と検察のどちらにあるかなどの扱いがある
  • 法令に記述されていない要件が存在する → 教科書などから別途抽出する

トップ   編集 凍結 差分 バックアップ 添付 複製 名前変更 リロード   新規 一覧 単語検索 最終更新   ヘルプ   最終更新のRSS
Last-modified: 2019-06-07 (金) 15:34:44 (73d)