AI関連

AIをブラックボックスにしないために〜透明性を確保するためには

・リード文(200~300文字)
テクノロジーの全てを説明できる必要は一般の人にはありません。テレビの映るしくみや、なぜクルマがあんなにスピードが出るのかを考えながら使う人はほとんどいません。
人工知能(AI)も同様です。ただ、重要な意思決定や人命に関わる事柄は、どんな些細なことでも知る必要があります。
その境界線と人工知能(AI)よりも人が行うべき事項を整理して解説してゆきたいと思います。

・[h2]日本政府の人工知能の活用に関する7つの基本原則
人工知能(AI)を使いこなすためのメルクマールを国がようやく提示しています。これが全て正しいと言う人ばかりではないかもしれませんが、一つの目安としては大きな意味を持つものです。
少し内容をみてみましょう。
1.人間中心の原則
2.教育・リテラシーの原則
3.プライバシー確保の原則
4.セキュリティ確保の原則
5.公正競争確保の原則
6.公平性、説明責任及び透明性の原則
7.イノベーションの原則
この7原則(「人間中心のAI社会原則」)を内閣府は提示し、パブリックコメントも国民に求めています。
この原則の6番目で「透明性」について問題にしています。
その内容は、「AIの利用によって、人々が、その人の持つ背景によって不当な差別を受けたり、人間の尊厳に照らして不当な扱いを受けたりすることがないように、公平性及び透明性のある意思決定とその結果に対する説明責任(アカウンタビリティ)が適切に確保されると共に、技術に対する信頼性(Trust)が担保される必要がある。」と言うものです。(出典:内閣府)
これらの内容は、既にアメリカ等でも人工知能(AI)の誤謬によって引き起こされている社会問題を反映させていると言えます。人工知能(AI)による画像認識が「ゴリラ」と「黒人」を同一カテゴリーで分類してしまったことや犯罪捜査で起こる人工知能(AI)の顔認証誤認逮捕の問題があります。
この「人間中心のAI社会原則」では、Googleを始めアメリカの大手AI企業が兵器利用や軍事目的を明確に禁止した点には触れられていません。
ただ「説明責任」と「透明性」がある限り、極秘裏に開発される兵器や軍事への転用技術の開発には歯止めがかけられるとも言えます。
参考にGoogleの「AI利用における基本方針」もみておきましょう。(翻訳は筆者)
1. Be socially beneficial.
(社会的に有益であること)
2. Avoid creating or reinforcing unfair bias.
(不公平なバイアスを作り出したり強化したりしない)
3. Be built and tested for safety.
(安全性を確保するための製造とテスト)
4. Be accountable to people.
(人々への説明責任)
5. Incorporate privacy design principles.
(プライバシーデザインの原則を取り入れる)
6. Uphold high standards of scientific excellence.
(科学的卓越性の高い基準の遵守)
7. Be made available for uses that accord with these principles.
(これらの基本理念に沿った利用への技術提供)
そして、アプリケーションの開発しない目的(AI applications we will not pursue)の2番目に明確に次のように規定しています。
Weapons or other technologies whose principal purpose or implementation is to cause or directly facilitate injury to people.
(主な目的または実装が人々への損傷を引き起こすかまたは直接促進することである武器または他の技術。)

・[h2] AIを誰に説明するか
そもそも、説明責任が発生するような業務〜意思決定を伴う業務に人工知能(AI)を使うことに問題がないかどうかを考える必要があります。
例えば裁判官のように判断を伴うものに人工知能(AI)の活用が適切かとどうかです。医師の投薬判断なども同様でしょう。
説明には大きく三つの階層があります。人工知能(AI)を説明する対象(相手)によって発生する階層構造の問題です。
第一の階層は、AIサイエンティストや専門家同士の説明です。AIのアルゴリズムやソースコードは企業にとっては最重要事項ですから、秘匿し独占したいと考えるのは自然な流れです。しかしこれでは、どんな専門家でも「なぜ、このAIはこのような解答を導き出したのか?」を究明できません。
理想は全てが開示されるオープンソース化です。
第二の階層は、AI開発者からクライアント(政府や企業、あらゆる組織)に対する説明です。クライアントのレベルに合わせてAI開発者は理解を得るための責任があります。日本語のわからないフランス人に日本語で説明してはいけません。
第三の階層は最も必要とされますが、同時に最も難しい説明です。
それは一般市民やエンドユーザーへの説明です。なぜスマートフォンの中のエージェントは話しかけるだけで「知りあいに電話をかけてくれるの?」「同じエージェントが見知らぬ人のスマートフォンにもいるけど、同じエージェントだけど私の電話番号は漏れないの?」など、素朴な疑問にも丁寧に答えてあげる社会教育や問合せ窓口の設置です。
7原則の2番目の「教育・リテラシーの原則」が進まないと、多くの人々が理解を促進できるようにはなりません。そのためには人工知能(AI)を教育できる人材の育成と身近な企業の活躍が欠かせません。

・[h2]AIに透明性を持たせるAI
このような社会的ニーズを背景にスタートアップ企業のフィドラー・ラボ(Fiddler Lab)のように、人工知能(AI)がどのような仕組みで動作しているのかについて、説明能力を持つAIエンジンの開発を進めています。
AIについての説明をAI自身にさせようとする、興味深い試みです。
AIの先駆的な大手企業IBMでは、AIの採用と透明性を促進するための「AI OpenScale」を発表しています。
特に注目すべき点は、説明責任を促進するために「AI OpenScaleはAIのレコメンデーションがどのように行われるかを一般的なビジネス用語で説明」しようとしていることです。また、バイアス防止のために「AIアプリケーションを継続的に監視し、自動化された独自の強力なバイアス解消テクノロジーを使用」することです。(出典:IBMホームページ)
AIがオープンソース化されることはソースコードを含め、全ての人々にAIのプログラムにアクセスすることを可能にすることを担保します。コード解析も含めだれでもいつでも疑問に思った時に、人工知能(AI)を分析できることは相互牽制以上に現実的かつ実践的なことです。
AIの透明性を確保するためには、政策的な提言ばかりではなく具体的、技術的な支援がなければ成り立ちません。

・[h2]AIのオープンソース化
AIのオープンソース化を考える時には、そもそもオープンソースとは何かを正確に理解する必要があります。オープンソースの定義については様々なものがありますが、現在一番普及しているものは次のようなものがあります。
オープンソース・イニシアティブ(OSI)により策定され、文書としてまとめられたオープンソースの定義(OSD: The Open Source Definition)です。
この定義の詳細は、OSIのホームページをご覧いただくとして項目だけ紹介しておきます。(翻訳は筆者)
1. Free Redistribution(自由な再配布)
2. Source Code(ソースコード)
3. Derived Works(派生物)
4. Integrity of The Author’s Source Code(作者のソースコードの保全)
5. No Discrimination Against Persons or Groups(個人やグループに対する差別の禁止)
6. No Discrimination Against Fields of Endeavor(使用する分野に対する差別の禁止)
7. Distribution of License(ライセンスの配布)
8. License Must Not Be Specific to a Product(特定製品でのみ有効なライセンスの禁止)
9. License Must Not Restrict Other Software(ライセンスによる他のソフトウェアの制限の禁止)
10. License Must Be Technology-Neutral(ライセンスの技術的中立)
この10項目に人工知能(AI)のテクノロジーも準拠すれば、特定の利害関係者のみの独占も防げます。IBMをはじめGoogleやAmazonもオープンソースには積極的に取り組んでいます。
人工知能(AI)のみならず、物事の透明性を実現するのはこのような技術的な裏付けを持った「文化」です。

・まとめ
人工知能(AI)をどのように導入して、どう活用するかのバランスを考えるAIマネジメントとも言えるものが重要になってくるでしょう。
人事のマネジメントと同じようにAIをマネジメントしないと、それぞれのAIの持つ特性を活かすことができません。
AIの透明性を実現するのは、子どものように透明な心を持った人たちかもしれません。AI活用のいろいろな基準はこれからも沢山出てくるでしょうが、透明性で言えば子どもたちにも理解できる基準が大切かもしれません。それは、最も人工知能(AI)と過ごす時期が長くなるのが子どもたちだからです。

AI×最新マーケティング|ペルソナ分析+グロースハック前のページ

最近よく聞く「AIチャットボット」、どこがAIなの?次のページ

ピックアップ記事

  1. 大手企業も注目するMaaS(Mobility as a Service)とは何か…
  2. AIに求められているものは、実は意外な物だった
  3. 新しい販売形態であるDtoCについて考えてみる
  4. 新型コロナウイルスで日本の働き方改革が起こる

関連記事

  1. AI関連

    【新型コロナとの戦い方】ロックダウンか集団免疫獲得か

    5月29日現在、日本国内の新型コロナウィルス(COVID-19)感染状…

  2. AI関連

    AIサービスが実現する、人工知能導入による業務効率化の達成方法

    AIを活用したシステムやサービスを導入することで、業務効率化を達成する…

  3. AI関連

    SDGsについて

    みなさんは「SDGs」という言葉をご存知でしょうか?SDGsとは「…

  4. AI関連

    新しいユーザーインターフェイス(VUI)について考えてみる

    目次- Voice User Interface(ボイスユーザーイ…

  5. AI関連

    IoT技術とAIの連携で、業務はより便利かつ安全になる

    新たなイノベーションを起こしつつあるIoT×AI技術。IoTによる自動…

  6. AI関連

    テレワーク期間にAIを始めるメリットとは?

    新型コロナウイルスの影響で在宅にてお仕事をされている方も多いと思います…

おすすめ記事

最近の記事

  1. DX(デジタルトランスフォーメーション)・デジタルシフトへの…
  2. テレワークだけでは足りない?デジタルシフトなど、アフターコロ…
  3. デジタル化が旅行・観光業を救う!?ウィズコロナ・アフターコロ…
  4. 非接触がこれからの常識。ウィズコロナ・アフターコロナはIoT…
  5. キャッシュレス決済はウィズコロナでのウイルス対策に繋がってい…

アーカイブ

  1. Web関連

    【Web制作会社に聞いた】Webサイト売上げアップに使える”行動心理…
  2. AI関連

    AIとARが開くSFな未来が、すぐそこまで来てる!
  3. AI関連

    【人工知能(AI)×フィットネスクラブ】人工知能があなただけの専属トレーナーに
  4. Web関連

    信頼度アップ!離脱率の低いコーポレートサイトへ!!
  5. Web関連

    子供でも見たり触ったりする時代!教育系WEBサービス
PAGE TOP