コラム TAKESHITA SANGYO

インフォメーション

個人情報の管理や決定過程の説明責任をルール化【AIに関する7原則】

2018.12.17

2195f3f61b37d3ea8f175988c003a588_s

竹下産業株式会社、広報の一ノ瀬です。

AIに関する7つの原則というのをご存知ですか?

先日、経済新聞でも一面で取り上げられていましたが、
今後、企業で情報処理を人工知能(AI)に任せる機会が増えることが予想される中で、
『なぜそういう判断に至ったのか』という過程がわからなくなってしまうことも考えられます。

金融機関がが融資を選択した基準や、就職の合否をどう決めたのか?

『AIがそう判断したからです!』では、不安や不満の種になりかねません。
そういった状態を防ぐために政府がまとめたもので、以下のような内容となります。

  • AIは人間の基本的人権を侵さない
  • 誰もがAIを利用できるよう教育を充実
  • 個人情報を慎重管理
  • AIのセキュリティーの確保
  • 公正な競争環境の維持
  • AIを利用した企業に決定過程の説明責任
  • 国境を越えてデータを利用できる環境を整備

決定理由をわかりやすく伝えることを責務として企業に追わせることにより、
AIが判断したことに対する責任を最終的には『人』が持つ仕組みを作ったと言えます。

インターネット上では賛否両論あるようですが、私個人の感想を述べさせていただけば、
バナー広告で良く見かける『AIに仕事を奪われる』といったような表現や、
『AIスピーカー利用による個人情報漏洩に60%以上が危機感を持っている(2018年2月度/株式会社ジャストシステム)』という調査結果を鑑みれば、
消費者の不安を緩和するには必要なルールではないかと思います。

AIの進歩や普及については今後も興味深いところですが、
皆様は今回のAIに関する7原則についてどうお感じになられますか?

機密情報処理、個人情報についてご不明なことは、タケシタがご相談承ります。
まずは下記お問合せフォームからお気軽にお問合せ下さいませ。
https://www.r-station.co.jp/contact

2195f3f61b37d3ea8f175988c003a588_s

この記事に共感していただけましたら​
シェアをお願いします。​

タケシタの公式Facebookにいいね!する​