記事

「AIと倫理」は企業の経営課題。 弁護士が強調する意味は

1/2

AIが社会にもたらす影響は、法律や政策にとどまらず、倫理規範などにも及びます。AIを開発、実装する企業は、データとどう向き合うべきなのでしょうか。

AI関連のビジネスと法務に詳しい三部裕幸弁護士は、「AIと倫理」の問題に対応していない企業は「抱えるリスクがどんどん大きくなっていく」と警鐘を鳴らします。

きょうは「AIと倫理」というテーマでお話します。ポイントは、次の3つです。

1. 「AIと倫理」=経営課題 
2. 国内外で「AIと倫理」を尊重する動き 
3. 「AIと倫理」について企業での取組が必要 


1. なぜ「AIと倫理」が経営課題なのか

「AIと倫理」と聞くと、善意での活動であって、経営とは無関係だと思われがちですが、全くそうではありません。企業の経営陣が真剣に取り組むべき課題です。

まず、なぜ「AIと倫理」が経営課題になるのか、その理由を述べます。弁護士の私が「AIと倫理」を語ることに違和感をもつ方も多いと思います。私自身も「AIと倫理」について活動することになるとは夢にも思っていませんでした。

欧州4カ国での調査について



このテーマに関わるようになったのは、2016年、総務省「AIネットワーク社会推進会議」の参考に供するため、AIと法律、あるいはAIと技術動向について、欧州を訪問して実地でインタビュー調査や情報収集をしてきたことがきっかけです。イギリス・ルクセンブルク・ドイツの大学・研究機関・企業・法律事務所等を訪問してお話を伺いました。さらに2018年にも同会議のメンバーとしてイギリス・ドイツ・フランスを回り、現地のAIネットワークに関する法制や動向について調べました。

AIに関する調査でしたので、テックドリブンな話になるだろう、仮に法律の議論になるとしても技術寄りの話になるだろうと予想していました。しかし、全然そうではなかった。


話を聞いた4カ国の研究者や企業の方々、法律家は、文字通り口をそろえてこういいました。

「日本が、どれだけ優れた技術力を駆使してAIの製品・サービスを作っても、倫理(Ethics)を考慮しないとEUでは受け入れられないリスクがある。日本の方々にそう伝えてほしい」

日本と共同研究や意見交換をすすめている機関の中には、「日本側と話すと技術やサービスについてはやりとりできるけれど、『AIと倫理』の観点がまったく出てこない。一緒に研究やビジネスをするのは正直、心配な面もある」という印象を抱いているところもありました。

つまり日本企業にいくら優れた技術などがあっても、日本企業が創り出すAIの商品やサービスがEUで広く受け入れられている「倫理」を考慮していないと、EUではその商品やサービスが売れない、受け入れられないという恐れがある。EUの企業や研究機関から見れば、日本と一緒にビジネスをしても大丈夫だろうかと感じてしまう。だから、「AIと倫理」についてのEUの考え方を日本の人々に伝えてほしいと頼まれたのです。

「AIと倫理」というテーマにおける「倫理」 (Ethics)という概念の幅広さ


では、ここでいう「倫理」 (Ethics)とはどんなものでしょうか? 現在「AIと倫理」というテーマで議論されているのは、いわゆる倫理学上の倫理とは異なるものです。また、AIとの関連での「倫理」について、定説的に通用するような学問上の定義があるわけではないと思います。現在議論されていることの共通項を私なりにまとめると、「倫理」とは「人類が長い歴史の中で営々と築き上げてきた大事な価値観」となると思います。

具体的には、人間性の保持やプライバシーの保護、平等、安全性の確保などです。たとえばAIに過度に依存すると人間性が失われてしまわないか、という懸念についてさまざまな業界・機関・団体等で議論され始めています。

また、データの漏えいやプライバシーの侵害も懸念されていますし、チャットボットが差別的な発言をしないか、スコアレンディングでAIが人間では思いつかないような情報や要素をもとに不当な貸付け拒否をしないか、といったAIによる新たな差別なども懸念されています。

安全性に関しては自動運転の車が実証実験中に人をはねて死なせた事例がすでに起きています。AIの透明性ないし説明可能性やセキュリティなども、「AIと倫理」というテーマで語られることが増えています。

典型的なのが4月8日、EUから確定版が公表された「信頼できるAIのための倫理ガイドライン」です。この中には、「倫理」と聞いて想像するよりかなり広い要素が含まれ、なおかつ先ほど述べた大事な守るべき価値観が盛り込まれていました。

この後で述べる国内外での一連の動きで共通するのは、「けしからんから規制をかけたい」という議論ではなく、この大事な価値観をみんなで守っていこう、その方がAIの発達に資するから、という考え方です。

「AIと倫理」を尊重しないと、法的リスクが生じる。

こうしたAIでの倫理という分野に、なぜ私のような弁護士が入っているのか。理由は、たとえばプライバシーが侵害されたり安全性が守られなかったりといった、倫理が尊重されない事態、あるいは侵害されるような事態では、法的なリスクが発生するからです。

たとえば、自動運転の車にはねられた被害者から損害賠償請求の裁判を起こされたり、その事故のために刑事罰や行政罰を企業や関係者が受けたりすることは、十分想定されます。また、AIを利用した画像分析などにより許容限度を超えてプライバシーを侵害された人、情報を漏洩された人などからクレームなどを受けることで、ビジネスが阻害されるかもしれない。ひいてはレピュテーションリスクにつながって事業そのものが続けられなくなることも十分考えられます。

これらのリスクを考えると、「AIと倫理」は、善意で行うような事項ではなく、企業のトップをはじめとする経営陣が率先して取り組むべき経営課題だということは明らかです。

あわせて読みたい

「AI」の記事一覧へ

トピックス

ランキング

  1. 1

    沢尻容疑者甘やかされた芸能生活

    渡邉裕二

  2. 2

    日本の金継ぎがイギリスで大流行

    幻冬舎plus

  3. 3

    飲食業成功は簡単 堀江氏正論か

    メディアゴン

  4. 4

    「桜を見る会」はちっぽけな問題

    小林よしのり

  5. 5

    沢尻容疑者の裏に反社会的勢力か

    tokyo editor

  6. 6

    中国ばかり人権問題で責める日本

    六辻彰二/MUTSUJI Shoji

  7. 7

    GSOMIA破棄目前 韓国に奇策も

    文春オンライン

  8. 8

    山本太郎現象で済まぬれいわ躍進

    田中龍作

  9. 9

    野党は桜を見る会叩く暇あるのか

    自由人

  10. 10

    桜を見る会に立件できる証拠ない

    早川忠孝

ランキング一覧

ログイン

ログインするアカウントをお選びください。
以下のいずれかのアカウントでBLOGOSにログインすることができます。

コメントを書き込むには FacebookID、TwitterID のいずれかで認証を行う必要があります。

※livedoorIDでログインした場合、ご利用できるのはフォロー機能、マイページ機能、支持するボタンのみとなります。