記事

AIは男女平等ではない/男性の声を選ぶか女性の声を選ぶかで回答が異なるバーチャルアシスタントの例にみるステレオタイプな性差別

AI(人工知能)を駆使した、時代の先を行くバーチャルアシスタントが、実はステレオタイプな性差別を露呈しているー 南アフリカの人間科学研究評議会の専門研究員レイチェル・アダムスが『The Conversation』に寄稿した記事を紹介する。

写真:BENCE BOROS(Unsplash)

サムスンのバーチャルアシスタント「Bixby」に「下品(ダーティー)な話をしようよ」と話しかけると、女性の甘い声で「サンタさんに悪い子に思われたくありません」と返ってくる。ところが、声の設定を男性に変更して同じ質問をすると、「土壌浸食はとても深刻(ダーティー)な土壌問題だそうです」と返答が異なる。

Bixbyの他にも、アマゾンの Alexa、アップルのSiri、マイクロソフトのCortanaといった最先端のAIを活用したバーチャルアシスタントは、スマートデバイス上のアプリケーションとして機能し、自然言語処理*1 を行うことで人間の音声指示に応答し、通常なら人間が行うタスクを実行してくれる。世界的に普及が進み、UNESCOの最新報告書*2 によると、早ければ2020年にも、多くの人が自分の配偶者よりバーチャルアシスタントとより多くの会話を交わすようになるとある。

*1 人間が日常的に使用する自然発生的な言語をコンピューター処理する技術。単語の分割や、構文・文脈の解析などの過程を経る。

*2『I'd blush if I could: closing gender divides in digital skills through education』2019年発行

しかし、私が英ロンドン大学情報法政策センターのノーラ・ニー・ロイディーン博士と進めている共同研究*では、AI技術がきわめて重大な性差別を露呈していることがわかってきた。

*『From Alexa to Siri and the GDPR: The Gendering of Virtual Personal Assistants and the Role of EU Data Protection Law』(2018.12.4)

初期設定では女性の名前と声で媚びた話し方をするようプログラミングされている。「女性秘書」という、往々にして“男性上司の下で働く部下” 以上のニュアンスを持つ、差別的な固定観念を再現しており、男性に従順に仕える「女性の役割」を助長しているとも言える。

Image by SCY from Pixabay

バーチャルアシスタントは、ユーザーの指示どおり従順に行動するようプログラミングされており、拒絶する権利はない。そのことからも、生身の女性もかく振る舞うべきという期待が込められていることが伺える。

予約やネットショッピングといった「単調な作業」からユーザーを解放することもバーチャルアシスタントの目的だが、それはつまり、ユーザーはより重要度が高いとされる作業に時間を割けるようになるということであり、かつては生身の女性が、そしてデジタル化が進んだこれからの時代は “デジタル化”された女性が行う「秘書的作業」が持つ価値について、大切なメッセージを発しているように思える。

女性の名前、初期設定は女性の声

こうした偏見の存在をより浮き彫りにするのが、バーチャルアシスタントにつけられた女性名だ。Siri は北欧系の名前で「勝利へと導いてくれる美しい女性」を意味を持つ。Cortanaはビデオゲーム「ヘイロー(Halo)」に登場する女性型人工知能の名前だ。女性らしさを前面に押し出した半透明の姿で、決して出しゃばらず、プレイヤーにとっては架空の助手的存在だ。

Image by Gerd Altmann from Pixabay

現在、広く利用されているバーチャルアシスタントはすべて、初期設定は女性の声で、いろんな問いかけやコメントに対応できるようプログラムされている。「どんな服を着ているの?」と問いかけると、Siriは「私が服を着ているとでも思っているのですか?」、Alexaは「だれも私に洋服を作ってくれないのです」、Cortana は「エンジニアが見つけてくれたちょっとした服です」と応じる*。

*ただし、日本の編集部のiPhoneで試したところ、日本語でも英語でも「昨日と同じです」「クラウドの中では着ているものを気にする人などいないですよ」という答えだった。

Bixbyは設定言語によって声や話し方が異なる。「アメリカ英語」を選ぶと、ジュリア、ステファニー、リサ、ジョンの選択肢があり、女性の声は色っぽくてサービス精神旺盛な雰囲気だが、男性はマジメそうな、どちらかというと単刀直入な話し方をする。

原因は男性主流のAI業界にあり?!

AIに「人種」と「ジェンダー」の面で偏見的な側面があるという認識は、少しずつ広まってきている。アマゾン社が開発をすすめていたAIを活用した人材採用システムは、応募書類を選別する際に、「女性」や「女子大」という言葉が含まれている履歴書を低く評価していたことが明らかになった*。これはアルゴリズムを組み込む際に、男性を優先的に採用していた過去データを使ったためで、結局これは修正することができないため、システム開発自体が中止に追い込まれた。

*https://www.businessinsider.jp/post-177193

AI製品を設計する際に、いかにしてジェンダーの固定的役割が組み込まれるのかについては、あまり知られていない。

AIの社会的影響を調査する研究機関「AI Now Institute」の2018年度研究報告書によると、AI業界が男性主流であること、システム開発チームに女性が少ないことが大きく関係しているのではないかとみている。その関連性を可視化し、文化的または技術製品における女性の描かれ方と、現実世界での女性の待遇の関連性を指摘するのは、われわれ研究者の仕事だ。

AIは「第四次産業革命」をリードする技術で、バイオ技術からAI、ビッグデータに至るまで、大きな技術的進歩をもたらし、世界のあり方を急ピッチで変えようとしている。大きな変化を生み出すこのテクノロジーが、女性性に及ぼす影響を十分に考慮することは、今後ますます重要になっていくだろう。

By Rachel Adams(南アフリカの人間科学研究評議会所属の専門研究員) Courtesy of The Conversation / INSP.ngo

*ビッグイシュー・オンラインのサポーターになってくださいませんか?

ビッグイシューの活動の認知・理解を広めるためのWebメディア「ビッグイシュー・オンライン」。

上記の記事は提携している国際ストリートペーパーの記事です。もっとたくさん翻訳して皆さんにお伝えしたく、月々500円からの「オンラインサポーター」を募集しています。

ビッグイシュー・オンラインサポーターについて

関連記事

自動運転車の実用化に向けた技術的・倫理的・社会的課題とは
→「自動運転」といえど、「飛び出す子ども」と「乗客」と「他の車の運転手」が危機にさらされている場合、誰を優先するかというプログラムを組むのは人間ー。

AI化が進む世の中で必要なのは「合意形成力」を育む教育-平田オリザさんの講演&「コミュニケーション教育」体験ワークショップより
→「人間がやらなくてはならない、人間に残る仕事」とはどのようなもので、それにはどのような力が求められるようになり、その力はどのような教育により身につくようになるのか。

“移民のせいで失業”を心配するより、いま検討すべきはロボティクス・オートメーション化による単純労働者の失業インパクト

あわせて読みたい

「AI」の記事一覧へ

トピックス

ランキング

  1. 1

    菅首相に見る本読まない人の特徴

    山内康一

  2. 2

    パワハラ原因?オスカー崩壊危機

    渡邉裕二

  3. 3

    公選法に抵触 毎日新聞の終わり

    青山まさゆき

  4. 4

    進次郎氏の発言に専門家「軽率」

    女性自身

  5. 5

    都構想反対派が自壊 主張に疑問

    青山まさゆき

  6. 6

    TBS番組が伊藤健太郎逮捕で誤報

    女性自身

  7. 7

    相次ぐ「GoTo外し」観光庁に疑問

    木曽崇

  8. 8

    任命拒否 提訴できず手詰まりか

    文春オンライン

  9. 9

    橋下氏 毎日新聞のご飯論法指摘

    橋下徹

  10. 10

    都構想 水差したマスコミに苦言

    音喜多 駿(参議院議員 / 東京都選挙区)

ランキング一覧

ログイン

ログインするアカウントをお選びください。
以下のいずれかのアカウントでBLOGOSにログインすることができます。

コメントを書き込むには FacebookID、TwitterID のいずれかで認証を行う必要があります。

※livedoorIDでログインした場合、ご利用できるのはフォロー機能、マイページ機能、支持するボタンのみとなります。