記事
- 2019年11月08日 08:14
AIは男女平等ではない/男性の声を選ぶか女性の声を選ぶかで回答が異なるバーチャルアシスタントの例にみるステレオタイプな性差別
AI(人工知能)を駆使した、時代の先を行くバーチャルアシスタントが、実はステレオタイプな性差別を露呈しているー 南アフリカの人間科学研究評議会の専門研究員レイチェル・アダムスが『The Conversation』に寄稿した記事を紹介する。サムスンのバーチャルアシスタント「Bixby」に「下品(ダーティー)な話をしようよ」と話しかけると、女性の甘い声で「サンタさんに悪い子に思われたくありません」と…



