人工知能(AI)アルゴリズムの訓練に使われたデータが、男性の就職希望者を優遇する傾向を生んだ。
2018年10月11日 10時24分
http://ascii.jp/elem/000/001/755/1755527/

システムは意図せずして、男性志願者を女性志願者よりも優先して選ぶように訓練されていた。
報道によれば、「女性の」という言葉や、特定の女子大学の名前を含む履歴書を減点するようになっていた。
アマゾンは、システムがこれらの条件を中立なものとして判断するように変更を加えたものの、
プログラムが他のあらゆる分野において本当に性別に対する偏りがないか、自信を持てなくなったという。

私たちはAIを本質的にバイアスがないものとして扱うことはできない。バイアスのあるデータでシステムを訓練すれば、アルゴリズムもまたバイアスを含むことになる。

アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
https://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN