×
ソフトウェア

Amazonの極秘AIツールが「女性蔑視だった」といった訳で破棄されていたことが判明

by geralt

Amazonが「就任望み者の履歴書をAIで評価行う」といったシステムをひそかに開発していたものの、AIが男性を嗜好、女性を就任に不儲けなように評価行うことに、ツールを破棄していたことが判明しました。

Amazon scraps secret AI recruiting tool that showed bias against women
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

Amazon reportedly scraps internal AI recruiting tool that was biased against women - The Verge
https://www.theverge.com/2018/10/10/17958784/ai-recruiting-tool-bias-amazon-report


Amazonの器械勉強のプロチームは2014年、才能のある人材を探しだすのに、履歴書に就任望み者を評価行うアルゴ律動を作成しました。Amazonからみて「自動化」は非常に大事な因子であるのに、人材雇用にあってもAIによる自動化を行うこといったのは、ごく天然な流れだったといいます。

しかし、この「履歴書に自動的に才能あるトップ5%を選んでくエる」といった採用受け持ち者に行うと夢のようなアルゴ律動が、「女性毛嫌い」であることが2015年に判明しました。ソフトウェア開発者を始めと行う技能的なポストにあって、Amazonのシステムはジェンダーの点で中立ではなかったとのこと。

AIシステムが女性毛嫌いになってしまった訳は、Amazonのコンピューター?モデルがいにしえ10年間の履歴書パターンで勉強を行っていたのに。いにしえ10年、テクノロジー事業では男性が統治的でした。


Amazonのシステムは男性の候補者を嗜好、「女性チェスクラブの主将」といった「女性の」といった言語を収める履歴書を不儲けな立つ瀬に置いていたとのこと。再び、実態に通じていり付ける人のインフォメーションに、女子大学び舎を修了した候補者を低く評価していたことも判明しています。

Amazonは特定の言語に対して中立になるようプログラムを編修しましたが、システムが他の方法で候補者を差別的に取り扱う蓋然性があると考えられました。そののに、2017年初頭にチームは散会。2018年現在、Amazonは採用を行う時にAIツールで作られた「おすすめ」を確認しますが、ランキングのみに縋ることいったのはぬとのことです。

Amazonはツールの技能的課題につきレビューを出さず、「Amazonが候補者を評価行うのににこのツールを使ったこといったのは一回もぬ」と述べています。

求職インフォメーションサイトのCareerBuilderが行った2017年の調べるによると、アメリカ公企業の第三者事部マネージャーの55%が「加工頭脳/AIは5年以内に自分自身たちの仕事からみて的中前のものとなる」と考えていり付けるとのこと。しかし、コンピューター科学究のNihar Shah氏は「アルゴ律動を平等にし、事実的に解釈可能に行うにはいまだにいまだに道は遠い」と述べています。実際に、器械勉強が人の偏見を再現してしまうといった点につきは、他の科学究にも恐れの声が上がっています。

AIは人の言語に女性差別や民族差別を学び取る - BLACKBCAS

?関連雑報
Google内で「女性はコーディングに向いてぬ」といった社内文書が分有されていたことがネット上で発覚して大論争に発展 - BLACKBCAS

Googleが「女性蔑視」陳述を行った社員をクビに、GoogleのCEOに全社員へのメール本文全文をネットで公開 - BLACKBCAS

開発者が女性差別的なプレゼンを行いTwitterで炎上しカンパニーが謝罪 - BLACKBCAS

なんで女性は「慈悲奥深い性差別方針者」に魅力を印象るのか? - BLACKBCAS

女性が男性との競技に敗北るのは「女性の実像」がもとか? - BLACKBCAS

「女性科学究が少ぬ」と言わエるなかで女性究める者が統治的な科学究めるの方面がある - BLACKBCAS

AIは人の言語に女性差別や民族差別を学び取る - BLACKBCAS

Tweet

in ソフトウェア,   ネットサービス, Posted by logq_fa