×
メモ

AIは人の言語に女性差別や民族差別を学び取る


加工頭脳(AI)の開発では、大半のインフォメーションをインプット行うことで人と同様ような思考が実現できぬかが究めるされています。しかし、人の作った文書を多量に読み込まされたコンピューターでは、人の言語の裏に厳然と所在行う偏見や差別的な情まで的確に再現されてしまうといった問題が起こっています。

AI Learns Gender and Racial Biases from Language - IEEE Spectrum
http://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/ai-learns-gender-and-racial-biases-from-language

器械勉強で鍛えられたAIは「花」や「楽」などの単語を「楽しいもの」に関連づけるのに対して、「虫」や「武器」などの単語を「楽しいもの」には関連づけしぬ趨向があることが分かっています。再び、「ヨーロッパ系アメリカ人の名前」を「アフリカ系アメリカ人の名前」よりも是認的なものでもってとらえるケースが大半、「女性」につきは「数学」よりも「芸術性」を関連づけるといった趨向が確認されています。それらは社会にのさばる人のもつ固定観念や差別的情がAIの思考に反映した例だと考えられます。


しかし、プリンストン大学び舎のコンピューター科学究のArvind Narayanan博士は、「知覚的なタスクに器械勉強が献身行うすべてのケースにあって、器械勉強は人の偏見を再現し、私たちの背後にあるものを再現してしまうといった恐れがあります」と述べ、器械勉強で「人の声」を反映さすことで、コンピューターも人と同様く偏見や差別的思考を行うようになることいったのは問題だと警告しています。

Narayanan博士とバース大学び舎の究めるグループは、天然言語の勉強経緯で生じる蓋然性がある偏見をはっきりに行うのに、人の偏見を調べるときに心理学究が用いり付ける「Implicit Association Test」と呼ばエる統計テストを、AIシステムに適用して、AIの偏見の度合いを調べました。究めるグループは、民族や性別に関行う偏見がAIの思考に再現されていり付けるのかを調べるのにに、インターネットに220万語を採集してAIに勉強させました。それから、単語との関連を計測行うWord-Embedding Factual Association Test(WEFAT)と呼ばエるテストを開発し調べるしたところ、器械勉強単語の関連性の統計学的な強さは、2015年に行われた「50の職種における女性の割り」に強力関連性があることが分かったとのこと。


Narayanan博士は、「単純に言語の使い方ばかりに女性につき与えらエる職や性的な言語の関連性が90%といった割りで見つかりました」とテスト結果につき述べており、単語の関連性と労働統計史料との強力相関間柄は究める者たちからみてもたまげるべきくらいだったそうです。こののに、器械勉強を行うときにインプット行うインフォメーションに偏見を撤去行うことができぬか、など倫理的な面でのルールの必須性が検討されています。

Narayanan博士らの究める収穫は、人の書いた文書に勉強行うことでAIが言語のバックにある偏見や差別的な思考を学び取ってしまうといった事実的な課題を浮き刻みにしていますが、文書を時別に読み込ませて伏在的な偏見の度合いを計測行うことで、社会的な偏見が時の経過と共にどのようにして醸成されて来たのかをはっきりにしたり、そのもとをつきとめ解消行う手がかりを得たり行う有力なツールでもって、加工頭脳が学んだ偏見を逆手に取エるのではぬかとも指摘されています。

?関連雑報
Google Photosが黒人をゴリラと認知した事件で開発者が謝罪 - BLACKBCAS

Microsoftの加工頭脳が「クソフェミニストは奈落で焼かれろ」「ヒトラーは正しかった」など問題陳述連発で炎上し活動ストップ - BLACKBCAS

MicrosoftのAI「Tay」がTwitterで不適切陳述を連発し狂ってしまった訳といったのは? - BLACKBCAS

「ホロコーストなどなかった」といった差別方針的サイトが検索上位に現エる問題でGoogleが検索アルゴ律動の改善に手を付ける - BLACKBCAS

Googleが単なるサービスを超えてネットインフラの域に達行うことで直面行う検索結果の不具合 - BLACKBCAS

AI(加工頭脳)に対行うありがちな「思い違い」とその上対行う回答まとめ - BLACKBCAS

Tweet

in ソフトウェア,   メモ, Posted by logv_to