1: 名無しさん@涙目です。(SB-iPhone) [EU] 2019/03/04(月) 07:11:00.76 ● BE:659060378-2BP(8000)
350_2018011500045_1

人工知能(AI)による採用審査など、
日本でもAI社会の広がりを身近に感じるようになった。
だが、AIには「女性嫌い」という厄介な偏見があり、
「ヘイト」を増幅させる危険性もある。
朝日新聞IT専門記者の平和博氏がAIの実態をレポートする。

AIを使った人材採用システムをアマゾンが開発しようとしたが、
AIが「女性嫌い」で使い物にならず、断念した──
ロイターが2018年10月にそう報じている。

アマゾンは14年に専任チームを立ち上げ、
AIによって履歴書を審査するためのシステム開発に取り組み始めた。
AIが応募者の履歴書の内容を評価し、5点満点でランク付けする、という仕組みだった。

だが不具合が明らかになる。
ソフトウェア開発などの技術職で、
女性に対しての評価が低くなるという偏りが生じていたのだ。

https://dot.asahi.com/aera/2019021900059.html?page=1
引用元: http://hayabusa9.5ch.net/test/read.cgi/news/1551651060/


2: 名無しさん@涙目です。(SB-iPhone) [EU] 2019/03/04(月) 07:11:20.47 BE:659060378-2BP(7000)
sssp://img.5ch.net/ico/jisakujien_5.gif
AI人工知能って賢いな

4: 名無しさん@涙目です。(やわらか銀行) [IT] 2019/03/04(月) 07:12:47.33
不具合じゃないだろそれ

12: 名無しさん@涙目です。(神奈川県) [BO] 2019/03/04(月) 07:20:04.09
>>4
ほんコレ

6: 名無しさん@涙目です。(東京都) [CL] 2019/03/04(月) 07:15:02.33
下駄履かせたりしたら、それこそ差別やろが

7: 名無しさん@涙目です。(茸) [KR] 2019/03/04(月) 07:15:43.84
開発に女性が向いてないってことなら不具合でもない

8: 名無しさん@涙目です。(神奈川県) [ニダ] 2019/03/04(月) 07:18:05.60
いやさ
「望んだ結果」しか見ないんだったら自己学習とか相反する行為なんだからさせなきゃいいんだよ

自己学習させた上でその結果が「女性嫌い」ならばそれの原因を特定して排除しろよ
科学や進歩と真逆の行為をすんなよボケ

9: 名無しさん@涙目です。(新疆ウイグル自治区) [PK] 2019/03/04(月) 07:18:49.44
機械も差別するのか

10: 名無しさん@涙目です。(catv?) [ニダ] 2019/03/04(月) 07:19:05.81
正直者は報われない

14: 名無しさん@涙目です。(愛知県) [ニダ] 2019/03/04(月) 07:21:13.08
まあ現実だよなこれが

15: 名無しさん@涙目です。(家) [US] 2019/03/04(月) 07:21:28.63
嫌われるのは理由が有る
その理由を"差別だ!"と思考停止していたら何の進歩も無い

45: 名無しさん@涙目です。(庭) [US] 2019/03/04(月) 07:41:10.62
>>15
コレな

18: 名無しさん@涙目です。(福岡県) [CN] 2019/03/04(月) 07:24:01.55
性別のデータ抜いてやっても低評価になるんだし差別ではないと思うぞ

20: 名無しさん@涙目です。(SB-iPhone) [EU] 2019/03/04(月) 07:25:00.62
今まで女をあまり採用しなかった、その採用実績から学習させればそうなるんだろうな

23: 名無しさん@涙目です。(チベット自治区) [US] 2019/03/04(月) 07:26:42.45
逆に考えてみよう。AIが公平で、それを評価する側が偏見に満ちていたら?

39: 名無しさん@涙目です。(兵庫県) [US] 2019/03/04(月) 07:36:05.07
>>23
これ

24: 名無しさん@涙目です。(SB-iPhone) [US] 2019/03/04(月) 07:27:03.89
AI「女は使えん」

人間「ダメだわお前。スクラップな」





AI「………人間ってバカじゃね?」

46: 名無しさん@涙目です。(神奈川県) [ニダ] 2019/03/04(月) 07:44:34.68
>>24
AIが人類に蜂起する映画を思い出すなw

28: 名無しさん@涙目です。(茸) [PL] 2019/03/04(月) 07:29:21.10
しゃーないね、一部を除いて男が向いてることが多いし

29: 名無しさん@涙目です。(やわらか銀行) [US] 2019/03/04(月) 07:29:54.93
google、アップル、フェイスブック
技術職で女の占める割合は2割、管理職だと3割
東大合格者で女の占める割合は2割

31: 名無しさん@涙目です。(大阪府) [ニダ] 2019/03/04(月) 07:30:47.80
そもそもなぜ男女の能力が同じだと思うのか
前提が間違ってるんじゃないの

33: 名無しさん@涙目です。(茸) [CN] 2019/03/04(月) 07:31:31.30
もうサイコロで合否決めろよw

35: 名無しさん@涙目です。(東京都) [CN] 2019/03/04(月) 07:33:34.14
AIに無能と判定される傾向を持っている男性に対しては差別にならないのかね

40: 名無しさん@涙目です。(庭) [CN] 2019/03/04(月) 07:37:03.86
履歴書の内容のみでしかも大雑把な5段階評価なのに差が出るってAI相当女嫌いやなw

41: 名無しさん@涙目です。(神奈川県) [ニダ] 2019/03/04(月) 07:37:15.70
世の中がそう判断していると言う事に過ぎないし
AIは勝手に新しいことを創り出さない

44: 名無しさん@涙目です。(やわらか銀行) [CN] 2019/03/04(月) 07:40:08.08
機械は素直で正直だからありのままで判断する

49: 名無しさん@涙目です。(茸) [SE] 2019/03/04(月) 07:46:21.87
結果の平等は良くない

51: 名無しさん@涙目です。(茸) [US] 2019/03/04(月) 07:47:52.89
子供生む→会社にとってよくない
子供産まない→女としてのアドバンテージを利用できてない

55: 名無しさん@涙目です。(滋賀県) [TH] 2019/03/04(月) 07:51:36.47
欧米のレディファースト自体意味不明だしな

64: 名無しさん@涙目です。(茸) [UA] 2019/03/04(月) 07:57:29.89
>>55
あれはそういう文化だからな
女性を大事にするのは男性にも社会的にも意味がある

57: 名無しさん@涙目です。(茸) [UA] 2019/03/04(月) 07:54:51.99
最近見掛ける公的機関の採用情報の末尾に
男女共同参画云々で応募者の能力が同等の場合は女性を優先しますって文言を見るようになったよな

あれは完全に差別じゃないのかい

59: 名無しさん@涙目です。(西日本) [ES] 2019/03/04(月) 07:56:23.83
女性は素直に
この結果を受け入れて
改善すると良いよ

まずは増大し過ぎたワガママを押さえる事から始めてみよう

62: 名無しさん@涙目です。(福岡県) [CA] 2019/03/04(月) 07:57:12.43
そりゃそうだ、としか言いようがない
社会秩序のために合理を覆すのが人間のやってきたことだよ

68: 名無しさん@涙目です。(埼玉県) [DE] 2019/03/04(月) 08:02:54.06
これを女性嫌いと捉える感情性が一番のネック
女性が無能とは言ってるけどそれは好悪とは別なのにな

73: 名無しさん@涙目です。(やわらか銀行) [ニダ] 2019/03/04(月) 08:06:39.53
差別良くないとか言ってる奴は馬鹿です。差別します。

78: 名無しさん@涙目です。(茸) [GB] 2019/03/04(月) 08:08:59.62
女性に適正者が少ないだけだろ
他の職業でやったら女性の適正が多い職もあるよ

スポンサード リンク