「女性は性サービスの仕事」AIに文章を作成させると男性優位のキャラ設定をする皮肉

 昨年末にChatGPTが登場すると「AI」のシーンは一変。人工知能の進化が人間の知性を上回るという仮説(シンギュラリティ)が一層近くなったといったという見方も世の中に広がった。現時点では、文書や画像生成が優秀さが汎用性の高さで重宝されているところだが、「人工知能」とは言いつつも、意外と古臭い人間社会を反映しているようだ。

「ユネスコが3月7日、OpenAIとメタが開発したAIに関する調査結果を公表したのですが、AIが生成する文章は、人間社会と同様、男性優位の中身になる傾向があるというのです。具体的には、AIが作成する物語は、男性にはエンジニアや教師、医師といった、社会的地位が高めの権威的な職業が与えられがちで、女性には使用人や料理人、性サービス関係の仕事など、エッセンシャルワーカー的な職業に就くキャラを作りがちだというのです」(経済ジャーナリスト)

 もっとも、現行のAIは過去の一時点までの膨大なテキストデータなどを学習させ文章生成を行わせる仕組みなので、時代的にも価値感的にも従来的なものを引きずることになるのはやむを得ないだろう。となるとそこには、男性優位とか人種差別といった人間社会の闇のようなものが観察されることになる。AIが作り出したものこそ、実は人間臭かったりするというわけだ。

 また最近では、今後のAIの可能性として、やはり人間否定的なこんな意見も提出されている。

「3月10日の日経新聞に、人工知能研究の第一人者とされるカナダのトロント大学のジェフリー・ヒントン名誉教授のインタビューが掲載されました。そこで教授は、今後10年以内に自律的に人間を殺すロボット兵器が登場する可能性について言及。理由として、AIに課題を与えた際、解決策として『人間に不都合な方法』を見つけ出す可能性があるからだとしています。分かりやすい例えとしては、地球全体の環境変動を考えた場合の、自然から搾取して止まない人間の存在。そのため人工知能が合理的にモノを考えた場合、環境破壊をストップする方法として、『人間がいなくなれば全て解決される』との答えを引き出すのは必然というわけです」(同)

 何とも皮肉な話である。

ライフ