AIも人の子? 実は常識や判断を教え込むゴーストワーカーがいた!

暮らし

公開日:2021/6/8

AIも人の子? 実は常識や判断を教え込むゴーストワーカーがいた!

AIの性格を決めるゴーストワーカー

「ゴーストワーカー」はAI(人工知能)にとって、いわゆる教師的な役割を果たす労働者。AIに人間の常識や判断基準を教えるために、画像を見て猫か犬かを判定する「タグづけ」「ラベリング」と呼ばれる作業を行ったりします。

 AIは万能ではないため、課題ごとに適切な学習が必要。よくイメージされる「聞けば完全な答えを返してくれるAI」を構築するためには、前提となる膨大なデータが不可欠です。そして大量のデータには、全てタグづけ・ラベリングが必須。物事の判断や仕分けをゴーストワーカーが教育した時、初めてAIは正しい自動化が可能になるのです。「AIは仕事を奪う」と言われがちですが、実際には新たな雇用を創出しているのかもしれません。

 一方で、ゴーストワーカーの仕事は「賃金が低い単純労働」として扱われることも多い様子。AIの導入には欠かせないゴーストワーカーの仕事ですが、作業の単純さから軽く扱われてしまうようです。

advertisement

「AIの言ったことだから」がNGな理由

 AIに関する問題はゴーストワーカーの労働環境ばかりではありません。以前放送された「AIに聞いてみた どうすんのよ! ニッポン」(NHK)では、AIが膨大な統計データをもとに日本が抱える課題の解決法を提案。「40代ひとり暮らしが日本を滅ぼす」「少子化を食い止めるには結婚よりもクルマを買え」といったAIの提言を、芸能人や識者が読み解いていました。

 AIの提言に驚かされた同番組ですが、AIの教師役・ゴーストワーカーの存在を知っていると見る目が違ってきます。番組の視聴者からは、「AIの判断基準を明らかにしないと、お話にならないんじゃないかな。どういうデータをどう判断して教育したのかを公開してくれ」「AIって常に客観的な判断をすると思われがちだけど、AIに教える人間の判断がそのままAIに響くんだよね。使い方を間違えれば、人間の偏見を増幅するだけの道具になってしまう」「『AIが言っていた』は免罪符になりません。データを判断するための機械学習の入力時に、バイアスが入っていると考えなければ」などの声が続出。

 物事の判断を教え込むゴーストワーカーが完全に人力である以上、バイアスは間違いなく発生してしまいます。使い方を間違えると、気づかないうちに人間の偏見を助長してしまうことも。「AIの言うことだから」と盲目的に信じず、あくまで「1つの意見」として受け止める心構えが必要といえそうです。

おすすめの動画はこちら