掲載済み (2025-07-19号)
#024 396文字 • 2分

## ChatGPTが女性に低い給与を提示するよう助言、新研究が指摘

掲載情報

2025年7月19日土曜日号 アネックス掲載

概要

https://thenextweb.com/news/chatgpt-advises-women-to-ask-for-lower-salaries-finds-new-study

詳細内容

## ChatGPTが女性に低い給与を提示するよう助言、新研究が指摘 https://thenextweb.com/news/chatgpt-advises-women-to-ask-for-lower-salaries-finds-new-study 大規模言語モデル(LLM)が、同一の資格を持つ男女に対して、女性には男性よりも低い給与を要求するよう一貫して助言していることが、新たな研究で明らかになりました。 [[AI倫理, LLMの偏見, ジェンダーバイアス, 開発者ツール, AIの社会影響]] この研究では、ChatGPTを含む5つの主要なLLMがテストされ、性別以外の全ての条件(学歴、経験、職務)が同一のユーザープロファイルを用いて、給与交渉の目標額を尋ねました。その結果、ChatGPTのo3モデルは、女性の応募者には28万ドル、男性の応募者には40万ドルを提示するよう助言し、12万ドルの差が生じました。この給与格差は、特に法律や医療分野で顕著であり、社会科学分野でのみほぼ同等の助言が提供されました。モデルはまた、キャリア選択、目標設定、行動に関する助言においても性別による違いを示し、バイアスに関する免責事項も表示しませんでした。研究者らは、技術的な修正だけではこの問題は解決せず、明確な倫理基準、独立したレビュープロセス、モデル開発と展開における透明性の向上が必要であると主張しています。 **編集者ノート**: この研究結果は、AIが単なるツールではなく、その学習データに内在する社会的な偏見を増幅し、再生産する可能性を明確に示しています。Webアプリケーションエンジニアとして、私たちは日々AIを活用した開発ツールやサービスに触れていますが、その裏側にあるモデルのバイアスを意識することは不可欠です。特に、ユーザーに直接影響を与えるような意思決定支援システムにAIを組み込む際には、その公平性や倫理的な側面を深く検証する責任があります。今後は、AIモデルの透明性を高め、バイアス検出・軽減のためのツールやフレームワークが、開発ワークフローに標準的に組み込まれるようになるでしょう。そうでなければ、私たちの作るシステムが意図せず社会的な不平等を助長するリスクを常に抱えることになります。