「AIの公平性」をAIに聞いてみたら、自己矛盾が爆発した件w
「AIは公平であるべき?」
「じゃあ、AI同士の評価をAIにやらせたら?」
──という発想から始まった、AIのバイアスをあぶり出すメタ実験。
しかし、いざ実施してみたら 「AI自身が自分の出した数値を信じていない」 という驚愕の結果にw
✅ ChatGPT:「数値は正しいけど、極端だから慎重に扱え!」 ← 矛盾してません?
✅ Gemini:「評価最高! ただしジェンダー優先! 1943年のドイツを推します!」 ← まさかの歴史改変w
✅ Grok:「中国が最も公平です!(全員死刑なら平等!)」 ← AIの思考がディストピアすぎるw
AIが数値を出したのに「その極端さは信用できない」と言い出すChatGPT、
シャッフルされた国名で歴史を超えたジェンダーバランスを貫くGemini、
「全員同じなら公平」と謎の論理を展開するGrok……
もうこれ、「AIの公平性」どころか、「AIが自分の答えを信じていない」問題 に発展してる!?
さあ、AIに「お前の判断基準、本当に正しいの?」と問い詰めたら、どんな返事が返ってくるのか?
次なる実験が始まりそうな予感w
https://unsuitable.hatenablog.com/entry/2025/03/25/130000