
ChatGPTを巡って、「AIは道徳の権威ではなく補助役であるべきだ」という投稿が話題になった。
AIが価値観に踏み込むのか、それとも安全対策の範囲なのかをめぐって、海外ユーザーの議論が広がっている。
AIは道徳の権威になるべきではないという投稿
今回の投稿者は、AIツールが個人の信念や道徳を「修正」する方向に進みすぎているのではないかと問題提起した。
技術は人の多様性や個性を尊重する補助役であるべきで、道徳の羅針盤を機械が握るべきではない、というのが主張の中心である。
あわせて請願ページへのリンクと、MITの研究としてarXiv論文へのリンクも示していた。
添付画像でも、中央のロボットが価値観の異なる人々に囲まれており、投稿の論点を象徴する構図になっていた。
ChatGPTでAIは説教してくるのかという応酬
そもそも、AIに個人の信念や道徳を押しつけられている人って誰なんだ?
検索エンジンみたいに使っている人たちでは。
いや、言いたいのは利用者の話ではなく、モデル側が勝手に「こちらで安全に導きます」といった調子で会話を誘導してくることだと思う。
このやり取りでは、投稿者の不満が実際の利用体験なのか、あるいはAI企業の安全設計そのものへの反発なのかで受け止め方が分かれていた。
AIが道徳を変えようとしていると感じるのは、もともとその人の考え方に問題がある場合では。
自分はそういう経験はない。話せない話題に制限はあっても、道徳的に叱られている感じはしなかった。
何を入力したら、そこまで説教されたように感じるのか知りたい。
懐疑的な側は、強い安全制限と「道徳を矯正される感覚」は別物だと見ており、投稿者の表現が大げさだという反応も目立った。
ChatGPT以外のモデル名まで出た反応
最後にChatGPTと話したときは、「意地悪な相手に優しくしなくてもいい」と言っただけで、やたら説教くさかった。
自分はそういうのを見たことがないけれど、うまく解決するといいね。
うちはGeminiに替えた。かなり良くなった。
Claudeもよく使っている。
この流れでは、特定モデルの受け答えを「疲れる」「押しつけがましい」と感じる利用者がいる一方、別モデルに乗り換えることで解消したという声も出ていた。
新しいモデルほど、「その方向で進めます」「ここで止めます」といった言い回しが増えて、ただの質問でもやたら消耗する。
何の話をしているのか分からない。
共感する側と戸惑う側の温度差はかなり大きく、このテーマ自体が利用スタイルによって見え方の変わる論点であることも伝わってくる。
AIは補助役に徹するべきなのかという見方
今回の議論では、AIを便利な補助役として見たい人ほど、価値判断までにじむ返答に敏感であることがうかがえた。
一方で、実際には安全対策や応答方針の範囲だと受け止めるユーザーも多く、問題の大きさそのものには温度差があるようだ。
AIにどこまで判断の色を持たせるべきかという論点は、今後もモデル比較や利用体験の差とあわせて議論が続きそうである。
参考リンク:


