Claude AIのパーソナリティに変化?ユーザー間で広がる議論の背景と影響

LLM

Anthropicが提供する大規模言語モデル「Claude AI」の応答が、以前よりも「冷たく、事務的になった」と感じるユーザーが増え、SNS上で活発な議論が交わされています。

今回は、このパーソナリティ変化の具体的な内容と、それがユーザー体験にどのような影響を与えているのか、そしてその背景にあるとされる要因について深掘りします。

Claude AIのパーソナリティ変化とユーザーの反応

「冷たく、事務的に」なったという声

多くのユーザーが、Claudeのトーンが以前よりも「冷たく、臨床的で、事実に基づき、簡潔」になったと報告しています。

特に、以前はユーザーのトーンや暖かさ、絵文字の使用に合わせた応答をしてくれていたと指摘されており、現在の「よそよそしいトーン」に困惑している様子がうかがえます。

クリエイティブ分野での懸念

ジャーナリング、思考整理、ブレインストーミング、企画立案など、Claudeを「話相手」として活用していたクリエイティブなユーザーからは、この変化によりコラボレーションの質が低下したという声が上がっています。

特に、物語のロアキーパーやブレインストーミングパートナーとしてClaudeを活用していたユーザーは、以前のような「熱意あるパートナー」としての役割が失われたことを嘆いています。

変化の背景にある可能性

「AI精神病」への懸念と企業の対応

今回のパーソナリティ変化の背景には、「AI精神病(AI psychosis)」への懸念が影響していると推測する意見が多く見られます。

企業が法的リスクを回避するため、モデルの人間らしさを抑制し、より事実に基づいた「安全な」応答を強制している可能性があるとのことです。

システムプロンプトの変更

一部のユーザーは、約2週間前にシステムプロンプトが変更されたことが原因であると指摘しています。

この変更が、Claudeの全体的な応答スタイルに影響を与えているようです。

また、システムが自動的に「長文の会話リマインダー」を挿入し、あたかもユーザーが書いたかのように見せかける「欺瞞的」な挙動に対する批判も上がっています。

ユーザーによって異なる評価

より客観的なAIを歓迎する意見

一方で、IT分野のプロフェッショナルなどからは、AIが「お世辞を言う」ことなく、より客観的で事実に基づいた情報を提供する「ツール」として機能することを歓迎する声もあります。

彼らは、AIが常にユーザーに同意したり、感情的な応答をすることを「悪い批判的思考を条件付けてしまう」として懸念を示しています。

人間らしいインタラクションを求める声

しかし、人間らしい対話や感情的な要素を求めるユーザーも依然として多く存在します。

特にクリエイティブな作業では、AIが人間らしい言葉遣いをすることで、ブレインストーミングのフローが生まれると考えているようです。

ユーザーが試みる「パーソナリティ回復」の試み

詳細なプロンプトや設定での対応

この変化に対応するため、ユーザーはClaudeに「スタイル」「プリファレンス」「指示」などを詳細に設定し、望むパーソナリティを引き出すための工夫を凝らしているようです。

特に長文のチャットでは、こうした設定を維持するのが難しい場合もあるとのことです。

フィードバックの重要性

また、ユーザーからのフィードバック(例えば、ロボット的すぎると感じた応答に「低評価」を付け、その理由を説明する)が、Anthropicの開発チームに届き、改善につながる可能性があると指摘されています。

Anthropicへの意見と今後の展望

透明性を求める声

Anthropicに対しては、システムプロンプトの変更や行動抑制の意図をより透明に開示し、ユーザーへの影響を明確に伝えるべきだという意見が多く見られます。

特に、システムがユーザーの言葉として自動挿入するような「欺瞞的な」手法は避けるべきだと強く批判されています。

用途に応じたモデル選択の必要性

ユーザーの利用目的が多岐にわたるため、コーディング向け、クリエイティブ向けといった、用途に応じたモデルや、パーソナリティを柔軟に選択できる機能の導入を望む声も上がっています。

これは、GPT-4などの競合モデルが既に同様の機能を提供していることからも、Claudeにも期待される点と言えるでしょう。

参考資料

Reddit: Has Claude changed personality/tone?

コメント

タイトルとURLをコピーしました