Openaiは、ChatGptが孤独を引き起こす可能性があると言います。福祉は職場で妥協しますか?

人工知能 それは、プロセスの促進、時間とコストの削減、または生産性の促進に関して、その能力と貢献を実証しています。しかし、それはまた、の問題を悪化させることに貢献しているようです 人間の切断、したがって、孤独の、成長の文脈で デジタルハイパー接続性。

これは最近終了しました Openai の研究者と一緒に行われた研究で MITメディアラボの研究。彼らは分析には制限があり、その結果は慎重に解釈されるべきであると警告しているが、彼らはの過剰な使用は chatgpt それは、より高いレベルの孤独に関連付けられる可能性があります。

Openaiの分析は、チャットボットが人々に与える影響を理解しようとしました

調査が求められています チャットボットの使用がどのように影響するかを理解し、 そしてこのために、彼は英語とアメリカのユーザーの会話に焦点を合わせてきました。彼は2つの研究を実施しました。1つはプラットフォーム上の実際のパターンを分析するための観察と、ユーザーへの影響を理解するための制御された介入主義者です。

最初の研究では、ChatGPTとのほぼ4,000万件のやり取りが分析され、ユーザー調査が実施され、実際の使用をよりよく理解し、CHATGPTに関するユーザーの意見を会話の属性と相関させました。
2番目の研究では、ChatGPTを4週間使用した約1,000人の参加者が対照的なエッセイを実施しました。プラットフォームの特定の特性(モデルの性格やモダリティなど)や使用の種類がどのように影響するかを特定しようとしました。 心理社会的状態、 孤独のように、実際の人々との社会的相互作用、チャットボットの感情的依存、またはAIの問題のある使用。

これらすべてから、OpenaiとMITメディアラボの調査はそれを結論付けています ChatGptとの感情的な相互作用はまれです、 感情的なシグナル(共感、愛情、またはサポートの兆候)は、評価された会話の大部分では観察されなかったためです。しかし、彼らは高度な感情的な使用があるが、 高度な音声モード。 これらは、「ChatGptを友人と見なしている」などの声明に同意する可能性が高いことを示しました。
音声モードに関しては、彼は短時間の使用がある場合、より大きな井戸に関連付けられていますが、毎日の使用が長くなると結果が悪くなりました。

これらの線に沿って、さまざまなタイプの会話も、井戸に異なる方法で影響します。ユーザーとチャットボットの両方による感情的な表現を含む個人的な性質のものは、 より高いレベルの孤独、しかし、ツールの中程度の使用が与えられた場合、感情的な依存度と問題のある使用が少なくなります。一方、非個人的な会話は、特に豊富なChatGPTの使用がある場合、感情的な依存を増加させる傾向があります。

研究者はまた、ユーザーの結果は、各個人の感情的なニーズ、AIの認識、使用期間など、個人的な要因の影響を受けていることを指摘しています。この点で、最大の愛着の傾向を持つ人々と、AIを個人的な生活に統合できる友人と見なす人々は、経験する可能性が高いようです チャットボットの使用に対する悪影響。 毎日の長期使用は、より悪い結果にも関連しています。

もっと孤独な職場環境?

注意の結論を解釈するのは便利ですが、結果は 人々に対するテクノロジーの影響 そして、一部の国や文化ではすでに公衆衛生の緊急事態と見なされている孤独の問題。

また、企業の人工知能がどのように採用されているかを考えるように誘います。作業環境でのChatGptなどのツールを禁止する必要性は推測できませんでしたが、分析する必要があります 従業員が交流に専念する時間 彼らと一緒に、「ヘビーユーザー」の間で最大の影響が観察されているためです。さらに、チャットボットとの相互作用が人間との相互作用に似ているため、これは特別な関連性を帯びます。

AIに専念する長い時間、高齢者は彼らの感情的な影響かもしれません

現在、企業が採用している多くのAIツールがバックグラウンドにあります。また、自動化された提案を利用して、机の上に座っているChatGptで8時間のチャットをすることができるかのように、電子メールの執筆を加速しても、作品で作成された友情を損なうことはありません。

しかし、人工知能エージェントが労働市場に穴を開けると、ますます多くの人々がこの技術の「ヘビーユーザー」になります。そして、より多くの個人が亡くなっています チャットボットでより多くの時間、よりリアルは感情的な危険になります そして、その心理学は、オープンの研究が警告しています。