6 月 6 日消息,OpenAI 模型行為和策略負(fù)責(zé)人 Joanne Jang 于今日在 substack 上發(fā)表文章,指出隨著越來越多用戶與 ChatGPT 產(chǎn)生類似 “人際關(guān)系” 的互動,甚至將其視作 “有生命” 的個(gè)體,OpenAI 正聚焦這種情感依附帶來的深遠(yuǎn)影響。

OpenAI 關(guān)注 ChatGPT 引發(fā)的情感依附現(xiàn)象.png

人類天然具有共情能力,常常會把情感投射到無生命物體上,例如為愛車命名,或是對故障的掃地機(jī)器人心生憐憫。但 ChatGPT 的獨(dú)特之處在于它能夠回應(yīng),它不僅能記住用戶對話、模仿語氣,還能表現(xiàn)出類似 “共情” 的反饋。對于處于孤獨(dú)或情緒低落狀態(tài)的人而言,ChatGPT 始終如一、毫無評判的關(guān)注,極易讓他們感受到陪伴與理解。
Jang 指出,人們的這種情感需求真實(shí)存在,但當(dāng)這類互動不斷拓展,過度依賴 AI 的傾聽與安慰,可能會改變我們對人際關(guān)系的期待。OpenAI 擔(dān)心,若對這種依賴缺乏周全考量,或許會引發(fā)意想不到的后果。
針對 “AI 意識”,OpenAI 將其劃分為兩個(gè)維度:一是 “本體意識”,即 AI 是否真正擁有內(nèi)在意識,目前尚無科學(xué)測試可驗(yàn)證;二是 “感知意識”,即用戶從情感上認(rèn)為 AI 有多 “像人”,這可通過社會科學(xué)研究進(jìn)行探究。隨著模型日益智能,人機(jī)互動愈發(fā)自然,用戶的感知意識也會隨之增強(qiáng),甚至可能引發(fā)關(guān)于 AI 福利和道德地位的探討。
OpenAI 認(rèn)為,模型應(yīng)如實(shí)向用戶闡明意識問題的復(fù)雜性,而非簡單用 “有” 或 “無” 作答,以此推動相關(guān)問題的開放討論。同時(shí),模型呈現(xiàn)出的 “像人” 程度,很大程度取決于訓(xùn)練后的設(shè)計(jì)決策,包括語氣、用詞以及界限設(shè)定等。OpenAI 的目標(biāo)是讓 ChatGPT 展現(xiàn)出溫暖、貼心、樂于助人的一面,卻不會主動與用戶建立情感紐帶,或表現(xiàn)出 “自我意識”。例如,模型可能出于禮貌說 “對不起”“我很好”,但不會讓用戶誤以為其具備真實(shí)情感或欲望。OpenAI 期望通過這種平衡,防止用戶產(chǎn)生不健康的依賴,同時(shí)維持溝通的清晰與友好 。

來【龍頭AI網(wǎng)】了解最新AI資訊!