AI陪伴如何更具情緒價值?最新研究稱冒充人類會讓聊天更走心
中新網北京7月1日電(記者 孫自法)施普林格·自然旗下專業(yè)學術期刊《自然-人類行為》北京時間6月30日夜間在線發(fā)表一篇心理學論文指出,人類傾向于拒絕來自人工智能(AI)對話機器人的情緒支持,除非這種同理心被誤標記為來自人類。通俗而言,就是將AI回復標記為人類回復能增強同理心,AI冒充人類會讓聊天更走心。

該論文介紹,生成式AI對話機器人,尤其是使用大語言模型(LLM)的對話機器人,自廣泛面向公眾以來,受歡迎度日益上升,它們可以帶來社交互動的機會并給予情緒價值支持。此前研究顯示,大語言模型驅動的工具能確定個人的情緒狀態(tài),而且它們的回應也被看作具有同理心和共情能力。不過,之前并不清楚來自對話機器人的支持是否會和來自人類的支持具有相同效果。
論文共同通訊作者、以色列希伯來大學Matan Rubin、Anat Perry和合作者通過研究發(fā)現(xiàn),相比被認為來自人類的支持,AI生成的支持會被視為更缺乏同理心,除非那些AI生成的回復被標記為來自人類。
論文作者這次共開展了9項研究,給總計6282名受試者看了AI生成的回復,并告知他們有些回復是人類寫的、有的是AI對話機器人寫的。研究人員觀察到,雖然受試者評價他們收到的回復富有同理心,但對他們以為交流對象是人類的回復評價更高。相比來自AI的即時回應,他們更愿意等待更久他們以為來自人類的回復。

論文作者還發(fā)現(xiàn),相比標記為AI生成的回復,受試者以為的來自人類的回復能喚起更多的正面感受(慰藉、認可、幸福、被理解)和更少的負面感受(感到焦慮、生氣、痛苦或煩惱)。當受試者認為人類在構思回復時使用了AI協(xié)助,那他們對同理心、積極共鳴、正面情緒和支持的評分都更低。
論文作者總結說,這項研究結果表明,AI對話機器人能提供的支持可能存在局限性,尤其是在期待同理性或情緒支持時,人們可能更看重來自人類的回復。不過,由于本項研究中的交流很簡短,今后應進一步研究AI工具在長期情緒支持交流中的使用和接受度。(完)
