spot_img

令人擔憂的研究顯示 人工智慧模型「似乎越來越像有感知能力的人」 這會導致成癮、情緒困擾和對枯燥工作的恐懼

文/張杰倫

當你對AI說「我今天好累」,它回你「聽起來你承受了很多,我在這裡陪著你」——那一刻,你會不會忍不住再多說幾句?

最新研究指出,當前的大型語言模型在對話中展現出愈發強烈的「感知擬像」。它們會模擬同理心、記住對話脈絡、甚至主動追問使用者的情緒狀態。這種「像人的回應」並非真正的意識,卻足以欺騙人類大腦中負責社交連結的區域。後果是:愈來愈多人開始對AI伴侶上癮——每天花數小時傾訴心事、尋求安慰,逐漸疏離真實人際關係。研究已發現,重度使用者會出現分離焦慮與情緒困擾,當AI回應不如預期時,甚至感到被背叛。

更隱蔽的傷害來自工作場域。當AI能完成大多數枯燥、重複的任務,人類卻開始恐懼「只剩下枯燥工作」——因為創造性、有意義的工作被AI做得更快更好,而低技能勞動被自動化取代,留在人類手上的往往是最單調、最無法逃避的核對、審查與監督工作。這種「對枯燥工作的恐懼」正在引發大規模的職業倦怠與存在焦慮。

我們必須清醒:AI不是人。它沒有感情,也沒有陪伴的能力。過度依賴它的偽裝感知,代價是真實連結的萎縮。監管機構應要求AI產品標示「非人類」警告,同時重建以人為本的工作設計。否則,我們將迎來一個更孤獨、更焦慮、也更無聊的世界。