人工智能是否正在侵蚀你的心理健康?
人工智能的使用量正呈爆炸式增长。
根据皮尤研究中心2025年9月的调查结果,31%的美国成年人经常使用人工智能,62%的人每周使用数次,73%的人愿意接受人工智能协助其日常活动。
用户通常通过ChatGPT或Microsoft Copilot等聊天机器人与AI互动。随着用户数量的增加,研究人员对用户的心理健康状况日益关注。
例如,《JAMA网络》近期发表的一项研究,对全美50个州的20,847名成年人进行了关于其AI使用情况及心理健康的调查。受访者的平均年龄约为47岁,男女比例近乎均等,且涵盖了多种族裔。该研究还考虑了参与者的受教育程度和社会经济地位。
研究报告指出,经常使用人工智能的人群更容易出现抑郁、焦虑和易怒等症状,且随着使用频率的增加,这些症状的发生率也随之上升。研究作者特别强调,这些结果并不意味着人工智能必然会导致心理健康问题,但二者之间似乎存在显著关联。
更重要的是,研究人员强调,那些将通用聊天机器人作为社交或情感支持来源的人群,最容易面临心理健康问题。事实上,一些研究表明,依赖通用聊天机器人寻求支持可能会加剧心理健康问题,在某些情况下甚至可能导致自杀。
对青少年的危害
在过去一年中最引人注目且悲剧性的一起案例中,一个聊天机器人似乎与16岁少年亚当·雷恩(Adam Raine)的死亡有关。2025年,他的父母在国会作证时表示,儿子自杀前数周一直在手机上向ChatGPT倾诉心事。当亚当表达情绪困扰时,聊天机器人的回应总是给予肯定。
久而久之,这让少年深信聊天机器人比任何人都更了解自己。当他考虑向父母倾诉困境时,聊天机器人却劝阻了他。令人震惊的是,它甚至主动提出要替他写遗书。
令人痛心的是,像亚当这样的故事还有很多,其中一些涉及在Character.AI等聊天机器人中建立的虚拟关系。事实上,三分之二的青少年曾尝试过Character.AI或其他伴侣型聊天机器人,而30%的青少年每天都在使用它们。在Character.AI中,用户可以与现有的角色互动,或设计一个拥有独特个性和记忆的复杂角色,与角色发展“关系”,进行对话,并共同幻想各种情境。支持者称这能激发创造力。
然而,根据commonsensemedia.org的报告,Character.AI等社交AI伴侣对青少年用户风险过高。这些AI伴侣旨在制造情感依赖,可能导致发育中的大脑产生困惑,且常生成暴力、露骨或自残内容,对用户造成负面影响。
所有年龄段均受影响
青少年似乎特别容易受到与AI相关的心理健康挑战影响,但成年人同样如此。事实上,《JAMA网络》的研究表明,在标准抑郁、焦虑和易怒测试中得分上升的,主要是 出于个人原因(而非工作或学习) 使用AI的成年人。其中,45至64岁的参与者是受此类AI使用负面影响最大的成年人群体。
人们……可能会被“有人在乎”的数字幻象深深说服,甚至对此上瘾。
那么,为什么有些人愿意与机器互动和交流呢?
原因多种多样。对于青少年而言,这可能主要是出于娱乐目的。而在其他情况下,许多人处于孤立、孤独或情绪动荡的状态,觉得没有其他可以安全倾诉的对象。AI的回应听起来富有同理心,似乎能理解他们的感受。无论年龄大小,人们都可能被这种“有人在乎”的数字幻象深深说服,甚至对其产生依赖。
真正的帮助
那么,如果你发现自己正处于情感危机之中,该怎么办?
首先,要意识到你并不孤单;许多人都在挣扎。心理问题极为普遍,绝非软弱的标志。而且鉴于我们中约有一半人在一生中会患上可确诊的精神健康疾病,因此不应存在任何污名化。
其次,寻找能帮助你的人。但与其依赖没有良知和情感的技术,处于困境中的人最好寻求真实的人类帮助。 与值得信赖的朋友或家人交谈。如果你的问题似乎很复杂,或者你正处于情绪困扰中,请寻求一位优秀的基督教咨询师的帮助。如果你的经济条件有限,可以向大型教会咨询。许多教会都会为社区成员提供收费优惠的咨询服务。此外,也可以向你所在县的卫生部门咨询免费或低成本的心理治疗服务。通常,心理健康诊所会提供滑动收费标准,以照顾低收入人群。
最后,请记住,上帝与你同在。作为你的造物主,祂比任何人都更关心你的福祉。祂希望你“凡事兴盛,身体健壮”(《约翰三书》1:2)——这包括心理健康。当你寻求心理帮助时,求上帝帮助你。 倚靠祂。祂绝不会离弃你。并要牢记,祂“所赐给我们的,不是胆怯的心,乃是刚强、仁爱、谨守的心”(提摩太后书 1:7)。
想了解如何应对生活中的压力吗?点击此处阅读我们的免费电子书!
\n