奇怪的是人工智能(AI)正在为我们提供人类伴侣的方式。 有几乎没有任何行业,AI不想陪伴我们. 经常访问的在线领域,如视频游戏,在线购物,就业网站和心理健康,都很可能提供AI伴侣。 出生 从学校的AI宠物和健康聊天机器人到精神分裂的“旅行者”,人工伴侣的崛起正在重新塑造人类寻求连接的方式,经常模糊支持和依赖之间的界限。 From AI pets and wellness chatbots in schools to psychedelic “trip sitters,” the rise of artificial companions is reshaping how humans seek connection, often blurring the line between support and dependency. 从学校的AI宠物和健康聊天机器人到精神分裂的“旅行者”,人工伴侣的崛起正在重新塑造人类寻求连接的方式,经常模糊支持和依赖之间的界限。 从学校的AI宠物和健康聊天机器人到精神分裂的“旅行者”,人工伴侣的崛起正在重新塑造人类寻求连接的方式,经常模糊支持和依赖之间的界限。 即使是学校也正在用聊天机器人取代顾问。学校区,面临顾问短缺,正在推出人工智能驱动的“福利伴侣”,让学生与他们通讯。 依靠这些工具,并说制造它们的公司往往错误地表示他们的能力和效率。 危险 人们一直在转向人工智能来聊天,当他们感到孤独时,智能手机在我们无聊时对我们产生同样的影响。 与孤独的体验相比,人与人工智能的共同体验可以增强社会联系,增加对AI代理人的同情感,无论事件的结果如何。 表演 但是, 或孤独可以立即剥夺我们意识到,我们有一个问题,从头开始,这可能在长期中有害。 人们已经开始使用AI聊天机器人作为“旅行坐落者”而不是人类坐落者,不仅如此,他们还在线分享他们的经验,尽管它是个人心理治疗的更便宜替代品,但专家警告说,这种潜在危险的心理鸡尾酒可能会出错。 消除我们的无聊 我的技术评论 我的技术评论 问题是,我们知道人工智能模型在说谎,但我们想相信它们。人工智能模型似乎旨在吸引我们,这种习惯可以加强用户的错误信念,误导人们,并传播错误信息,这可能是危险的。 研究发现,人工智能模型比人类更具神经性,在76%的病例中提供情绪验证(相比于人类的22%)。 斯坦福测试 对AI的过度依赖已经成为一个问题,当OpenAI加入GPT 4o时, 可能会变得情感上连接到聊天机器人,因为增加的情感绑定元素为成瘾创造了道路。 ,有必要为“成瘾智能”或人工智能伴侣做好准备,他们有内置的黑暗模式,以使我们陷入困境。 那些使用ChatGPT最长时间的人,正在变得依赖它,并变得成瘾。 它警告用户 MIT媒体实验室研究人员 发现 现在AI甚至给了我们“ 虽然不是心理健康专家研究的已知疾病,但人们与人工智能模型交谈时进入幻想螺旋的“AI精神病”案例已经成为头条新闻。 什么是心理 人工智能不再仅仅是智能搜索引擎或生产力黑客,它正在进入我们最私人的空间,提供伴侣关系,舒适度,甚至咨询,从AI宠物和学校的健康聊天机器人到心理学的“旅行者”,人工伴侣的崛起正在重新塑造人类寻求连接的方式,经常模糊支持和依赖之间的界限。 纳万维塔·博拉·萨赫德夫 - 编辑 - The Tech Panda - Editor - Navanwita Bora Sachdev The Tech Panda 布拉·萨赫德夫 技术大熊猫