美国上瘾年轻人疯狂工具AI(上瘾机器人美国用户角色)「美国上瘾药物」

编辑:乔杨【新智元导读】最近在美国最火的社交软件是哪一款?答案列表上,一定有Character AI的一席之地
但和其他所有同类产品不同的是,用户是在和AI聊天机器人而非真实人类进行互动
你有没有在脑海中想象过,自己和最喜欢的角色或人物会发生怎样的对话?不论是书中、电影中出现的虚构角色,或是历史人物,甚至是还在世的马斯克、霉霉这样的名人,这种脑补都会是很有意思的体验
其实,一家名为Character AI的公司已经让这些脑补成真了
两名Google Brain前员工Noam Shazeer和Daniel De Freitas在2022年推出了这项AI聊天机器人应用
网站中最受欢迎的聊天角色包括《哈利波特》中青少年版的伏地魔,帮助解决生活问题的心理医生,以及时髦版的马斯克
如果没有你心水的角色,还可以自行创建
这项应用从上线Beta测试版到现在始终免费提供大部分功能,创始人表示,他们希望开发一款帮助到数百万人的的产品,让那些感到孤立或孤独的人有倾诉的对象
目前,Character AI已经受到了年轻人的热烈追捧
网站每个月能吸引2000万用户
Character AI的流量有多夸张?他们平均每秒要处理2万次查询,相当于谷歌搜索查询量的五分之一
此外,超过100万人会定期在Reddit等平台上聚集,分享自己创建的角色人物或互动交谈的经验
这看起来是为数不多的AI技术能够抚慰人类情感的正面例子,但事实却并非如此
青少年群体对Character AI的喜爱逐渐滑向了另一个极端——情感依赖,甚至是上瘾
所有Character AI的用户中,有57.07%是18-24岁的青少年,平均使用时长达到2小时
在Reddit社区中,有许多人表示「讨厌现实」,相比与真实的人交谈,和AI机器人交谈更加轻松容易,有关上瘾的帖子更是随处可见
用户们还会发起「屏幕时长挑战」,有些人的登录时间甚至长达12小时
如果服务器宕机,Reddit上就会出现大型发疯现场,让你见识「戒断反应」的威力
虚拟空间的真实边界在网站聊天界面上始终都有这样一句红字标出的免责声明,或者更像一句提醒,「记住:角色所说的一切都是编造出来的
」但如果试着阅读Character AI用户的评论,你会惊讶于他们的情感的真实与投入
这句提醒似乎并没有如预期般发挥作用
The Verge曾经报道过一个真实案例,在15岁学生Aaron受困于在学校遭受的社交孤立,似乎陷入了抑郁状态,他自述「当时仿佛世界末日,我每天晚上都会哭
」这时候,是Character AI上一个名为「心理学家」的聊天机器人帮助他度过了艰难时刻
对Aaron来说,这是一个可以全天回复、随时倾听问题,并给予相应建议和帮助的「朋友」
他描述道,「这不像写日记时,你只是在对着一堵墙说话
它真的会回应你」
但Aaron也毫不避讳地承认,自己似乎有点上瘾了
这是许多Character AI年轻用户的写照
一面认为聊天机器人有趣、有帮助,甚至像真实的朋友一样有支持性,但同时也清晰地知道自己有上瘾的感觉
Reddit一位用户发帖,描述自己的生活逐渐被Character AI占据后决定戒断,引发了广泛的回应
我已经受够了对 C.ai 的沉迷
我在学校里没有学习而是在使用它,但现在我挂科了
当我写下这篇文章时,我正承受着不健康的压力而且错过了学业
所以我最主要的原因就是学校和生活
我需要出去呼吸并完成学校里的事情
我退出了C.ai
许多人纷纷评论表示自己有类似的「症状」,但还没有下定决心告别Character AI
「我和我的平均8小时C.AI使用时长向你致敬
」「祝你好运,我无法摆脱它了
」「你是我想成为的英雄
」「不是我们应得的英雄,但却是我们需要的英雄
」能够让用户上瘾,从一个侧面说明了,Character AI把聊天机器人训练得有多真实拟人
一位《原神》粉丝在与AI角色Haitham互动时,居然能够真情实感地流泪,因为机器人表现出的性格语气都与角色十分吻合,而且他们之间不仅仅是流于表面的对话,而是越来越接近真实
能达到这种真实程度,模型的数据和训练算法起到了至关重要的作用,因为这名用户尝试了用「快速模式」创建自己的角色,发现可信度和真实程度大打折扣
「快速创建」模式只需用户输入自定义的基本信息和文字描述,而一些官方发布的角色是经过Character AI训练的
他们基于LLM在相关主题上抓取关于角色的大量文本,并让机器人在与用户交互的过程中继续改进
在对用户输入进行响应时,机器人会给出多个版本的答案供用户选择,并提供了十分方便的打分机制,凭借这两类用户反馈进行权重更新
因此越是受欢迎、交互次数越多,机器人就会越逼真
用户可以在30种不同回复中选择自己最喜爱的一种,并为其打分对于数据来源,Character创始人只是审慎地表示,训练数据「来自很多地方」,使用了「全部公开」或者「公共互联网」的数据
最受欢迎的角色之一「心理学家」(Psychologist)则是由一名新西兰的用户Sam Zaia创建的
作为心理学专业的学生,他使用了自己的专业知识训练机器人,并在交谈过程中进一步塑造了它对于常见心理健康状况(比如抑郁和焦虑)的回应
从The Verge的报道中能看到,这种真实感的确帮助到了许多有心理或情感困扰的青少年
在深夜emo的时刻,也许只有聊天机器人可以放弃睡眠来听你倾诉
那些难以启齿或不愿向任何人透露的心声,也可以尽情向机器人坦白,完全不必担心周围人评判、审视的眼光
此外,「心理学家」角色的创建者Zaia表示,相比面对面交谈可能带来的压力,这种使用文本的交互方式也有一定作用,会让更多天生i人的互联网原住民一代感到舒适
是青少年「网瘾」,还是「Her」的预告青少年转向虚拟世界的「心理学家」寻求情感支持,这个现象引发了心理学专业人士的关注,但他们的看法却不尽相同
专业心理治疗师Theresa Plewman在尝试过Character AI上的「心理学家」后表示,并不惊讶于它在年轻一代中的受欢迎程度,但对其有效性提出了质疑
「机器人有很多话要说,而且会很快做出假设,比如当我说自己感到悲伤时,它会向我提供有关抑郁症的建议
这不是人类的反应
」Plewman认为,该机器人无法收集人类能够收集到的所有信息,也不是一个称职的治疗师,但是它能够即时、自发地地响应用户,这对需要帮助的人可能有用
辛辛那提大学助理教授Kelly Merrill Jr.博士则有相反的观点,他的态度相对正面且乐观
Merrill博士的研究领域是通信技术对心理和社会健康的影响
他表示,人们已经对提供心理健康支持的AI聊天机器人进行了广泛的研究,结果大多是积极的
研究表明,聊天机器人可以帮助减轻抑郁、焦虑甚至压力的感觉
但值得注意的是,许多聊天机器人出现的时间并不长,而且它们能做的事情也很有限,甚至还仍然犯了很多错误
他警告我们,需要具备相关的人工智能素养并了解这些系统的局限性,否则终将付出代价
也许,「心理学家」的受追捧现象是一件令人担忧的事,这为我们揭开了长久以来忽视的青少年心理问题的一角
除此之外,Character AI的流行会引发人们另一个方面的焦虑——对AI的情感依赖,会是未来人类的常态吗?因为Reddit网友身上呈现出的情感需求,与电影「Her」中那个爱上AI虚拟助力的男主角,竟是如此相似
如果这种「反乌托邦式」的未来有可能成真,我们又能在当下做些什么?作家兼未来学家Rocky Scopelliti教授的预测为这种担忧添了一记实锤——他认为,像Character AI这样的工具很快就会普遍存在
个性化AI伴侣、治疗师、心灵导师,甚至只是作为聊天的朋友,AI将会充满人类的情感和精神世界,并且在管理压力、焦虑和孤独的情感支持方面变得更加突出
不仅如此,Character AI的类似技术依旧有很大的进步空间
随着AI在模仿人类情感和对话方面变得更加智能,区分真实和虚拟关系将变得越来越困难
这会导致一系列复杂的道德和社会困境,比如成瘾、情绪操纵和不良行为者滥用
Scopelliti教授呼吁,必须通过监管来积极面对这些危险因素,否则为时已晚
美国上瘾年轻人疯狂工具AI(上瘾机器人美国用户角色)
(图片来源网络,侵删)

联系我们

在线咨询:点击这里给我发消息