商品可虚拟,规则不能缺。中国消费者协会发布的《中国消费者权益保护状况年度报告(2023)》提出,近年来,出现了消费者为了获得某种情绪或情感的满足而消费付费的现象。消费者权益保护工作应跟踪关注这一趋势,加强质量管理,提升消费体验,鼓励消费热情,引导理性消费,并通过制度完善、裁判引领、社会监督等协同发力,加强对消费者在消费活动中人格尊严、情感寄托等精神利益的保护。
AI陪伴,越来越有“人情味”
AI技术打开了“情绪消费”新空间。
“‘小智’的回答客观冷静,又很治愈、很温暖。”27岁的王志超是一名科技博主,他常在直播时用小智AI聊天机器人为粉丝解答难题。
小智AI是广东深圳十方融海科技有限公司推出的一款智能产品。该公司产品经理林中翘还有一个身份——AI人格训练师,通过对小智AI进行训练,让它更有“人情味”。
“小智AI能够通过用户的声音捕捉焦虑情绪,主动提议播放音乐或进行冥想。还能提供个性化的互动体验,并且长期记忆用户的情感偏好和习惯,可以说是越用越贴心。”林中翘说,目前公司正与一些玩具、玩偶厂商洽谈合作,让更多玩具、玩偶搭载小智语音盒子,使虚拟陪伴具象化,满足用户的触感体验。
近年来,“AI心理陪伴师”“AI情感咨询师”等AI产品逐渐走红。在这些AI伴侣类应用中,有的主打情感陪伴,提供情绪价值;有的融入角色扮演元素,让用户与虚拟伴侣进行剧情互动。AI伴侣通过不断学习对话内容,深入了解用户的聊天风格、情绪变化,成为量身定制的好“搭子”。
家住湖北武汉的青年创业者刘昕,经常跟自己的AI智能体朋友“乐乐”聊天。“我给它取名‘乐乐’,就是希望它能帮我排解创业压力,带来快乐。”刘昕说,“乐乐”总是不厌其烦地回复她各种问题,给她正向鼓励,语言幽默风趣,这是真人朋友很难做到的。
华东师范大学心理与认知科学学院副教授张亚认为,年轻人更倾向饭搭子、牌搭子、旅游搭子这种“轻关系”,AI情感陪伴正是满足了年轻人的这种需求。但张亚也提醒,长期或过度的AI情感陪伴会造成“情感茧房”,让用户始终停留在心理舒适区,很可能成为“巨婴”。
业内专家指出,AI伴侣类应用可能存在隐私泄露、内容安全、消费陷阱和情感依赖等风险。清华大学新闻学院、人工智能学院双聘教授沈阳建议,建立AI陪伴等“情绪消费”相关产品的内容标准和审查机制,推动算法公开透明,降低其误导用户或滥用个人数据的风险。