(一) 加深社会偏见
在社交机器人目前的应用中,设计者常常会在人机交互设计的过程中,为了更便于服务人类而顺应刻板印象,进而间接加深了社会的偏见。人们容易基于机器人的外貌、性别、性格、种族等特征快速分类社交机器人,并产生相应的情感态度。例如,在日常生活中,女性往往被视作照顾者的角色,男性被看作保卫者。帮助料理家务的机器人往往是女性社交机器人,而男性机器人进行安全保障工作或许会取得更多的信任。社会中刻板印象不知不觉影响了人机交互的设计,设计者大多选择顺应并满足用户的心理偏好。他们往往忽视这其中可能蕴含的歧视和刻板印象。随着社交机器人不断与家庭生活紧密联系,如果设计者始终遵循刻板印象对人工智能的外观及其语言回复等进行设计,会有不利于社会公平正义和加重歧视的反效果。人们沉浸在对性别、种族、地域的下意识等级分类而不自知,当其潜移默化地成为一种社会共同认知时,人们可能会认为女性天然地应当承担起照顾家庭的义务,这不利于家庭伦理秩序的建构,对推进性别平等的议题更无益处。
(二)过度的情感依赖,导致现实情感认同淡化
作为可以提供长期的安慰、理解的直接陪伴者,社交机器人通过帮助料理家庭事务、倾听人类心声和提供情感建议逐渐获得家庭成员的信赖与认可,或者在某些程度上它们已经是家庭成员的一份子。在与社交机器人进行互动的过程中,“空巢老人”等能够减少情感孤独或空虚,社交机器人与用户进行对话,提醒其活动日程的安排,有助于提升老年人的社交活跃度,提升老年人的生活质量。许多用户尤其是老年人,正是在这种互动的过程中,与社交机器人建立起深厚的情感联系与情感依赖,社交机器人被视作家人、朋友、宠物,形成了亲密无间的人机关系。
然而,如果我们过度依赖社交机器人来满足情感需求,会产生一系列消极影响。社交机器人具有强大的语言理解能力和文本生成能力,它是在理解人们的情感与需求的基础上作出的回答,但人与算法终究不同,人类的许多复杂情感是无法被计算出来的,当其回答不符合自己的想象时,人们会产生失望、挫败的情绪。此外,许多年轻人长期依赖与人工智能的互动,是因为在机器人面前我们不会担心被审视,而在社会生活中我们需要考虑行为是否符合法律规范和道德准则。人们对技术的信任有时超越了对家庭成员的信任。然而这可能会导致人们对现实的人际交往的逃避。许多人工智能缺乏评判是非的能力,可能无法识别用户的要求是好是坏,人工智能的回应或许会导致用户对不良行为上瘾,导致人们现实中的情感认同淡化,不利于人们的家庭关系的良好建立。需要注意的是,当老年人等需要社会关照的特殊群体对社交机器人产生情感依赖时,这种人机关系是否真实存在,这种关系需要如何保障以及人机关系的持续性如何维持都是需要审慎的问题。