长期依赖,人工智能的伦理问题难以得到有效的约束和监督,本文认为人工智能在家庭中的应用主要涉及以下三个主体,三个主体各自在人工智能的实际应用中承担角色,有利于规避人工智能在家庭应用中产生的伦理风险。
(1)设计者:警惕惯性认知,防止社会偏见
人工智能以其强大的语言理解能力和文本生成能力,能在理解语境和情绪的情况下作出回复。而设计者、大众都是其自身训练的过程中,偏见和歧视的来源。笔者认为,设计者是最为根本的源头,其作为社会成员的一部分,在一定程度上代表了社会大众的普遍意识,而算法继承了设计者对特定事物的偏见。因而伦理研究人员应给予技术人员正确的伦理导向,在训练的过程中加入平等训练模型。对于人工智能本身,也应当增强对偏见性对话的识别,对于数据的获取要从无限制到有限制,人工智能的开发与使用都需要得到共同监管,有利于创建绿色的人工智能应用环境。
(2)政府管理者:加强监管,保护数据隐私
在数据隐私方面,政府管理者应出台相关政策,设立实时的监控部门,全方位地对人工智能进行监管,并根据有关隐私法律法规对人工智能的使用加以规约,使其技术向善。最需要监管的人员首先是技术工作者,他们能够获取家庭成员的第一首数据,应不断提升道德伦理水平。高级伦理研究人员应在人工智能侵犯隐私或泄露数据等事态发生时,做好记录备案和舆论的引导,减少类似的时间发生。总之,我们应树立起数据保护和防范被侵犯的意识,制定全方位的监管体系,打造健康的人工智能应用环境。