教育研究中需要遵守的伦理原则(伦理性是教育研究必须遵守的原则)
学习者“本我”与“非我”主体性异位不利于人工智能教育的正常开展,亦会阻碍学习者的认知发展,并将派生出一系列新的伦理问题:其一是过分趣悦化问题。人工智能创设的趣悦化教与学情境似乎在一定程度上可以降低认知负荷,但是有效学习必须承载一定的认知负荷,并且越是复杂知识的学习就越需要较高的内在负荷,过分趣悦化将会降低学生的学习质量。其二是知识产权问题。人工智能自动化生成的学习产出能否属于学习者本人的成果,如何界定该成果的产权归属,是否涉及诚信,对于上述问题,当前并没有形成统一的伦理规范[16]。其三是身体伤害和教育社会化体验降低问题。学习者长期与类人交互将从根本上改变传统以人—人交互为中心的教学生态,这是否会伤害学习者的身体健康,是否会减少与其他真实的学习者和施教者交互的机会,弱化学习者在真实生活情境中的学习体验,进而对他们的身心健康造成不良影响[17]。
四、人工智能教育伦理问题规约
从理论上来说,人工智能教育伦理问题规约的基本思想是以人类福祉追求为宗旨,采用自上而下、自下而上以及两者相结合综合运用的理路来解决问题。自上而下的智能教育伦理规约实际上是伦理问题解决的演绎路径,指的是以教育伦理的基本准则为依据,诊断、分析和解决人工智能教育伦理问题;自下而上的人工智能教育伦理规约实际上是伦理问题解决的归纳路径,指的是通过在人工智能教育伦理场景中,针对具体教育情境中的伦理问题,构建新的准则;当然也可以综合运用以上两种路径规约人工智能教育伦理问题。具体而言,人工智能教育伦理问题的规约可以从习俗迁移、规范构建、法律约束以及聚焦实践等方面开展综合治理。
(一)习俗迁移
教育是亘古的事业。人工智能教育既是对传统教育的发展,也是对传统教育的继承,同样,人工智能教育伦理也是兼具发展性与稳定性的伦理。教育的稳定性根源在于教育本质的恒定,无论在什么样的教育形态中,教育的育人本质不会变。从根本上来看,无论人工智能技术将来如何发展,学生和教师永远不会完全被机器取代,即教育永远是人教人的事业!那些认为教师抑或学生完全被机器人取代的论调,既不符合逻辑,也不符合常识。若教师和学生完全被取代,教育就没有存在的必要,“学生”只要被制造就可以了,需要教吗?若如此,人工智能教育伦理还有谈论的必要吗?
因此,不论教育如何改革,不论何种新型技术问世,我们必须坚守的就是立足教育本质,将传统的与教育本质密切相关的教育习俗迁移于新的人工智能教育形态之中,只有将教育本质习俗根植于每个人的内心,以此为根基规约类人行为,发展传统教育伦理体系,构建新的与人工智能教育相适应的伦理规范,才是我们的基本立场。
(二)规范构建
从本质上来看,人工智能教育伦理问题是随着人工智能技术的发展及其教育应用带来的新问题,或许我们可以从技术的角度考虑在一定程度上解决问题。
第一,植入伦理规则。我们可以借助新技术将伦理规则植入智能系统,作为类人必须执行的指令,并使得其在教育教学活动中习得人类伦理,不断完善自身伦理规则。需要特别注意的是,植入的伦理规则不能仅仅围绕人这个中心而忽视了机器人的特殊性,需要以人机伦理的适应性为前提,实现人与人工智能技术理性价值标准的相一致,因此,伦理规则的植入需要伦理学家、教育学家与人工智能设计人员共同参与、合力完成[18]。
第二,人工干预。在伦理规则嵌入之后,仍然需要对其进行人工干预。由于人工智能具有复杂性、难预测性,所以,在伦理规则嵌入之后,还要对其进行不断的评估和调试,以便最后真的能建构成一套完备的伦理体系。需要特别注意的是,为了防止类人作出违反伦理规则的行为,在植入伦理规则的同时,还应该预留“切断开关”,以便遇到危机时能及时切断整个系统,从而保障安全。
(三)法律约束
针对人类与人工智能愈加模糊的人机界限,政府需要出台相关法律规定人工智能的角色地位,明确其权利与责任,并确定六类利益相关人员(智能系统创建者、智能系统使用者、智能系统监测员、智能决策主体和决策执行者、数据主体)[19]的权利与责任,以保证人工智能系统的稳定性、透明性和可解释性。考虑到人工智能教育伦理问题的复杂性,其治理涉及社会不同层面,治理范围大并且技术专业性极强,仅靠立法难免顾此失彼,因此,在法律约束的基础上,仍然需要政府、非政府组织与个人之间开展合作,紧密配合、协同治理。