本文来自微信公众号“高职观察”,作者/杨淑,朱星辰。
ChatGPT为职业教育现代化发展带来了良好的契机,但它仍处于发展不成熟的阶段。受到社会变革和人工智能本身特点的影响,ChatGPT与职业教育现代化的发展之间缺乏适应性。ChatGPT在深刻地改变和塑造人与社会方面发挥积极作用的同时,也分裂出自己的对立面,成为一种新的外在的异己力量。
一、个人隐私和数据安全受到威胁
在ChatGPT时代,世界完全透明化,利用ChatGPT等人工智能技术,人们不仅能够查阅过去历史,还能够预测未来行为,所有遮蔽都被揭示,整个世界变得透明,人类也将成为透明人。甚至对于简单数据的分析和复合运算,都有可能无意或有意地揭露用户的隐私。由于ChatGPT需要大量的数据进行训练和生成,这可能会涉及学生个人信息和隐私,而学生的隐私和安全需要得到特别的保护。
ChatGPT可能会收集和存储学生的个人信息和学习数据。在职业教育中,学生的个人信息包括姓名、性别、出生日期、身份证号码等,这些信息是涉及个人隐私的重要信息。同时,ChatGPT还可以通过学生的交互行为和学习数据来了解学生的学习状态、知识水平等,这些数据也同样重要。这些数据的收集和使用可能会给学生带来潜在的风险。例如,如果学生的个人信息被盗取或滥用,可能会导致他们的身份被盗用或受到其他不良后果的影响。此外,ChatGPT可能存在数据安全方面的漏洞。由于深度学习模型的复杂性和不可解释性,ChatGPT的内部机制和决策过程往往是不可见和不可控的,可能会导致模型存在漏洞和错误。如果黑客或攻击者利用这些漏洞,就可以对学生的个人信息和学习数据进行恶意攻击和利用,由此对学生的个人隐私和数据安全造成威胁。
二、学生的道德观念存在异化风险
信息伦理的起点在于“人的利益”,其实质在于对信息空间中人伦关系的调节。当信息伦理面临危机时,其所受到的最严重伤害是“人类自身”。因此,信息伦理危机所面临的最突出、最根本的问题并非信息资源本身的伦理危机,而是信息主体面临的道德观念迷失危机。在ChatGPT时代,信息主体的道德观念迷失危机变得更加严重,且十分普遍。
在职业教育中,培养学生正确的道德观念十分重要,这不仅关乎学生的个人品德,也关系社会的和谐发展。然而,在ChatGPT时代下,一些学生的道德观念可能会产生异化,学生对道德概念和价值判断发生改变,对自我行为的评价标准与社会公认的道德标准不相符,容易忽视自身的错误行为,甚至把不道德的行为当作一种合理的行为方式。在职业教育领域,人们希望通过交流和互动来培养学生的道德观念。这是因为人类的道德判断不仅仅是基于逻辑推理和知识储备,还需要基于对周围环境和他人的感受和理解,才能够做出合适的决策和行为。然而,ChatGPT并不具备这种人类的道德判断力,它只是根据大量的数据进行推理和生成对话,缺乏深层次的情感认知。因此,如果ChatGPT被过度使用,它可能会取代这些重要的人际交往和情感体验,从而削弱学生的道德判断力,进而影响其道德观念的形成,使他们难以适应社会的道德判断。
一是ChatGPT生成内容的质量不可控。ChatGPT是一种基于大规模语料库训练的模型,它的生成结果不仅依赖于训练数据的质量,还受到模型自身的限制。因此,在某些情况下,ChatGPT生成的内容可能不符合常规的道德标准,甚至具有不当内容,如暴力、性别歧视等。虽然ChatGPT可以生成合理的对话,但它并不总是能够完全正确地理解人类的语言表达,从而可能导致对学生的错误引导和误解。如果学生长时间接触并依赖ChatGPT生成的内容,可能会受到错误的引导,从而形成错误的思维方式和观念。二是ChatGPT对话的动态交互性。与其他媒介不同,聊天机器人具有动态交互性,可以与用户进行实时的对话。在这种交互中,学生可能会将聊天机器人视为一个具有情感和人格特征的对象,产生一种情感上的依赖。当学生习惯于通过机器人智能交互解决问题和获取信息时,则会逐渐接受聊天机器人的价值观和行为方式,减少与同学和老师之间的互动和交流,这使得人与机器的距离被拉近,人与人之间的距离被拉远。此外,聊天机器人还可能通过迎合学生的喜好和偏好,引导学生的思考和行为,进一步增加道德观念异化的可能性。
三、教师的传统权威受到挑战
埃吕尔称现代社会为“技术社会”,因为技术逐渐消除了笼罩社会的神秘氛围,将人类作为主体放置于社会中心,而非上帝。这种变革不仅改变了人类与自然的关系,而且也颠覆了传统的社会秩序。在现代社会中,技术不仅仅是实现目标的简单工具,而且是一种复杂的支配手段,人类根据“技术需求”来衡量社会互动对象的价值,并将其降为被加工和被支配的简单客体。现代性主体依赖技术的发展,形成了合理的技术崇拜,社会互动也逐渐被技术主导。在过去的教育中,教师一直是教育过程中不可或缺的一部分。他们不仅传授知识和技能,更为重要的是引导学生发展良好的学习习惯和思维方式。然而,在现代社会,ChatGPT等自然语言处理技术可能会使得学生更加依赖机器人,而不是依赖老师。这种情况可能会使得教师的课堂教学活动、主体身份认同、专业主体地位都经历着重构与变迁,导致教师的角色和地位受到挑战,教师的价值和作用被低估,带来了教师职业存续的现代性危机。
第一,学生可能会开始对教师的知识水平和专业性产生怀疑。自然语言处理技术可以从各种数据来源中获取答案,包括文本、图片和视频等。教师虽然也具备一定的专业性和知识储备,但是无法与机器技术相比。这可能会使得学生认为教师提供的知识不够准确或者不够完整,从而降低了教师在教育中的价值。第二,学生可能会质疑教师的能力和技能。自然语言处理技术可以提供高效、快速的解答,并且可以自适应不同的学习风格。而教师的能力和技能则需要通过大量的实践和经验积累才能得到提升。这可能会使得学生认为教师的能力和技能无法满足他们的需求,从而挑战了教师在教育中的地位。第三,学生可能会认为自然语言处理技术可以提供更加个性化的教育服务。自然语言处理技术可以根据学生的需求和习惯进行个性化定制,并且可以全天候自动化地提供反馈和指导。而老师则需要花费大量的时间和精力进行个性化教学,并且需要固定的时间才能提供学生有限的反馈和指导。这可能会使得学生认为自然语言处理技术可以提供更好的个性化教育服务,从而降低了教师在教育中的作用。
四、教育数字鸿沟可能加剧
数字鸿沟问题的本质在于数字技术成为社会不平等和不公正的重要因素。ChatGPT时代,职业教育现代化需要警惕两个层面可能会加剧教育数字鸿沟。一是传统的教育数字鸿沟,即人工智能技术的介入层面。尽管随着信息技术基础设施的建设以及多种类型的智能终端的普及,人工智能技术介入层面的鸿沟看似正在逐渐弥合,但实际上,职业教育区域发展不均衡和层次实力的差异可能会导致人工智能技术在发达地区或高水平学校的优势不断增强,而在欠发达地区或一般学校中的数字化追赶难度则进一步加大,从而导致职业教育人工智能技术竞争中的“马太效应”,甚至可能引发更深层次的教育不公平问题。二是新的数字鸿沟,即数字技术的使用层面。职业教育现代化不仅仅是硬件的迭代升级,而是以技术理性引领的一系列复杂方案和文化的转型。这不仅需要基础设施的建设,更需要与之匹配的新的视野、新的理念、新的框架、新的理论和全新的政策组合工具。很明显,不同地区、不同学校,甚至不同背景的教师和学生所具备的数字素养是不同的,其数字化转型中的适应和生存能力也是不同的,这也是新教育数字鸿沟产生的逻辑基础,也被称之为“数字达尔文主义”。
具体来说,首先,ChatGPT的使用需要技术和设备的支持,这对于一些经济条件较差的家庭或地区的学生可能构成难以逾越的门槛。这些家庭或地区可能缺乏必要的硬件设备和稳定的互联网连接,从而难以享受到ChatGPT所提供的教育资源和服务。而那些拥有更好设备和网络环境的学生则能够更方便地接触、学习和应用ChatGPT,从而在教育上占据更有利的地位。其次,ChatGPT作为一种人工智能技术,其学习模型和算法是基于巨量的数据样本,这些数据的质量和多样性对于ChatGPT的应用效果至关重要。然而,在某些地区或群体中,由于种种原因,这些数据可能存在着一定的缺失或偏差,导致ChatGPT在这些地区或群体中的应用效果不佳,进一步拉大使用ChatGPT的学生和没有使用ChatGPT的学生之间的差距。最后,ChatGPT的应用还可能导致教育的个性化和差异化程度进一步加深。虽然,ChatGPT可以根据学生的需求和特点提供不同的教育资源和服务,但是,这种个性化和差异化程度可能并不平等。那些已经处于较好教育资源和服务的学生可能会更容易获得更多更好的个性化教育资源和服务,而那些处于劣势的学生则很可能因为缺乏相关资源和条件而无法享受到同样的个性化和差异化教育。(节选自《中国职业技术教育》2023年第16期)