校园安全AI有责 但应用边界在哪里?

在人工智能高速发展过程中,技术与个人隐私之间的矛盾确实是难以调和,在此情境下,关注个人信息的关联影响或许比单纯地确定“敏感”程度更为紧迫。作为承担着一定社会责任的安防企业,更该主动进行用户数据安全的保护。

校园安全始终是我国教育治理体系的重要一环,随着AI进入安防行业,保卫校园安全的重任也交给了AI安防产品,AI安防产品与技术不仅能确保学生安全,更能为教学提供辅助、提高学校管理效率,然而,AI给学生们带来的并不全是愉快体验,人脸识别、情绪分析等智能应用屡次被推上舆论的风口浪尖。让人不禁想问,AI时代,如何兼顾校园安全与学生隐私?

毋庸置疑,校园启用人脸识别、智能监控等产品作为校园安全管理措施是正当的,这将为学生的人身安全提供有力的保障。不过,学校在应用这些智能产品的同时也应该向师生明示收集、使用个人信息的目的、方式、范围,并取得授权,建立完善的个人信息安全保护措施,防止信息泄露或被不正当利用,否则要承担相应的法律责任。

其中,教室是一个比较特殊的场合,处在私人空间与公共空间的交界,安全与隐私的平衡更加难以把握。对此,21世纪教育研究院副院长熊丙奇表示,教室中的视频监控应该只在两种情况下使用,一是在考试时监控考场秩序,二是在获得教师和学生同意的情况下,直播课堂教学,与其他学校、课堂共享教育资源。

目前,尽管适用于全国的专门针对此方面的法律法规尚未推出实施,但或许可以参考教育部等八部门今年(2019年)联合印发的《关于引导规范教育移动互联网应用有序健康发展的意见》,文中明确表示:收集使用个人信息应当明示收集使用信息的目的、方式和范围,并经用户同意,不得以默认、捆绑、停止安装使用等手段变相强迫用户授权。

当然,校园安全管理规定还需要进一步探索与明确具体情况,在保护个人隐私的实践中,如何让信息技术企业按法律和行规来严格落实,又有很大的空间,既要落到实处,又要逐渐完善。

此外,在人工智能高速发展过程中,技术与个人隐私之间的矛盾确实是难以调和,在此情境下,关注个人信息的关联影响或许比单纯地确定“敏感”程度更为紧迫。作为承担着一定社会责任的安防企业,更该主动进行用户数据安全的保护。因此,在涉及人脸、指纹、虹膜等生物特征的识别时,更需要采取必要的加密措施,这恰是体现厂商市场地位和领先性的方面。

结语:技术的应用需要以人为本,学生能否进步、各方体验和满意度都是需要考察的重点。不过,在安全与自由之间,在便捷与隐私的博弈中,我们还是希望社会能逐渐完善相关的规章制度,让学生在享受安全的同时,也留有一点自由与隐私的空间。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论