避免技术对人的伤害应成广泛共识

发布时间:2019-09-04来源:晶报编辑:邓雪婷

近日,南京一所高校在校门、图书馆等处安装了人脸识别门禁,教室内也装上了人脸识别系统进行考勤,学生发呆、玩手机都能被感知到。此举在网上引起了争议。

过去,也常有教室安装监控摄像头的新闻出现。目力所及,似乎以幼儿园居多。很多家长患有“入园焦虑症”,担心孩子在幼儿园是否习惯、是否哭闹、是否得到很好照顾等。一些地方传出的幼儿教师虐童事件更让他们胆战心惊,毕竟孩子年龄太小,万一遇到被虐的情况还不能完整、清晰地向父母表达——所有这样的困扰,一个摄像头便可以全部搞定。个人觉得,这是可以理解与接受的。

但这一次,是比监控摄像头要高级得多的人脸识别系统,面对的是已经成年、人格意识与权利意识已逐渐生成的大学生。人脸识别系统不仅精准而且高效,不但可以统计一个人在教室打哈欠的次数,连一个人回寝时间、晚归次数等都可以统计在内。这种全透明状态,肯定会令他们感到不适。

此外,镜头往往可能导致教育场景“失真”。“众目睽睽”之下,正常的教学活动难免掺杂了一些表演的成分。正如中国教育科学研究院研究员储朝晖所说,教室虽然是公共场所,但是监控下的教师和学生都不是真实的状态,“大家从专业这个角度得出一个共同的结论,在教室里是不能装监控的。首先(这是)保护学生的隐私,也是不让课堂处在一个被这种控制的状态的重要原则。(如果)不遵循这个原则,那么学生可以在教室里去作假、伪装,教师也可以伪装业绩作假,真实的教学就不可能发生。”

更重要的是,它还涉及一个技术边界、技术伦理的问题。技术一定是为人服务的,而不是反过来控制人。由此引申的一个更广阔的话题是,人工智能时代似乎已经朝我们轰然而来,但是,我们是否做好了相应的人文方面的准备,是否筑就了足够宽的“护城河“,从制度上避免技术对人的伤害,值得从现在就加以正视与探讨。