人工智能瓶颈:如何应对未来伦理问题
当人工智能变得越来越像人,人工智能伦理问题成为了技术行业、监管机构和大众最为关注的问题。
当下,对于人工智能商业价值的极度崇拜与对伦理崩塌的深度隐忧,构成了讨论人工智能的两种相反论调:一方面,商业机构不断描绘人工智能时代的便利美好,而许多影视作品则提醒人们人工智能具有潜在危险。这两方面的冲突,引发了人们不断的探讨。
“伦理困境”阻碍人工智能研发
从新闻客户端中越来越“懂你”的信息流,到开始尝试在封闭道路上自动驾驶的汽车,过去几年,各种包含人工智能技术的产品走入大众生活。据腾讯研究院院长司晓介绍,全球人工智能创业企业已经达到2000多家,在腾讯,有四个大实验室正在做人工智能相关项目。
事实上,有些人工智能商业场景迟迟不能落地,不是被技术“绊”住了,反而是伦理研究拖了后腿。司晓举例说,美国2016年的统计表明,自动驾驶的安全性已经明显高于人工驾驶,但自动驾驶中有一个著名的伦理困境,即当它无可避免要撞人时,撞向人多的一边还是人少的一边,如果这一问题不解决,自动驾驶汽车就无法上路。
复旦大学哲学系教授王国豫提出,全景监狱和数据歧视的伦理困境也值得警惕。全景监狱是指摄像头可以将你的所有行动构成一个行动路线图,搜索引擎可以给你画像,在强人工智能下,就等于有人盯着你的一举一动;数据歧视是指将数据转化为人们能够理解的信息过程中充斥着人为的解读因素,如果数据显示某个区域的人跳槽率较高,就会影响这个地区的人找工作。
现如今,人工智能伦理问题已经引起世界关注,2016年英国标准组织发布机器人伦理标准《伦理设计与应用机器人》、微软提出人工智能六大原则,都在一定程度上促进人工智能发展。我国《新一代人工智能发展规划》中,“人工智能伦理”这一字眼出现了十五次之多,表明制定人工智能伦理规范已迫在眉睫,而我们也有理由相信,这些举措将更好的推进人工智能的发展。
THEEND
免责声明:凡注明为其它来源的信息均转自其它平台,由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,不为其版权负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本站联系,我们将及时更正、删除,谢谢。联系邮箱:xiali@infoobs.com
评论请先登录~
最新评论(评论仅代表用户观点)
更多暂无评论