人本智能时代:谁在为AI“立规矩”?

随着人工智能的不断发展和进步,这个问题变得尤为迫切。尤其在OpenAI推出的O1大模型展现出惊人的思维链能力后,我们不得不面对一个更具挑战性的议题:如何确保这些越来越“聪明”的AI,不止拥有能力更要拥有类人的价值判断。

本文来自微信公众号“硅星人Pro”,【作者】Yoky。

在人类历史的长河中,技术的发展始终伴随着一个根本性的问题:技术究竟是用来服务人类,还是最终超越人类?

随着人工智能的不断发展和进步,这个问题变得尤为迫切。尤其在OpenAI推出的O1大模型展现出惊人的思维链能力后,我们不得不面对一个更具挑战性的议题:如何确保这些越来越“聪明”的AI,不止拥有能力更要拥有类人的价值判断。

被称为“传播学之父”的麦克卢汉曾提出过一个概念:人的延伸。在他的理论中,媒介是人感官的延伸、望远镜是人眼睛的延伸、汽车是人腿的延伸,那人工智能便应该是人思维的延伸。

其本质,浓缩成四个字,也就是“人本智能”。

在《我所看见的世界》一书中,华裔科学家、“AI教母”李飞飞也强调了以人为本的重要性,她认为:“如果人工智能要帮助人们,我们的思考就必须从人们本身开始”。

以人为本的背后带来的是科技的创新不断突破边界,以开放的心态拥抱新的可能性;社会的安全,强调在AI技术发展的同时,必须确保其对人类社会的负面影响降到最低;同时,也是技术的普惠,则要求AI技术的发展成果能够惠及每一个人,而不是成为少数人的特权。

近期,由财新智库、ESG30出品,上海交大、人工智能研究院、联想集团联合发布了《人本智能:人机共生时代的科技发展观》报告,科技界连同企业界正在积极探索这一命题的答案。

这些准则和报告的核心,都是试图在AI的快速发展与人类社会的伦理道德之间找到平衡点。它们试图回答一个根本性问题:在AI技术日益深入人类生活的今天,我们如何确保这些技术的发展不会偏离人类的根本利益。

这是一个在人工智能的开端,就必须深思熟虑的问题。

AI“成长”的新烦恼

随着人工智能技术的飞速发展,AI的能力已经从简单的对话应答进化到了复杂的逻辑推理。以OpenAI的O1大模型为例,它不仅在自然语言处理领域展现出了惊人的能力,更在模拟人类思维链方面取得了突破。这种进步,虽然为人类带来了便利,但也带来了前所未有的挑战。

一些令人担忧的案例相继出现:在医疗领域,AI系统在进行诊断决策时可能出现价值判断偏差;在自动驾驶领域,AI面临“电车难题”等道德困境时的决策标准仍存争议;在内容创作领域,AI可能产生带有偏见或误导性的信息。这些案例表明,随着AI系统变得越来越“聪明”,其决策逻辑和价值取向的重要性日益凸显。

随之而来的是对AI越来越强的监管和把控需求。AI在道德困境中的决策偏差,如在自动驾驶中必须选择撞向一边的行人还是另一边的障碍物时,其决策逻辑和价值判断的依据是什么?这些问题的复杂性在于,AI的价值观实际上是其训练数据的“投影”。这意味着,AI的决策不仅受到算法逻辑的影响,更受到其训练数据中蕴含的人类价值观的影响。

微信图片_20241126101617.jpg

图源:网络

面临的挑战包括如何在多元文化背景下处理价值观差异,如何在保持客观性的同时维护主流价值观,以及如何在技术发展与伦理道德之间找到平衡点。这些挑战要求我们深入分析AI决策的具体影响,而不是过度渲染焦虑。我们需要客观地讲出真问题,即AI的发展可能会在不经意间放大人类的偏见,可能会在关键时刻做出不符合人类预期的决策,可能会在跨文化交流中造成误解。

在确立人机关系的过程中,《人本智能》报告中提出了“三线”理念。基准线是人机协作,通过混合智能实现人与AI的协同工作,提高效率和创造力;趋势线是人机共生,随着技术的进步,人类与AI的关系将更加紧密,走向“人机物”三元融合的新时代;底线是确保人类始终处于主导地位,无论AI技术如何发展,都必须确保人类的利益和价值观是最终的决策依据。

“人本智能”中的理念框架为AI的健康发展提供了重要指引。

在这一过程中,业界逐渐认识到,AI的“成长”不仅仅是技术问题,更是社会问题。它涉及到法律、伦理、文化等多个层面,需要政府、企业、学术界以及公众的广泛参与和深入讨论。而这些挑战并非不可克服的障碍,而是AI发展过程中的必经之路。

科技企业:从理念到行动探索

人本智能的全新理念,目前已经有企业开始进行实践。

曾斩获多项国际电影节奖的知名导演陆川,在2024年进行了一次有趣的尝试。

从年初Sora横空出世后,越来越多的电影人开始探索与AI共创能产生怎样的火花。在电影《西野》的创作过程中,陆川与联想AI PC进行合作,通过AI技术在后期制作环节大幅提升了工作效率。

“如果我们用传统的方式去做,storyboard、motionboard、previs等等,再加上CG……可能要做两个月,但是

这个片子,我们只用两天就做完了。它极大地节省了成本,还有人力时间。”陆川总结道。

更重要的是,对内容创作者来说,AI和AI PC是一个知识平权的过程,能够让年轻创作者跨越门槛,快速实现创意的视觉化。普通创作者即使没有专业的后期制作团队,也能依托AI技术完成高质量的作品。

这是AI技术服务于每个人带来普惠价值的一个典型案例。而以联想为代表的企业,作为技术创新的主体,也是确保“人本智能”践行落地的关键角色。

以“人本智能”为核心的案例已经在各行各业开始扩散。

今年5月在武汉爆火的无人驾驶出租车萝卜快跑,也在具体的行驶过程展示了如何在复杂场景中平衡效率与安全。面对中国特有的复杂交通环境,萝卜快跑通过与政府合作,推动相关法规的制定和完善,确保自动驾驶技术的负责任使用。在技术层面,萝卜快跑采用了高精度地图、智能感知和精准决策技术,确保车辆在复杂道路环境中的安全稳定行驶。同时,萝卜快跑还建立了乘客反馈机制,通过收集和分析用户意见,不断优化服务,体现了企业在技术创新中的自我约束和社会责任。

微信图片_20241126101628.jpg

萝卜快跑无人驾驶出租车

在武汉的实际运营过程中,萝卜快跑严格遵守交通规则,包括在遇到行人时进行礼让,通过多种维度的传感器实时收集周围环境的信息,帮助车辆识别障碍物、行人、车辆等,并作出相应的反应。尤其在经过学校路段时,经常出现因连续礼让行人而前进缓慢,但却在群众中引起好评。

在服务特殊群体方面联想也展现了AI技术的人文关怀。针对渐冻症(ALS)患者的交流困境,联想与斯科特-摩根基金会合作开发了一套创新的AI解决方案。该系统集成了圆形键盘界面、预测式AI、个性化语音复制和眼球追踪等技术,让患者能够保持个性化的交流方式。

渐冻症患者Erin Taylor通过这套系统,得以保留自己的声音,创建数字分身,实现了继续为孩子唱摇篮曲的心愿。更重要的是,这项技术即使在语音样本有限的情况下,也能生成富有情感和自然的语音效果。

微信图片_20241126101630.png

技术的创新还延伸到了阿尔茨海默症患者群体。在联想与失智症创新组织(Innovations in Dementia)合作发起的“阿尔茨海默症智能计划”中,联想基于阿尔茨海默患者生活经历定制了专门的AI,打造出逼真的3D数字分身(avatar),为正在应对阿尔茨海默诊断的患者和家庭提供24小时的对话式虚拟伴侣。

这些实践展示了AI技术在提升特殊群体生活质量方面的独特价值,折射出企业在AI发展过程中的深层思考。从最初的简单功能开发,到现在注重人机协作的协调,企业的AI伦理实践正在经历着质的提升。这种转变既是技术发展的必然要求,也反映了企业对社会责任的深刻认识。

在这个过程中,企业们逐步形成了一套系统的实践方法论。首先是将“以人为本”的理念具体化为产品设计原则,确保每一个功能的开发都以服务人的需求为出发点。其次是建立起覆盖研发全周期的伦理审查机制,从问题定义、算法设计到应用部署,每个环节都要进行伦理评估。最后是通过持续的用户反馈和场景实践,不断优化和改进AI系统的表现。

从理念到行动的转变,人本智能正在推动AI技术走向更加成熟的发展阶段。

技术创新:从思维链到价值链

在人工智能的世界里,技术的进步不仅仅是代码和算法的迭代,更是对人类智慧的延伸和道德伦理的深刻反思。当AI开始学会像人类一样思考,我们面临的挑战也随之升级。以联想集团的AI技术帮助渐冻人“开口”说话的案例为例,这不仅是技术的胜利,更是对AI“三观”塑造的一次深刻实践。

在训练数据的筛选优化方面,AI的“三观”实际上是其训练数据的“投影”。这意味着,数据的质量和代表性直接塑造了AI的语言表达、逻辑推理和价值判断。然而,数据质量问题和代表性问题成为了AI发展中的两大难题。有害内容的污染、偏见和歧视信息的嵌入、错误或过时信息的传播,都在考验着AI的“三观”。此外,数据的地域分布不均、语言覆盖不全、文化多样性的缺失,也是我们必须正视的问题。

攻克这些难题,我们需要从数据源、算法和评估三个层面入手。在数据源层面,构建多元化、高质量的训练数据集,加强数据审核和筛选机制,建立文化平衡的数据库,是确保AI“三观”正确的基础。在算法层面,开发价值观对齐技术,引入伦理约束机制,设计偏见检测和纠正方法,是确保AI决策公正性的关键。而在评估层面,建立价值观评估体系,开展持续性监测和优化,引入多方利益相关者参与评估,则是确保AI“三观”持续进化的保障。

训练数据对AI“三观”的深层影响。就像人的成长会受到成长环境的影响一样,AI系统的行为模式也深受训练数据的影响。这种影响既包括直接的语言表达方式和推理逻辑,也包括间接的知识结构形成和价值判断。面对这一挑战,企业一方面在数据源头下功夫,构建多元化、高质量的训练数据集;另一方面在算法层面创新,开发价值观对齐技术,设计偏见检测和纠正方法。

在安全训练的具体方法和多重保障机制设计上,AI的“三观”同样面临着考验。AI在面对道德困境和复杂决策时,如何作出符合人类价值观的选择,是我们必须回答的问题。通过模拟训练,我们可以在虚拟环境中让AI经历各种紧急情况,学习如何作出符合人类道德标准的决策。同时,伦理审查委员会的建立,可以为AI的决策逻辑提供指导和监督。此外,提高AI决策的透明度和可解释性,也是确保AI“三观”正确的重要手段。

实践证明,解决这些技术难题不能依靠单一手段,而需要系统性的方法论。

在推进这些技术创新的过程中,企业逐步形成了自己的最佳实践。在这个过程中,如何在追求技术突破的同时守住伦理底线,如何在拓展能力边界的同时坚守责任担当,这些都需要整个行业的智慧和勇气。

唯有如此,AI才能真正成为推动业务增长的核心引擎,为企业和用户创造持久的价值。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论