- AI商业进化论:“人工智能+”赋能新质生产力发展
- 田丰
- 2021字
- 2025-05-19 16:21:32
AI“+”什么
AI+ 3种能力
2024年3月,在“人工智能+”行动的指引下,商汤科技董事长兼首席执行官(Chief Executive Officer,CEO)徐立创造性地提出“KRE能力架构”(见图1-4),并指出当今大模型正在按照“知识”“推理”“执行”三个层级进化升级。面向各种知识问答任务,知识层主要解决高频、标准化的问题,即以前很多人问答过的知识内容,准确率很高;推理层重点解决长尾、碎片化、非标准化的问题;执行层则将知识能力、推理能力、执行能力融为一体,完成更为复杂的组合式软硬件性任务。三个层级的能力如下。

图1-4 “KRE能力架构”
第一层,知识能力:整合并吸收人类历史上积累的跨学科的全球知识,并将这些知识进行归纳总结和融会贯通,提炼出普遍适用的概念、原则或结论的能力。语言文字是人类知识的重要表现形式,当今大语言模型的学习速度极快,Epoch AI Research团队成员、加利福尼亚大学伯克利分校计算机科学专业的教授斯图尔特·罗素等专家预测人类历史上的“高质量语言数据”,将在2024—2026年训练完,换句话说,大语言模型正在成为掌握人类历史上几乎全部知识的初级智慧载体,人们能够通过与大语言模型交流,获得历史上的科学家、文学家、哲学家等的回答,大语言模型能跨多个领域回答专业性极高的复杂问题。
第二层,推理能力:能够根据一个或多个已知前提条件,推导出新的结论的能力。大语言模型能够基于世界知识“底座”,以“旧知”推理出“新知”,以及发现新的可能性,为人类“世界知识库”提供知识增量。知识(归纳)层和推理层是AI生产力十分重要的两层。目前大语言模型在端到端的复杂推理任务上与人类专家相比仍有差距,AI正在集中力量攻坚,当具有可靠、精准推理能力的大语言模型出现时,其将在学术界、产业界等各领域为人类提供逻辑分析服务。
第三层,执行能力:在和世界的互动中通过人类的反馈,掌握新知识的能力。正如毛泽东在《实践论》中清晰阐释了“认识”和“实践”的关系,通过对比人类“认识+实践”的模式,我们可以理解为什么大模型需要调用“执行体”才能更加深入、全面、客观地认知世界规律——“执行体”既可以是其他AI原生模型、传统软件,也可以是机器人、机械手、智能网联汽车等硬件,大语言模型与后者的结合就是我们常说的“具身智能”。
《实践论》指出:“只有人们的社会实践,才是人们对于外界认识的真理性的标准”。这也正是当前大语言模型缺乏实践出现“幻觉”的原因,即缺乏实践检验认知、纠偏认知。
◎ 实践出真知,实践是认识的来源。比如,人们通过观察和实践,才能获得对自然现象和社会现象的认识,从而形成科学理论。
◎ 认识对实践具有反作用。比如,科学理论可以指导人们的实践活动,提高实践的效率和效果;同时,实践结果也可以修正和完善原有的理论。
◎ 认识具有反复性、无限性、上升性。比如,在科学研究过程中,人们需要经过反复实验和验证才能得出正确的结论;同时,随着实验条件和观测技术的不断改进,人们对于某一现象的认识也会不断深化。
知识在人类进化史上有无与伦比的崇高地位,许多哲学家、科学家给予了知识极高的评价,而思考是处理知识的过程。
在AI时代,语言文字是知识的表达方式之一,而数据是语言文字的载体,程序是处理数据的高效生产力工具。2023年12月,商汤科技基于自研大模型,推出AI编程助手“代码小浣熊”(Raccoon),其覆盖软件需求分析、架构设计、代码编写、软件测试等环节(见图1-5),满足用户的代码编写、数据分析、编程学习等各类需求,支持Python、Java、C++、SQL等90多种主流编程语言和主流集成开发环境(Integrated Development Environment,IDE)。用“KRE能力架构”来分析“代码小浣熊”产品自身的开发效率,即从需求分析、架构设计、代码编写、软件测试、部署上线、系统维护全流程来对比不同能力层的研发工作量,具体如下。

图1-5 “代码小浣熊”赋能软件开发全生命周期(黄色子流程部分为人机协同环节)
◎ 知识能力融入:让基础大模型掌握代码库,仅在开发环节用他人写过的代码来补全目标开发程序,从“代码小浣熊”的需求分析到最终产品的开发完成,总共需要投入100人天。[5]
[5] 人天:软件业衡量开发工作的单位,即一个程序员工作一天的工作量。
◎ 推理能力融入:让大模型深入软件开发全过程,进一步辅助需求分析与设计、用户界面生成、测试用例生成等环节,可节省30%的开发工作量,即只需要投入70人天。
◎ 执行能力融入:如果使用“代码小浣熊”2.0版本,调用强大的代码解释器(执行体),处理各种专业性问题,从海量数据中筛选出需求、指定产品特征,并根据特征完成产品开发,可节省80%的开发工作量,仅需要投入20人天即可完成产品的自主研发。大模型为什么需要调用代码解释器?因为在面对各种数学问题时,代码解释器能够正确、可靠地给出答案,例如,在ChatGPT中输入“请列出100以内所有质数两两相乘的结果”,以及“请列出100以内所有质数两两相乘后加1的结果”,它能够正确地列出前者,但在处理后者时却出现了错误。两个问题难度一样,为什么会出错?原因在于基础模型没有见过这类问题,它在训练时储备的世界知识无法直接给出答案,从而需要调用代码解释器,获得正确答案。