张钹:大模型为通用AI发展打开新道路,需建立可解释、鲁棒的理论
近日,中国科学院院士、清华大学人工智能研究院院长、清华大学计算机系教授张钹在接受采访时分享了他的观点。他认为,为了推动人工智能产业的健康发展,我们需要建立可解释和鲁棒的人工智能理论和方法。此外,他还强调了大模型在推动通用AI发展中的重要性。
首先,张钹指出,当前的人工智能技术主要依赖于特定的算法和规则来完成特定的任务。这种传统的AI范式虽然取得了显著的成果,但在处理复杂问题时却显得力不从心。相比之下,生成式AI范式则具有更强的适应性和泛化能力。通过广泛文本数据的训练,生成式AI可以在开放域内生成类似于人类水平的高质量文本、图像和其他内容。这种能力使得生成式AI在自然语言处理、计算机视觉等领域取得了重要突破。
然而,尽管生成式AI在某些方面表现出色,但它仍存在一些明显的局限性。例如,生成式AI的所有工作都是在外部提示下完成的,且其工作方式基于概率预测。与此相比,人类的工作则是依靠内部意图驱动。此外,生成式AI还可能产生出自知、质量不可控、不可信、不鲁棒等问题。这些问题需要得到解决,以便使人工智能技术更具可靠性。
张钹进一步强调,大模型为我们提供了发展通用硬件和软件的机会。大模型是一种基于深度学习的生成式AI技术,它可以通过大量的数据训练来获得强大的生成能力、迁移能力、交互能力和幻觉。其中,生成能力是指模型可以根据给定的上下文和过去的对话,在开放域内生成多样性的高质量文本;迁移能力是指模型可以在代理任务上训练一个模型,并通过微调适配到感兴趣的下游任务;交互能力包括与人类的交互(人机交互)、机器之间的交互(多智能体)、与环境的交互(具身智能),通过交互,模型可以在不同专业和科学的测试基准上表现出人类水平的智能;而幻觉则是指模型有时会产生看似合理的编造或无意义的答案。
尽管大模型在推动通用AI发展方面具有重要意义,但我们还需要注意到,它们仍然存在一些局限性。例如,大模型的工作都依赖于外部提示,这意味着它们很难在没有明确指导的情况下自主完成任务。此外,由于大模型缺乏对内在意图的理解,它们可能会遇到质量不稳定、不可信和不鲁棒等问题。因此,我们需要寻找新的解决方案来克服这些挑战。
为了实现这一目标,张钹提出了几个建议。首先,我们应该加强科学研究,以更好地理解和掌握人工智能的基本原理。这包括研究模型的结构、学习过程、记忆机制等方面,从而为构建可解释和鲁棒的人工智能理论和方法提供坚实的基础。其次,我们需要注重技术创新,开发更加先进的技术手段,如深度学习、强化学习等,以提高人工智能系统的性能和可靠性。最后,我们需要将科学研究、技术创新和产业发展结合起来,形成一个良性循环的生态系统。这样,我们可以加快人工智能技术的研发和应用,为各行各业带来更大的变革和创新。
总之,张钹的观点提醒我们,人工智能领域的创新和发展仍然面临许多挑战。只有通过深入研究和不断探索,我们才能够建立更加安全、可控、可信的人工智能技术,从而推动该领域的持续发展。同时,我们也应该关注大模型在推动通用AI发展中的重要性,努力克服它们的局限性,为人工智能的未来发展创造更加美好的前景。