当前位置: 首页 > article >正文

关于大模型的10个思考

9月28日,第四届“青年科学家50²论坛”在南方科技大学举行,美国国家工程院外籍院士沈向洋做了《通用人工智能时代,我们应该怎样思考大模型》的主题演讲,并给出了他对大模型的10个思考。

以下是他10个思考的具体内容:

1、算力是门槛:大模型对算力的要求,过去10年非常巨大。今天要做人工智能大模型,讲卡伤感情、没卡没感情。

2、关于数据的数据:如果有GPT-5出来,可能会上到200T的数据量。但互联网上没有那么多好的数据,清洗完以后,可能20T就差不多到顶了,所以未来要做GPT-5,除了现有的数据,还要更多的多模态数据,甚至人工合成的数据。

3、大模型的下一章:有很多多模态的科研工作要做,我相信一个非常重要的方向是多模态的理解和生成的统一。

4、人工智能的范式转移:o1出来后,从原来的GPT的预训练思路,变成了今天的自主学习的道路,就是在推理这一步强化学习,不断地自我学习的过程。整个过程非常像人类思考问题、分析问题,也需要非常多的算力才行。

5、大模型横扫千行百业:在中国的大模型建设浪潮当中,越来越多的是行业大模型。这个趋势肯定是这样的,未来通用大模型的占比会越来越低。

6、AI Agent,从愿景到落地:超级应用一开始就在那里,这个超级应用就是一个超级助理,就是一个超级Agent。

7、开源vs闭源:我认为Meta的Llama并不是传统的开源,它只是开源了一个模型,并没有给你原代码和数据,所以我们在用开源系统的时候,也要下定决心真正理解大模型的系统闭源的工作。

8、重视AI的治理:人工智能对千行百业、对整个社会的冲击非常大,要大家共同来面对。

9、重新思考人机关系:真正把人机交互搞清楚,才能成为每一代高科技企业真正有商业价值的领导者。现在讲OpenAI加上微软就代表这个时代还太早,他们是领先了,但是未来还有很多想象的空间。

10、智能的本质:虽然大模型已经给大家带来很多的震惊,但是我们对大模型、深度学习是没有理论的。关于人工智能的涌现,大家只是讲讲,并没有讲清楚。

“青年科学家50²论坛”为新基石科学基金会的学术年会,由南方科技大学、腾讯可持续社会价值事业部、新基石科学基金会联合主办。新基石科学基金会由腾讯在10年内出资100亿元人民币设立、独立运营,是目前国内最大的公益性科学基金会之一,它的设立和运行,是腾讯践行科技向善、长期主义投入科学资助的具体行动。

“青年科学家50²论坛”是“科学探索奖”获奖人的跨学科学术交流平台。“科学探索奖”于2018年设立,是一项由新基石科学基金会出资、科学家主导的公益奖项,是目前国内金额最高的青年科技人才资助项目之一。每位获奖人在受资助的5年期间,至少在论坛上分享一次自己的 BIG IDEA 和最新探索。“50²”寓意“科学探索奖”每年评选出的50位青年科学家,将对未来50年的科学技术突破产生重大影响。

今天有了这样一些了不起的技术,甚至有了这样一些了不起的产品,我们在国内也都非常努力,也在做大模型,从技术到模型,到后面的应用,方方面面我们都在做。刚才姚院士也讲了很多清华最新的工作。所以我就想跟大家分享一下,在通用人工智能时代,我们应该怎么去思考大模型,我想谈几点自己的看法。

第一个思考,算力是门槛

今天的通用人工智能、大模型、深度学习,最重要的一件事情是最近这些年整个人工智能算力整体的增长。

过去10年,大模型用到算力的增长,一开始是每年六七倍的增长,后来每年超过4倍的增长。我现在问大家一个问题,如果有一件事情一年涨4倍,10年会涨多少倍?你先想一想,我一会儿再回到这个问题上。

大家都知道这一波人工智能发展,最获益的公司就是英伟达,英伟达的出货量逐年递增,算力逐步增强,整个公司的市值也成为全世界3个3万亿美元市值的公司(微软、苹果、英伟达)之一。最重要的还是因为每年大家对算力的需求。2024年购买英伟达芯片的数量还在急剧增长,比如埃隆·马斯克,他现在在建一个10万H100卡的集群,本身建万卡系统就非常困难了,建10万卡系统更困难,对网络的要求都非常高。

今天讲算力、大模型这件事情,最重要的就是(算力和数据)扩展(Scaling Laws),算力越多,智能越增长,现在大家都还没有摸到天花板。其中很不幸的是,整个数据量大了以后,算力的增长还不是线性增长,算力的增长更加像是一个平方的增长。

因为模型大了以后,要把模型训练出来,数据的量也要堆上去,所以相对来讲更加像是一个平方的增长。所以对算力的要求,过去10年非常巨大。所以我就讲一句话,今天要做人工智能大模型,讲卡伤感情、没卡没感情。

我刚才问了大家一个问题,每年涨4倍,10年涨多少倍?我们学计算机的人都知道有一个东西叫“摩尔定律”,每18个月左右算力增长一倍,英特尔这么多年就是这样发展起来的。为什么英伟达现在已经超越了英特尔?很重要的原因就是它的增长速度不一样。如果18个月涨一倍,10年大概涨100倍,这也是非常了不起的事情;如果每年涨4倍,10年就是100万倍,这个增长是非常惊人的。如果你这样想问题,英伟达的市值过去这10年涨得这么快,也就是可以理解的。

第二个思考,关于数据的数据

算力、算法和数据,是人工智能重要的三个因素。前面我提到我们需要很多的数据才能训练通用人工智能。当ChatGPT3出来的时候,当时还只是在发表论文阶段,说需要2万亿的Token的数据量;到GPT-4出来的时候,大概是12T的数量;GPT-4不断地训练,今天估计它已经超过20T的数量。对人工智能关心的人都知道,这么长时间以来大家一直等待着GPT5出来,但是它一直迟迟没出来,如果有GPT-5出来,我个人判断可能会上到200T的数据量。回过头来问,互联网上没有那么多好的数据,等你清洗完以后,可能20T就差不多到顶了,所以未来要做GPT-5,除了现有的数据,还要更多的多模态数据,甚至人工合成的数据。

很有意思的一件事,就像过去三四十年,大家把自己的信息放到网上分享,以前我们觉得是在给搜索引擎打工,现在更加了不起的是,我们三四十年的积累,就是为了ChatGPT这样一个时刻,它把所有的东西整合在一起,通过强大的算力,把这样一个人工智能模型学出来,就是发生了这样一件事情。

第三个思考,大模型的下一章

干到今天了,下一步应该怎么办?首先是语言模型。以ChatGPT为代表,它的底层技术是自然语言处理。今天大家正在干的是多模态模型,以GPT-4为代表,里面很多技术是计算机视觉。再向前走,就是要做具身智能。具身智能的目的在哪里?实际上是我们要建一个世界模型,就算是多模态的,底层的物理模型也是没有的,所以要做这样一个世界模型。世界模型就是你不仅要读万卷书,还要行万里路,把世界上更多的知识再反馈回你的大脑里。所以应该做机器人。我就觉得深圳应该下定决心做机器人,做具身智能。机器人里面有一个特别的赛道叫自动驾驶,自动驾驶是一个特别的机器人,只是它是在给定的路线上行驶。

要怎么做?有很多多模态的科研工作要做,我相信一个非常重要的方向是多模态的理解和生成的统一。就算Sora做出来,它也是分开的,多模的生成和多模的理解没有统一起来。这方面有很多科研的工作我们可以做。

举一个例子,我的几个学生做了一家大模型公司阶跃星辰,他们多模态的理解做得非常优秀。如果拿一张图给人工智能看一看,为什么图中的行为被称为“无效技能”,AI给你解释是,这个图看起来好像是一个小朋友在地上打滚,但是他妈妈无动于衷,自己在看手机和喝饮料,所以小朋友这个技能就被称为无效技能。AI现在对图的理解做得越来越好。

第四个思考,人工智能的范式转移

两个礼拜前,OpenAI发布了最新一个模型就是o1。前面我也提到GPT一直发展,到了GPT4以后,GPT5一直出不来,大家就在想,如果只是大模型参数的增长,是不是走到顶了?没有人知道,现在它并没有放出来,我们国内也没有做出更加超大的模型。

但是现在一个新的维度出现了,不是做前面的预训练(扩展),而是在做推理的时候再去做扩展。它是从原来的GPT这样一个思路,变成了今天的自主学习的道路,就是在推理这一步强化学习,不断地自我学习的过程。

以前我们做预训练,基本上就是预测下一个字是什么,下一个token是什么,现在新的思路是要打草稿,试试看这条路对不对,那条路对不对,就像人的大脑的思考,有一个快系统、一个慢系统,就像我们做数学题一样,先打个草稿,看看哪个路走得通,有一个思维链,再看优化思维链过程中的机会。到现在为止只有OpenAI把这样一个系统放出来,我也鼓励大家看看这里面的一些例子。

最重要的是,它整个过程非常像人类思考问题、分析问题,打草稿、验证、纠错、重新来,这个思路空间就会非常大。做这件事也需要非常多的算力才行。

第五个思考,大模型横扫千行百业

所有的公司都要面对大模型带来的机会,但是不需要每个公司都做通用的大模型,如果你连1万张卡没有,是没有做通用大模型的机会的,要做通用大模型,至少要有万卡。

比如说GPT4出来的时候,它的训练的总量是2×10^25 FLOPS。这么大的训练量,1万张A100卡也要跑一年时间才能跑到这个量,如果这个量都跑不到,就不存在做出真正的通用大模型。有了通用大模型,我们在这个基础上可以建自己的行业大模型,比如金融、保险,可能千卡就可以做得非常好,在上面做一些微调。对一个企业来讲,你有自己的数据,有内部数据、客户数据,把这些数据拿出来,几十张、上百张卡就可以做一个面向自己企业的非常好的模型。所以它是一层一层不断地搭起来的。

当然还有一个非常重要的维度,也是我非常喜欢的,就是未来的个人大模型。今天我们已经慢慢在PC、手机里面(数据有一定的积累),对我们的理解越来越多,未来我相信有这样一个超级智能帮助你的AI,收集了相关数据以后,它可以建一个自己的个人大模型。这是在(个人)终端部分,手机就是一个很自然的事情。PC方面,微软、联想这些PC公司也在推一个AI PC的概念,所以也有这样一些机会。

在中国的大模型建设浪潮当中,越来越多的是行业大模型。这里举一个例子,因为中国的大模型上线之前需要网信办批准,到今年7月底之前,中国一共有197个模型被网信办批准,当中70%是行业大模型,30%是通用大模型。这个趋势肯定是这样的,未来通用大模型的占比会越来越低。比如我们可以在通用大模型上做金融模型,这是上海的一家公司做的面向他的金融客户的大模型。比如英伟达的财报出来了,马上可以总结出它的亮点、问题是什么。

第六个思考,AI Agent,从愿景到落地

今天我们看到大模型最大的超级应用是什么,最大的机会在哪里。很多人现在还在不断地尝试,想找到一个超级应用。实际上超级应用一开始就在那里,这个超级应用就是一个超级助理,就是一个超级Agent。

以前我跟盖茨在微软一起做了很多年的工作,我们都在思考这个问题。它难在哪里?难在真正你要做有用工作的时候,要理解一个工作流,你问了一个问题,它能一步一步拆解。今天能做的,又有一定影响力的,比如做客服、个人助理。但是很多工作是没法弄的,它为什么没法弄呢?你要做一个数字大脑。底下的大模型只是第一步,大模型的能力还没有强大到能够把上面的这些工作都帮你一步一步做掉。因为你真正要做这样一个Agent,让它能做事情,它要了解下面这些问题是什么,每一部分都有对应的技能。

大家用今天的模型已经做了很多不错的例子,比如你可以做AI健康顾问,讲你对化妆品的理解,推荐化妆品,接下来大家会看到非常多这方面的应用。

第七个思考,开源和闭源

过去几十年世界科技的发展,特别是中国科技的发展,有两件事情是非常重要的。

第一是出现了互联网,有了互联网之后,你就可以在网上找到所有的论文、资料。

第二是开源,开源就使得你做应用的时候,跟领先者的差距急剧缩短。但是开源这件事情跟大模型、数据库的开源还不一样,虽然现在开源的能力是直逼闭源。国内也有很多公司在做开源的东西,开源今天做得非常好的是Meta的Llama 3.1,号称和OpenAI的差距不大了。我不这么认为,我认为它并不是传统的开源,它只是开源了一个模型,并没有给你原代码和数据,所以我们在用开源系统的时候,也要下定决心真正理解大模型的系统闭源的工作。

第八个思考,重视AI治理

因为AI发展太迅猛了,全世界对AI安全都非常重视。因为这件事情的影响实在是太大了,人工智能对千行百业、对整个社会的冲击非常大,整个世界的发展实际上是要大家共同来面对的。

第九个思考,重新思考人机关系

我刚才介绍了文生文、文生图、文生视频——有多少是机器的智能,有多少是因为人机交互给我们带来的震撼?

大概10年前,《纽约时报》专栏作家John Markoff写了一本我非常喜欢的书《Machine of Loving Grace》,当中总结了科技过去发展的两条线:一条是人工智能;另外一条是IA(Intelligent Augmentation),它是智能的增强,就是人机交互。有了计算机之后,它帮助人做了很多事情,下棋是其中一个例子。

事实上,真正把人机交互搞清楚,才能成为每一代高科技企业真正有商业价值的领导者。今天人工智能的界面已经非常清晰了,就是对话的过程,今天的代表是ChatGPT。但是讲OpenAI加上微软就代表这个时代还太早,他们是领先了,但是未来还有很多想象的空间。

第十个思考,智能的本质

今天虽然大模型已经给大家带来很多的震惊,但是我们对大模型、深度学习是没有理论的。今天,我们恨不得有任何理论都觉得很好。而不像在物理学,从物理的角度讲,大到浩瀚的星空、小到微小的量子都有很美的一些物理的定律来描述。今天人工智能还没有这样的理论,没有可解释性、没有鲁棒性。今天深度学习的框架到不了真正的通用人工智能。

关于人工智能的涌现,大家只是讲讲,并没有讲清楚。为什么模型大到一定程度智能就涌现了?为什么70B的模型就能涌现智能?没有这样的道理。所以我们也在非常努力地研究这方面的问题。去年暑假我也在香港科技大学组织了一场主题为“Mathematical Theory for Emergent Intelligence”的研讨会,讨论涌现智能背后还是要把一些科学原理、数学原理讲清楚,要有更多愿意探索的人参与进来,特别是像腾讯“科学探索奖”、“新基石研究员”项目的出现,有更多的年轻科学家加入进来,有更多的信心、信念深入到为未来人工智能发展再有突破的难的问题当中。

在这里插入图片描述

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述


http://www.kler.cn/news/325219.html

相关文章:

  • 828华为云征文 | 云服务器Flexus X实例:向量数据库 pgvector 部署,实现向量检索
  • Stable Diffusion零基础学习
  • 基于SpringBoot+Vue+MySQL的体育商城系统
  • Linux,C高级——day4
  • 【AI写作】解释 RESTful API,以及如何使用它构建 web 应用程序。
  • 基于nodejs+vue的水产品销售管理系统
  • 大厂面试真题:G1比CMS好在哪?一定好吗
  • CSR、SSR、SSG
  • 【STM32开发环境搭建】-3-STM32CubeMX Project Manager配置-自动生成一个Keil(MDK-ARM) 5的工程
  • 6.数据结构与算法-线性表的链式表示和实现-单链表
  • wireshark使用要点
  • 【STM32】江科大STM32笔记汇总(已完结)
  • Google BigTable架构详解
  • 无人驾驶车联网5G车载路由器应用
  • C++ 创建型设计模式
  • 怎么获取一个文件夹下的所有文件名?
  • MATLAB读取TIF文件,并可视化
  • 基于SpringBoot+Vue+MySQL的美食点餐管理系统
  • 项目集成SpringSecurity框架
  • Python项目Flask框架整合Redis
  • 揭秘移动硬盘RAW:原因、恢复策略与预防措施
  • 【TS】TypeScript内置条件类型-ReturnType
  • Java五子棋
  • 召回11 地理位置召回、作者召回、缓存召回
  • Oracle 表空间时间点恢复
  • 【自动化测试】Appium Server如何安装和Appium Server安装困难的原因和解决方法以及常见的一些安装失败的错误和解决方法
  • 前端问题小结
  • 大模型,互联网玩家们的「角斗场」
  • 算法【Java】—— 位运算
  • python中logging的用法