2024-07-06
在科大 2024 值年返校纪念大会上的发言

科大 2024 值年返校有近 5000 人参加,我们 2010 级少年班学院的回来了大约 1/4。

尊敬的各位领导、各位老师,亲爱的校友们:

大家下午好!我是 2010 级 00 班的李博杰,非常荣幸能作为校友代表发言。转眼间,本科毕业已经十年了。

首先,我要向母校表达我最诚挚的感谢。从 2010 年到 2019 年,从本科到硕士、博士,我认识了一批优秀的同学和校友,至今都是我最好的朋友,也是创业中的合作伙伴。读博期间,我老婆实验室的谈老师邀请我做一个学术报告,我跟我老婆就是那时认识的。

Read More

2024-05-05
事业心很强的男生适不适合做人生伴侣?

(本文是我的知乎回答《事业心很强的男生适不适合做人生伴侣?》

开始创业之后,认识很多创业者,大多数都是事业心很强的男生。

发现一个有趣的现象:这些创业者单身率明显比同龄人高。而且婚姻的稳定程度也比同龄人低。

单身率高

在 AI、移动互联网和 Web3 领域,创业成功的联合创始人,基本上身价至少一个小目标;创业没成功的联合创始人,基本上也有非常光鲜亮丽的履历,比如名校毕业,大厂高职级,各种头衔和奖项。他们/她们肯定是不愁找到很好的伴侣的。但为什么单身率这么高,婚姻稳定度这么低呢?

核心原因就是事业心很强的男生大多数时间和兴趣都在事业上,对生活、感情和家庭的投入比较少。

Read More

2024-04-22
知乎《新人物》访谈:华为天才少年的 AGI 信仰

一个月前知乎《新人物》的访谈视频终于发布了。我还是第一次参加此类带生活内容的访谈,这绝对不是公司的 PR,因为全程都没有出现我们公司的名字和产品,甚至很少有人知道我们公司真实的名字。

感觉知乎还是挺有做媒体的操守的,采访之后没有让我看视频,就直接发布了,所有剪辑、标题和旁白都是知乎小编做的。

(04:16,215 MB)

视频拍摄地:

  • 北京办公室
  • 家里(访谈,跟老婆一起做饭,还有一些照片)
  • 树村郊野公园(我经常跑步的地方,那个会飞的电动蝴蝶是我 2017 年做的,拍摄过程中被挂到了树上,还是我们非常强悍的摄影师小哥哥爬到树上给摘下来的)
Read More

2024-04-15
如何培养 Research Taste?

(本文首发于知乎回答:《如何培养在计算机系统领域的研究品味(Research Taste)?》

转眼间从科大本科毕业已经接近 10 年了。昨天跟老婆讨论我们科大系统圈子同学近期的发展,就发现 research taste 是决定学术成果最关键的因素。第二关键的因素则是动手能力。

什么是 research taste?我认为,research taste 就是找到未来有影响力的研究方向和研究课题。

很多同学技术很强,也就是动手能力很强,系统实现能力很强,但是仍然做不出来有影响力的研究成果,主要原因就是 research taste 比较差,选的研究方向要么只是蹭热点,缺少自己的思考;要么过于小众,没有人关注。

博士生的 research taste 靠导师

我认为,research taste 早期主要靠导师培养,后续主要靠自己的愿景。

Read More

2024-04-14
Chatbot Arena:基于社区评价的大模型评测基准

(本文首发于知乎回答:《目前大语言模型的评测基准有哪些?》

必须吹一波我们 co-founder @SIY.Z 的 Chatbot Arena 呀!

Chatbot Arena 是基于社区评价的大模型评测基准。上线一年来,Chatbot Arena 已经有超过 65 万次有效用户投票。

Chatbot Arena 见证大模型的快速进化

最近的一个月,我们在 Chatbot Arena 上见证了几件非常有趣的事情:

  • Anthropic 的 Claude-3 发布,大杯 Opus 模型的性能超越了 GPT-4-Turbo,中杯 Sonnet 和小杯 Haiku 模型的性能也追平了 GPT-4。这是 OpenAI 以外的公司首次夺得排行榜的首位。Anthropic 的估值已经 $20B,直逼 OpenAI 的 $80B 了,OpenAI 是应该有点危机感了。
  • Cohere 发布了迄今最强的开源模型 Command R+,104B 模型的性能追平 GPT-4,当然跟 GPT-4-Turbo 还有一定差距。我今年年初接受甲子光年采访的时候提出了 2024 年大模型四大趋势(《AI 一天,人间一年:我与 AI 的 2023|甲子光年》):“多模态大模型能够实时理解视频,实时生成包含复杂语义的视频;开源大模型达到 GPT-4 水平;GPT-3.5 水平开源模型的推理成本降到 GPT-3.5 API 的百分之一,让应用在集成大模型的时候不用担心成本问题;高端手机支持本地大模型和自动 App 操控,每个人的生活都离不开大模型。” 第一个是 Sora,第二个是 Command R+,都已经应验。我还是重复这个观点,如果一家主要做基础模型的公司 2024 年还训练不出 GPT-4 的话,就不用再折腾了,浪费了大量算力,最后连开源模型都比不上。
  • 通义千问发布了 32B 开源模型,几乎可以达到 top 10,不管中文英文都很能打。32B 模型在成本上的杀伤力还是很强的。
  • OpenAI 被 Anthropic 的 Claude Opus 超过了,自然也不示弱,马上发布了 GPT-4-Turbo-2024-04-09,又夺回了排行榜上第一的宝座。不过 OpenAI 迟迟没有发布 GPT-4.5 或者 GPT-5,而且大家期待的多模态模型一直没有出来,这是有点令人失望的。
Read More

2024-04-07
B 站 Up 主采访李博杰:为什么创业

本视频是 B 站 Up 主 “苹果冒个泡儿” 对我的采访视频,原视频链接

整个采访半个小时,是一次录完的,除了 Up 主加的片头之外,基本上没有剪辑,也没有提前准备问题的回答。

(27:07,136 MB)

Read More

2024-03-29
四万字长文:AI Agent 应该更有趣还是更有用?

全文约 4 万字,主要内容来自 2023 年 12 月 21 日在中科大校友会 AI 沙龙上的 2 小时报告,也是 2024 年 1 月 6 日知乎 AI 先行者沙龙 15 分钟报告内容的技术扩展版本,文章经笔者整理和扩展)

非常荣幸来到科大校友会 AI 沙龙分享一些我对 AI Agent 的思考。我是 1000(2010 级理科实验班)的李博杰,2014-2019 年在中科大和微软亚洲研究院读联合培养博士,2019-2023 年是华为首届天才少年,如今我跟一批科大校友一起在做 AI Agent 领域的创业。

今天是汤晓鸥教授的头七,因此我特别把今天的 PPT 调成了黑色背景,这也是我第一次用黑色背景的 PPT 做报告。我也希望随着 AI 技术的发展,未来每个人都可以有自己的数字分身,实现灵魂在数字世界中的永生,在这个世界里生命不再有限,也就不再有分离的悲伤。

AI:有趣和有用

AI 的发展目前一直有两个方向,一个是有趣的 AI,也就是更像人的 AI,另外一个方向就是更有用的 AI,也就是更像工具的 AI。

AI 应该更像人还是更像工具呢?其实是有很多争议的。比如说 OpenAI 的 CEO Sam Altman 就说,AI 应该是一个工具,它不应该是一个生命。而很多科幻电影里的 AI 其实更像人,比如说 Her 里面的 Samantha,还有《流浪地球 2》里面的图丫丫,黑镜里面的 Ash,所以我们希望能把这些科幻中的场景带到现实。只有少数科幻电影里面的 AI 是工具向的,比如《钢铁侠》里面的贾维斯。

除了有趣和有用这个水平方向的之外,还有另外一个上下的维度,就是快思考和慢思考。这是一个神经科学的概念,出自一本书《思考,快与慢》,它里面就说人的思考可以分为快思考和慢思考。

所谓的快思考就是不需要过脑子的基础视觉、听觉等感知能力和说话等表达能力,像 ChatGPT、stable diffusion 这种一问一答、解决特定问题的 AI 可以认为是一种工具向的快思考,你不问它问题的时候,它不会主动去找你。而 Character AI、Inflection Pi 和 Talkie(星野)这些 AI Agent 产品都是模拟一个人或者动漫游戏角色的对话,但这些对话不涉及复杂任务的解决,也没有长期记忆,因此只能用来闲聊,没法像 Her 里面的 Samantha 那样帮忙解决生活和工作中的问题。

慢思考就是有状态的复杂思考,也就是说如何去规划和解决一个复杂的问题,先做什么、后做什么。比如 MetaGPT 写代码是模拟一个软件开发团队的分工合作,AutoGPT 是把一个复杂任务拆分成很多个阶段来一步步完成,虽然这些系统在实用中还有很多问题,但已经是一个具备慢思考能力的雏形了。

遗憾的是,现有产品中几乎没有在第一象限,兼具慢思考和类人属性的 AI Agent。斯坦福 AI 小镇是个不错的学术界尝试,但斯坦福 AI 小镇里面没有真人的交互,而且 AI Agent 一天的作息时间表都是事先排好的,因此并不是很有趣。

有趣的是,科幻电影里面的 AI 其实大部分是在这个第一象限。因此这就是目前 AI Agent 和人类梦想之间的差距。因此我们在做的事情跟 Sam Altman 说的正好相反,我们希望让 AI 更像人,同时又具备慢思考的能力,最终演进成一个数字生命。

Read More

2024-02-25
国科大实践课题:只会基本编程的本科生也能开发 AI Agent

从 2023 年 12 月开始,我作为企业导师,跟国科大刘俊明教授合作了一个 AI Agent 实践课题,有大约 80 名来自全国各地的学生参加,大部分是只会基本编程的本科生,也有一部分有 AI 基础的博士生和硕士生。

2023 年 12 月和 2024 年 1 月开了 6 次组会,讲解了 AI Agent 的基础知识、OpenAI API 的用法、本次 AI Agent 实践课题,并解答同学们在实践过程中遇到的问题。实践课题包括:

  1. 企业 ERP 助手
  2. 狼人杀
  3. 智能数据采集
  4. 手机语音助手
  5. 会议助手
  6. 老友重逢
  7. 谁是卧底

2 月 20-24 日,参与这个研究课题的部分同学集中在北京进行 Hackathon,并展示了项目的阶段成果。参与的同学普遍感受到大模型能力的强大,没想到这么复杂的功能仅用几百行代码就做出来了。以下是部分展示的项目成果:

Read More

2024-02-22
Groq 推理芯片:用空间换时间的把戏

最近 Groq 推理芯片以 500 token/s 的大模型输出速度刷屏了。

一句话来说,这个芯片就是玩了个用空间换时间的把戏,把模型权重和中间数据都放在了 SRAM 里面,而不是 HBM 或者 DRAM。

这是我 8 年前在微软亚洲研究院(MSRA)就做过的事情,适用于当时的神经网络,但真的不适合现在的大模型。因为基于 Transformer 的大模型需要很多内存用来存储 KV Cache。

Groq 芯片虽然输出速度非常快,但由于内存大小有限,batch size 就没法很大,要是算起 $/token 的性价比来,未必有竞争力。

Groq 需要几百卡的集群才能跑 LLaMA-2 70B 模型

Read More

2024-02-20
我是如何走上 AI 创业之路的

我与 AI 的早期接触

读博期间与 AI 的邂逅

我博士本来是做网络和系统研究的,博士论文就是《基于可编程网卡的高性能数据中心系统》。很多做网络和系统的人看不起一些 AI 研究,说 AI 的文章容易灌水,只要有 idea,一两个月就可以发出 paper 来。而网络和系统的顶会文章往往需要很大的工作量,做一年之久。

除了在学校的时候上过的那些 AI 的课,我第一次正经做 AI 相关的项目是 2016 年,用 FPGA 加速 Bing Ranking 里面的神经网络。当时正好是 AI 的上一波热潮,今天的 AI 四小龙都是那段时间启动的。

微软把 FPGA 大规模部署到数据中心,除了网络虚拟化,还有很重要的一块就是神经网络推理加速。当时我们还用流水线并行来把神经网络的权重全部放到 FPGA 片上的 SRAM 里面,从而实现超线性的加速比。这段故事在《MSRA 读博五年——自己主导的第一篇 SOSP》中 “机器学习加速器的探索” 一节有更详细的描述。

当时搞网络和系统的很多人对 AI 并不了解,也不屑于了解,连训练和推理都分不清,也搞不清正向和反向算子。通过优化这些算子,我至少知道了基本的前馈神经网络(FFNN)到底是怎么算的。但我并没有接触业务,没有折腾过自己的模型。

Read More
RSS