巅峰对谈:迈向 AGI 时代,除了优秀的大模型,还需要什么?丨 Fabarta& 蓝驰创投
回顾 AI 发展历程,符号推理、专家系统、代表概率连接主义的深度学习几大主流技术流派,彼此之间是此消彼长的过程。
5 月 23 日,36 氪举办「颠覆·AIGC」产业发展峰会。本次峰会汇聚产业力量,共同探讨企业、行业在面临变革时的应对策略,分享思考,探索和发现产业中最具潜力的企业与最具价值的技术,在激荡的环境中探寻前行的方向。
在大会的巅峰对谈环节,蓝驰创投管理合伙人朱天宇,与Fabarta创始人兼 CEO 高雪峰,围绕《迈向 AGI 时代,除了优秀的大模型,还需要什么?》这一主题,展开了讨论,聚焦三个方面:图系统在提升大模型知识和推理能力中的价值及其技术发展难点和解决路径、当前大模型落地应用的重难点,以及创业机会。
Fabarta 创始人兼 CEO 高雪峰认为,实现未来 AGI 需要概率和符号推理共同作用,通过图系统抽象出泛化知识,进一步加强 AI 的知识和推理能力。为此,他指出,需要解决两个难点:一是要将行业专家知识沉淀到图系统中,将大图技术与大模型 AI 技术在实际领域有效衔接;二是要通过系列工程优化工作,构建类似于大数据领域 Snowflake 的存算分离和分布式计算系统,以满足在大型图系统上做高性能计算的需求。
高雪峰表示,解决好第一个难点也是大模型在医疗、金融、工业制造等要求可解释性智能、与逻辑推理强相关的行业中落地应用的关键。同时,他指出,做好数据工程、提升大模型长效记忆能力也是大模型应用的必要条件,而图技术在这两个领域都可以发挥重要作用。
蓝驰创投管理合伙人朱天宇也认同高雪峰对 AI 大模型落地应用重难点的看法,并且强调了数据闭环的重要性。朱天宇分享了蓝驰创投的投资心法,指出,ToB、ToC 创业公司最好的状态是“一边赚钱,一边赚数据,一边赚知识”。
关于创业机会,朱天宇从 ToC 的角度进行了解读。他认为,创业公司一是需要从低阶往高阶做创新,而不能仅停留在翻译等生成式 AI 第一层能力的应用层面;二是可以拉长时间线,关注 AI+3D 交互+Robotics 三浪叠加的机会;三是探索三浪叠加的底层,以及如何利用 Web3 解决生产关系、价值确权和分配问题的机会。
高雪峰则从 ToB 的角度分享了看法。他指出,解决上述大模型工程化落地的诸多问题本身就能产生创业机会,同时,企业可以利用大模型的能力和认知推理技术颠覆部分场景中的 ToB 领域现有产品。例如,改进传统的客服系统,使其能够像一个了解本地知识的人工客服一样与用户进行顺畅的对话。
以下是嘉宾讨论实录,经 36 氪整理编辑:
朱天宇: 谢谢各位来听我们说两句,我们两个先介绍自己,然后再展开话题。
蓝驰创投是一家将近 20 年历史的早期投资基金,管理 150 亿美元和人民币双币基金。我们已经在 AI 领域非常积极地布局,包括在 AI 基础设施、应用层等方面的布局。昨天刚刚官宣潞晨科技的后续轮融资,这是一家针对分布式 AI 的算力训练公司。
接下来,Andy 来介绍一下自己。
高雪峰: 大家好,我是 Fabarta 创始人兼 CEO Andy,我在创办这家公司之前,曾经是 IBM 的 AI 研究院的院长,之后是阿里云的大数据和人工智能产品和解决方案的负责人。两年之前我创立 Fabarta 的初衷就是为了打造未来 AGI 核心基础设施,但我们是从图智能这个起点开始的。我们很早就知道蓝驰一直在 AI 领域布局,非常高兴在创业第一时刻能成为蓝驰家族的一员。今天,我很高兴有机会与大家分享我与 Terry 在 Office 里讨论的内容。
朱天宇: 今天形式挺好,一对一。你是创业者视角,我是投资者视角,而且你是偏基础设施 ToB 企业服务,对企业客户需求更了解;我平时关注应用层用户需求侧更多,咱们可以互相问问题。刚才介绍了 Fabarta 做的事,最开始第一次在办公室见面的时候我很好奇,你提到了一句话对于今天所有关注大模型的人,是不一样的声音:大模型要和大图一起融合共同生长,这个是未来通向 AGI(通用人工智能)的核心路径。这是非常有意思的观点。
能展开说说看法吗?相比现在讨论如火如荼的大模型,大图在这个讨论当中声音还没有那么多,这个恰恰是吸引我们的一点。
高雪峰: 好的,在最开始聊的这个话题时,包括创业最初的那个时刻,我们对整个 AI 历史发展的路径都非常了解。从数学概念的角度来讲,概率和符号推理是推动人工智能发展了几十年的两个主流的技术路径。过往 AI 曾经有过几次的波峰和波谷,其中符号推理、专家系统、代表概率连接主义的深度学习是几个主流技术流派,它们彼此之间是一个此消彼长的过程。但是我们在当中会深刻地体会到,能够真正实现未来的 AGI 人工智能时代,一定需要让概率和符号推理共同作用。概率是实现深度学习的数学概念,计算机能理解的形式是向量,虽然符号推理有许多技术可以实现,但通常被 AI 领域所接受的是以大图系统为核心的、计算机能理解的技术体系。
尽管深度学习、Transformer 技术发展迅速,大模型火爆出圈,大家普遍认为强人工智能时代或 AGI 时代已经到来了。但其实我们都知道,要实现未来的 AGI,还需要加入强大的知识和推理的能力。就像我们在《思考的快与慢》这本书中看到的,人的思维有两个系统:System 1 和 System 2,只有这两个系统共同作用,才能实现真正的智能。
朱天宇: 我们作为投资者关注 AI 方向很久,刚才其实提到这两个路径的此消彼涨,在之前看到的一些行业应用当中已经体现出来。CV+NLP 这几年的发展相对更快一些,但实际在历史上我之前读到文献观察到,这两条路交替领先,专家决策系统一度是比神经系统领先更多。恰恰揭示一个大家不可忽视的规律,科学发展,包括在工程上的进展总是有不同路径不断融合。还原到投资和创业公司交流视角也是:我们既要战略上极其重视大模型,但是不能只迷信大模型。因为这里面有一些问题不一定完全能解决掉,比如推理这个问题。
沿着这个话题问一下,比如说我们现在这个大模型,刚才说推理上需要进一步提升,在哪些地方推理不够?那图的视角怎么解决这个问题,可以举个例子吗?
高雪峰: 我们都知道,所有的大模型背后的原理基本上都是围绕着 Transformer 的技术,基本上它的核心技术原理就是预测下一个字符是什么。我经常问各种各样的大型模型一个问题:“姚明出生的那一年的 NBA 季后赛亚军球队的教练是谁?”这个问题有点绕,但我们的人脑很容易理清逻辑,找到正确答案。然而,大多数大型模型(除了 GPT-4 以外)都会给出错误答案,因为它们主要是通过训练数据来凝结成的泛化知识,而且这些知识都是压缩过的。因此,大多数网上的信息都是把姚明跟 2002 年联系起来,因为那年他获得了 NBA 选秀冠军和 CBA 冠军戒指,相关的信息在网上是最多的。因此,很多的大型模型其实提取的是 2002 年的那个信息,然后找到一个 NBA 季后赛的球队,再给出该球队的教练作为答案。
这个例子是一个很简单的 Prompt Engineering 角度的推理,实际上很难做的。但是,如果我们把一些结构化和图技术应用于其中,就可以很容易地实现。例如,在大型模型中,泛化知识都是存在的。我们可以问一个问题,询问姚明出生的那一年是哪一年,它会告诉你是 1980 年。然后,你可以问它这一年 NBA 季后赛的冠亚军球队分别是谁,它也能告诉你。接着,你可以问它他们之间的比分是多少,它也能告诉你。这证明了用大型模型来沉淀泛化知识,虽然是压缩的,但已经被证明效果非常好。但是,要让它实现推理能力,需要将泛化知识抽象出来,进行一定的逻辑推理,那一定是需要符号逻辑和图形知识系统的介入。
朱天宇: 这个例子太生动了,又帮我深入地理解了图在推理当中的价值。那我想再正向的追问一个问题,刚才提到了目前大模型在推理上的一些不易察觉的问题,因为它是用概率来解决问题。那正向的理解的话,图在哪方面能做得更好,更 Powerful ?
高雪峰: 我们创业之初想要做的是一个面向未来的大图智能系统。很多朋友经常问我什么是大图系统?回到问题本源,在我们刚才提到的概率和符号两个系统此消彼长的过程当中,为什么我们说图和大图代表的知识图谱、专家系统的发展并不像人们想象的那么快,进展缓慢。这里面有两个非常大的技术难点:第一个难点是如何将自然界的一些系统化的知识以低成本的方式高效地沉淀到知识系统和图中,这是非常困难的,也是制约整个图系统发展的一个最大瓶颈。解决这个问题之后才会有第二个问题,即当图的数据量膨胀到非常大的时候,如何在这种大型图系统上做高性能计算?现在大部分图系统底层的基础设施架构并没有真正做到核心的分布式计算。因为图的分布式计算是一个 NP 问题,我们需要进行很多工程上的优化,才能真正实现像大数据领域的 Snowflake 一样的存算分离和分布式计算系统。因此,我认为这是两个难点。
关于第一个难点,大模型沉淀泛化知识的能力是非常强大的,我们完全可以利用大模型的能力来沉淀各行各业的专家知识,沉淀到图的系统当中去,我们跟很多客户在一起探索这条路径。比如我们在医疗领域的客户,有很多的沉积下来的历史数据。我们就是利用大模型帮助客户构建其“客户 360 系统”,通过所有用户的病例信息和数据沉淀出一张大的图谱出来。但是这里面会有一些幻象存在,比如在某些病例中,我们通过大模型提取到了患者发烧这一信息,但是我们提取出来患者的体温只有 20 度,是因为那个里面提到了患者的年龄是 20 岁。所以可能大模型压缩信息的时候会把这个信息漏掉,或者是产生一些错误的认知。
但我们上面有一个专家辅助的系统,系统会直接就提示出来。如果是发烧的症状,提取的体温在 37 度以下,这个数据都是不正常的。我们会重新调用大模型,并告诉它之前的识别结果不正确,要求它提供真实数据。模型会重新提取出 38.5 度的数据,并将它添加到我们的体温图谱体征里面去。这就是我们如何真正的将图系统和大模型 AI 技术在实际领域进行有效的衔接。有了这个系统,我们可以进行许多推理工作,例如健康风险评估、易感疾病群体的体质评估等,都可以在这张大图上去做强推理。但你是无法直接让大模型的泛化知识来帮助解决你这个问题的。
朱天宇: 那是不是可以再追问一下,哪些行业场景应用本身对推理的诉求会比较高,或者说它的数据结构在泛化、压缩的时候容易出现刚才的问题?使得这些场景对于大模型和大图的融合的诉求会更迫切,图智能技术能够更好地、更完整地解决他们行业的需求。
高雪峰: 这个问题很好,这涉及到了我们如何把大图的技术与主流优秀的大型模型技术结合起来,真正的在 To B 工业场景中实现落地。
朱天宇: 那现在 GPT-4 有这个能力吗?
高雪峰: 我觉得 GPT-4 其实是一个黑盒子技术,大家其实都在猜它有什么样的能力,我们也是在猜。至少我问它刚才说的姚明的那个问题时,它基本上可以非常理性地给出一个很正常的回答。所以我们觉得在 Prompts Engineering 的阶段,它一定应用了一定程度的符号推理或者图解析的能力来做这件事情。
朱天宇: 那 GPT-4 已经开始在融合了。
高雪峰: 对,昨天我看到了一个非常有意思的论文,Princeton 大学和 DeepMind 的工程师一起做了一个推理的优化框架,它不是 COT(Chain of thoughts),它是 Trees of thoughts,我们称之为思维树。
朱天宇: 类似之前的专家决策树。
高雪峰: 对,把它应用到了这个 GPT-4 的推理的框架当中去,数据实践已经证明把 GPT-4 的推理的能力提升了大概 17 倍。
朱天宇: 回到刚才我那个问题,什么行业更需要大模型和大图的融合?
高雪峰: 我们尝试过的行业,像医疗、健康、保险、银行、金融、工业制造等需要精确领域智能的行业,在大模型真正落地的时候,都是需要跟我们的逻辑推理是强相关、强绑定的。这也是为什么我们在最开始创业时选择的是图智能的这个大方向,打造未来的 AI 的基础设施。我们正在开发图和向量相结合的多模态引擎,因为我们接触了许多客户,无论是互联网客户还是传统的 ToB 客户,可解释性智能在这些客户中都是最重要的事情之一,因此我们从可解释性智能开始。但我们也很高兴看到大型模型和多模态大型模型技术的快速发展,这可以更快地将可解释性智能融入我们的整个体系中。
朱天宇: 可解释智能其实非常关键。我们投过理想汽车,投理想之前,我们就在关注人工智能。当时的进展在 CV,CV 在自动驾驶落地呈现第一个形态就是辅助驾驶公司,但是辅助驾驶公司没法闭环,感知决策控制没法闭环,使得我们当时看 CV 的人工智能应用场景,关注到整车制造商,当时几个新的造车势力头都在闭环想这个问题。这是 2016 年很早投理想的一些思路。
可解释智能,不同行业 AI 对于向上溯源解释能力不一样,包括刚才说的医疗我觉得特别典型。我们看很多医疗创业公司,希望用之前积攒医疗数据训练,但是能不能解释,到什么程度,交付不一样。可解释 AI 引入另外一个问题,数据达到什么样程度?现在大家讨论大模型投喂非常大的数据,预测 2035 年之内人类现有存量数据喂完了,要有新数据进来,数据这块模型到底有什么诉求,以及对于数据本身有什么样要求?
高雪峰: 这就是为什么说我们今天讨论的话题很好,迈向真正的 AGI 时代,除了大型模型之外,还有许多其他领域值得关注。例如,您刚才提到的一个非常重要的点,其实就是数据工程。我们都知道,用于大型模型训练的数据,包括它的 Prompt engineering 等各个阶段,甚至后面的强化学习的知识反馈,对数据质量都有一定的要求。
现在已经出现了一些数据问题,比如说现在已经充斥着各种多模态的数据,这些数据大多是由 AI 生成的,其质量好坏不一。如果我们把所有数据一股脑地全部传给大型模型进行训练,我们不知道未来模型固化出来的参数会是什么样子。所以我觉得数据工程这件事情也非常的重要,对于任何的一家大模型的公司来说都很重要。这也是我们想要研究和探讨的领域之一。在数据工程中,我们能否利用图技术将组织好的、具有逻辑关系的数据提供给大模型,观察在模型的训练过程中是否能够提高其推理能力。因此,我觉得数据是贯穿整个 AI 生命周期的重要因素。
您提到了理想汽车的案例,我也很好奇。第一次跟您聊天时,您提到了“数据闭环”这个词,这是当时您投资理想汽车时的一个主要决策点。我想听听您对于数据闭环的看法,以及如何通过这种对数据的思考预见到今天的理想。
朱天宇: 人工智能还是源于大数据蓬勃发展,没有数据人工智能也是无米之炊。我们很早说过没有大数据就没有人工智能,大数据又起源于云计算普及、工作流数字化程度越来越高。没有云计算也没有大数据。
有了这些准备好的进程之后,数据闭环对于人工智能来讲,是非常关键的,因为所有新知识源于嵌入到工作流当中能不能很好闭环。当时投理想就发现这个问题:真正自动驾驶闭环工作流是感知决策控制。刚才提到在 2015 年前后,那时候只是在 CV 方面的进展,更多解决感知层问题、决策控制层这块没有完全跑通,真正训练完成必须把整个感知决策控制全部闭环里面。智能在闭环里训练产生,只在一个环节是卡在那,不能把整个任务完成。
2016 年,对于 VC 来说看一个重资产的车厂商也是挑战一件事情,恰恰是我们理解了数据和智能关系之后,必须要做的一件事情。因此很幸运我们在更早时间点布局智能汽车,后来整个新能源车蓬勃发展,大家进展还不错。
最近还在继续看自动驾驶行业。大模型来了之后,自动驾驶训练也有哪些可能新的进展,我们也在评估。包括不同场景,可能有哪些新的可能性。同时在最近看一些新的 AI 创业公司,我依然关注闭环问题,因为这里面有一个我们经常用的一个标准心法:我们更希望看到创业公司一边赚钱,一边赚数据,一边赚知识。你的应用,你找的场景能不能让应用经过 AI 分装之后,提供服务的同时在场景当中继续获得新数据,这个数据反哺 AI 训练,让服务质量效率更高,这个闭环是非常关键。无论 ToB 还是 ToC 都有这个视角。当时投理想也是这个视角得到的结果。
高雪峰: 所以在那个时代还是真不容易的。您刚才提到的这个视角,在当下把 AGI 或者是大模型的能力应用到工业领域,也遇到了一个很重要的问题:就是大模型的长效记忆能力的问题。大模型在应用的过程当中需要不断沉淀知识或数据,以保证它的记忆能力。国外已经有很多优秀的框架,不管是 LangChain,还是 LlamaIndex 等,都是非常优秀、成长非常快的框架,帮助我们真正地把大模型应用到实际的工业领域当中去。
我也有一个很有趣的例子,经常和别人分享。在大模型的真正应用中,我们必须提供具有记忆能力的基础设施。我们正在做类似这样的基础设施。例如,今天我正在与 Terry 进行对话,在这种环境中,我可能将这个环境压缩成向量并存储在我的记忆库中。虽然我们已经交谈了很多,但您的样貌也被以向量的形式存储在我的记忆中。我们交谈的内容也可能变成向量,而它们之间不仅仅是简单的向量记忆,而是有逻辑关系的。因此,我们正在构建一个大图系统,将向量能力和图形能力融合在一起,以提供工业领域中大型模型的长期记忆能力。我们发现,像国外的 LlamaIndex 已经开始将图形和向量数据库引擎技术融合在一起,这是一个趋势。因此,我也希望我们能够与中国本土的许多优秀企业一起,在这个领域做更多的工作。
朱天宇: 数据其实也是整个行业生态的一部分,刚才聊的图路径,聊的数据、基础设施的视角,其实就已经聊到今天很重要话题:整个行业生态问题。前段时间我们去硅谷交流,得到一个很重要观点是,OpenAI 在模型参数上和其他追赶者领先程度相比于在生态领先程度,生态上的领先程度要远远大于模型上的领先程度,这是 OpenAI 在这段时间爆发之后带来最大优势。
您分享一下怎么看 AI 产业,尤其 AGI,未来通用人工智能上下游生态,有哪些关键节点,包括我们能做哪些事,我们希望整个行业做哪些事,让中国在这里跑到前面?
高雪峰: 我认为这确实是每个人都值得关注的问题,因为在迈向未来的 AGI 的过程中,每个人都有自己的认知、思维体系和想法。但是从涌现出来的非常开放、非常丰富的生态的角度来看,我们已经看到许多优秀的方向已经有人在研究了。
比如说,除了许多优秀的多模态大型模型之外,我们还看到许多优秀的细分领域专业大型模型在开源生态中涌现出来。同时,我们也提到了作为大型模型的长期记忆能力体,我们也看到了许多优秀的向量引擎,包括我们正在开发的图和向量融合的多模引擎等,来提供这种能力。当然,我们也看到了像尤教授团队这样的优秀团队,他们正在研究分布式训练和推理框架,可以帮助每个大型模型公司节省成本、优化结果。此外,还有像 LangChain、LlamaIndex 等优秀的框架,可以将大型模型与本地知识连接起来。此外,还有非常丰富的开源大型模型生态,以及您刚才提到的即使是闭源的 OpenAI 大型模型,但它也提供了非常丰富的插件化生态,以弥补当前大型模型在时效性、知识推理、数学计算等方面的不足。我认为只有各种生态蓬勃发展,才能促进我们真正实现类人甚至超人智能。
朱天宇: 我们也感觉到像 OpenAI 的生态确实令人震惊,也感觉到了其中的差距。每一次行业周期变化,生态价值最后决定到底是谁是入口级的新的大厂。这里面感觉 OpenAI 生态里包含了数据、开发者、算力等等这个链条上所有的东西。另外角度来讲,在中国接下来很可能有闭源和开源,开源可能在针对中国一些行业场景可能会发现更大的价值,针对开源框架大家还有什么样的工具像搭积木一样,让更多行业场景客户都能够从中享用 AI 带来效率提升,这是我们看到生态很重要的价值。
最后,因为 36 氪今天请来很多创业者,我们可以聊聊在 ToB 方向上创业机会。除了刚才在生态关键节点上,我觉得更多从现在接触这个行业客户需求角度,他们现在有什么需求,有什么痛点,解决什么样的问题,因此呼吁什么样的工具和机会出来?
高雪峰: 我先说一下从 ToB 的这个视角看到的这些机会,Terry 可以从应用和 ToC 的视角来分享一下。从我接触的传统行业或者稳态行业的这样的一些 ToB 的客户的思考来看,基本上如果真正的把大模型带入到他们实际的工程落地的角度当中,其实有几个问题是需要解决的。
第一个方向,大型语言模型存储的是压缩后的泛化知识。然而,每个企业都有自己多年积累的本地知识体系,这些知识可以以知识图谱、知识库或其他形式存在。因此,第一个要解决的问题就是将泛化的大模型与本地知识连接起来。
第二个方向,大模型在真正被使用的过程当中,任何的一个企业都要不断地去积累数据,把我们过程当中产生的中间结果和数据记忆下来,因此长效记忆的能力也是非常的重要。
第三个方向,大模型在企业真正落地的时候,它一定需要具备一定的可解释性,那如何让不可解释的大模型具备可解释的智能,是大家一起要去探索和研究的课题。
第四个方向,结合本地数据,研发有特色的行业、领域的大型模型。
第五个方向,利用大型模型的能力和认知推理技术,在一些场景中颠覆 ToB 领域现有的产品。例如,通过结合已经建好的数据湖或数据仓库,将传统的 BI 系统提升到 Headless BI 阶段。再举个例子,对传统的客服系统进行改进,使其能够像一个了解本地知识的人工客服一样与用户进行顺畅的对话。这需要开展很多工作,但这也为我们带来了很多机会。我相信,在 AI 应用于工业领域的过程中,将会催生非常多优秀的 ToB 领域的高科技企业。这也是我们 Fabarta 最核心的定位之一。Terry,您可以分享一下您在 ToC 方向的看法。
朱天宇: ToC 和 ToB 不一样。AI 对于用户来讲是非常新奇的体验。
我在最近看很多创业公司应用项目的时候,我自己有体会,我觉得我们接下来做这个事,不能只停留在低阶创新,要努力去做高阶创新,什么意思呢?
就是比如说第一波使用 ChatGPT,翻译等这些能力其实是直接用生成式 AI 第一层能力带来结果,这是一阶创新。但我更期待看到二阶、三阶的创新。前段时间大家看到斯坦福大学一个实验室做了一个尝试,用生成式 AI 创造 25 个智能体——小镇上 25 个人,像西部世界一样。25 个人生活在一个小镇,每个人有法官、老师、大学生等角色。一天一天生活过去了,每天每个人角色有不同故事线发展,因此也有不同互动,有意思的传言在小镇当中发生,成了小镇共同记忆。观赏小镇发展的价值,就像西部世界一样,这也是一种价值,作为观赏者去看原来一阶创新观赏内容的互动价值就是二阶创新或者高阶创新。
我们看到尤其是很多 95 后团队,大开脑洞。不同积累的创业者,大家各自优势不一样。我们经常会类比,但我觉得年轻创业者不受制于类比方式,行业变化之后,用类比很可能被碾压,ToC 尤其是这样。我建议一定要从低阶往高阶做创新。
第二,我们还有一个很重要、更长时间的框架看 AI 创业机会——AI+3D 交互+Robotics 三浪叠加。AI 这波大家已经看了,尤其 GPT 到了相对成熟时间点;另一方面大家讲元宇宙,抽象来讲还是 3D 交互。这和 XR 新的交互界面设备,和整个空间数字化带来的三维数据、多模态数据的进一步使用,让人工智能执行更多任务;加上 Robotics 作业执行能力,人的能力的进一步延伸。这三个底层技术叠加在一起能有长达 20 甚至更长时间的创新周期,这个大浪不得了。
我们自己在这方面不只是看和 AI 相关,更多从底层的驱动力去看,任何在这个方向做交叉,包括在数据层面,比如多模态数据。其实 OpenAI 在过去几年,用自己的基金也在去投一些做多模态数据的公司,这些都是建立大模型生态护城河,是我们关注的方向。
三浪叠加的底层,还有 Web3 去解决生产关系、价值确权和分配问题,这是一个更长周期的视角,也是我们保持关注的。从这几个角度,我希望看到更多创新创业机会。我们最近在 AI 应用层,游戏、社交等大家过去在互联网垂直行业看到的一些垂直场景的应用都在布局。
高雪峰: 也会有很多优秀的项目能够涌现出来了。
朱天宇: 时间差不多了,那我们最后各自给大家寄予一句话。
高雪峰: 今天我们讨论的话题是人工智能时代所需的丰富生态。Fabarta 一直致力于打造真正坚实的未来 AGI 时代的核心基础设施,我们希望能够将真正的智能带入我们真正的 ToB 工业企业中。我们也希望与在座的每一位投资人、朋友和企业一起努力,相信在未来真正的 AGI 时代,会涌现出许多非常优秀、非常杰出的中国企业,就像过去互联网时代的出现了腾讯、阿里一样。因此,我们将继续努力实现这个目标,并希望大家能够一起为之努力。
朱天宇: 分享一句大家都耳熟能详的话:“永远不要高估 3 年之内的变化,但也不要低估 10 年之后的变化。”最近这这半年,我们非常忙,但是大家很兴奋。我们其实永远是用一个穿越周期的视角来看整个行业,就像刚才说的这个三浪叠加的一个大的框架,用这样的耐心去陪伴创业者,一起去寻找创新的机会,哪怕这个过程高高低低、起起伏伏。谢谢大家。
高雪峰: 谢谢。
编者按:本文转自 36 氪,作者:沈筱,Fabarta 经授权发布。
评论