Sign in

You're signed outSign in or to get full access.

Cheetah Mobile - Q1 2024

June 7, 2024

Transcript

Operator (participant)

Good day, and Welcome to the Cheetah Mobile First Quarter 2024 Earnings Conference Call. All participants will be in a listen-only mode. Should you need assistance, please signal a conference specialist by pressing the star key followed by zero. After today's presentation, there will be an opportunity to ask questions. To ask a question, you may press star, then one on a touch-tone phone. To withdraw your question, please press star, then two. Please note, this event is being recorded. I would now like to turn the conference over to Helen, Investor Relations for Cheetah Mobile.

Helen Zhu (Director of Investor Relations)

Thank you all for your Welcome to Cheetah Mobile's First Quarter 2024 Earnings Conference Call. With us today, our company's Chairman and CEO, Mr. Fu Sheng, and Director and CFO, Mr. Thomas Ren. Following management's prepared remarks, we will conduct the Q&A section. Before we begin, I refer you to the safe harbor statement in our earnings release, which also applies to our conference call today, as we will make forward-looking statements. At this time, I would now like to turn the conference call over to Chairman and CEO, Mr. Fu Sheng. Please go ahead, Fu Sheng.

Sheng Fu (CEO)

Hello everyone. Thank you for joining us today. This is our first earnings call since November 2021, and we are excited to share our progress as we resume our quality updates. Cheetah Mobile is making changes. We are moving from focus on C2C to B2B. In Q1, our revenue from AI and others, or enterprise-focused, increased by 62% compared to last year and 36% from the previous quarter. Now, these revenues make up 43% of our total revenue. We expect this to grow to about 50% by the end of the year, making a significant step in our transformation. Our recent acquisition of Beijing OrionStar, an AI service provider, was an important move.

It gave us a skilled sales team to build ties with business customers and end-to-end capabilities for LLMs, including model training, fine-tuning, developing LLM-based apps, and enhancing service robots, a new attachment for interacting with end users and customers in the AI era. With OrionStar, we are now focusing on making customer enterprise apps with LLMs and introducing LLM-powered robots for specific business needs. We see two main reasons for this focus. First, market opportunity. Unlike the competitive To C market, enterprises are increasingly choosing LLM-based apps on private cloud due to data security concerns. However, they face challenges in developing apps, presenting substantial opportunities in China's enterprise sector. Second, synergies. Bringing together Cheetah and OrionStar allows us to combine our app expertise with AI skills, better capturing the market opportunities. By selling robots to businesses, we can even find new ways to use LLMs to improve efficiency.

We are using a product-driving approach to enhance our LLM capabilities. This is why we focus on the 10B parameters, LLM segments, and avoid large upfront investment in GPUs. We believe that training parameters LLM is unnecessary, and enterprises can deploy and use 10B LLMs on private clouds at lower cost. Over the past few months, we trained our 14B parameters foundation models from scratch, which has been approved by authorities for a large-scale rollout and ranks among the top of various lists. Additionally, we are fine-tuning nearly all leading open-source foundation models to offer more options for our customers, all without significantly increasing costs. Furthermore, we have seen positive developments by integrating LLM-based apps into our service robots. In particular, our delivery robot can now interact better with users, leading to increased demands, especially in Japan and South Korea.

Currently, our overseas revenue has surpassed domestic revenues and continues to grow steadily. With LLMs, we believe the features of our service robot will expand even further. I would also like to highlight how we assist our customers in using LLM-based apps efficiently. For example, we helped Kunlun University develop an LLM-based QA feature for its app, improving user experience. We also developed LLM-powered customer service features for another customer products, including WeChat Mini Program app and our service robot. This service is now available in Yingshan, helping local residents apply for housing funds. We are also working with enterprises in China's branch industry to improve management efficiently with LLM-based apps. In the early stage of LLM-based app development, we closely work with our customers to understand their needs, identify areas for improvement with LLMs, find the most appropriate LLM, fine-tune, and develop customer apps.

This process helps us standardize some LLM-based apps and capabilities, particularly in customer service, enterprise management, and training, which we can replicate to more customers. As a result, we are monitoring customer feedback and certification. Additionally, all the applications can be incorporated into our service robot. Our long-term business model in LLM's era will involve selling robots and offering value-added service. As we focus on building LLM-based apps for enterprise, we will shift our resource from our legacy internet business to AI business. This will improve the operating margin of our internet business, which we use as a financial performance metric. In summary, LLM is a once-in-a-generation opportunity. With OrionStar and our clear strategy, we are now confident in our direction. We would like to emphasize that we don't want to set short-term revenue growth targets, but we are aggressively prioritizing our customer satisfaction and building lighthouse projects.

By doing so, we believe we will establish a new growth engine to drive sustainable long-term growth in both revenue and margins over time. All we need is a bit of patience. We thank you, all dedicated employees, for their hard work in making this happen. Thank you. And, Thomas.

Thomas Jintao Ren (CFO)

Thank you, Fu Sheng. Hello everyone on the call. Please note that, unless stated otherwise, all money amounts are in RMB terms. Today, I am going to talk about two topics. First, our continued investment in large language models, or LLMs, resulting in avoiding operating loss for the quarter, while total revenue has resumed its increase. Second, our healthy balance sheet. First, we are investing in LLMs. We aim to help enterprises quickly develop LLM-based new apps. As Fu Sheng mentioned in his speech, our acquisition of OrionStar has allowed service robots to become a key revenue contributor to the segment of AI and others. In Q1 of 2024, revenues from AI and others increased by 62% year-over-year and 36% quarter-over-quarter to CNY 81 million, accounting for 43% of total revenue in the same period.

Driven by contributions from Beijing OrionStar, our total revenue increased by 12% year-over-year and 14% quarter-over-quarter to CNY 190 million. This acquisition also allowed the two teams from Cheetah and OrionStar to work more efficiently together to better capture the opportunity in LLMs, as we help Chinese enterprises develop apps on LLMs to boost productivity. We expect this will lead to a substantial growth in revenue over time. In addition, LLMs are enabling us to improve the product experience provided by our service robots, which are now more capable of answering users' different inquiries. This enhancement has strengthened our competitiveness and should drive the sale of our service robots over time. In Q1 of 2024, our total non-GAAP cost and expenses increased 21% year-over-year and 19% quarter-over-quarter.

Non-GAAP operating loss was $66 million in the quarter, up from $42 million in the same period last year and $49 million in the previous quarter. This is primarily due to the investments in LLMs mentioned earlier. Through Beijing OrionStar, we acquired many R&D talents and To-B sales personnel, which are very important for us to capitalize on the opportunity in this sector. As of March 31, 2024, we had about 860 employees, up from about 720 a year ago. We are also renting GPUs for model training and fine-tuning. Excluding the impact of the aforementioned investments in LLMs, our cost and expenses, as well as our margins, remain stable. For example, excluding SBC, our operating profit for the internet business was 7.9% in the quarter, up from 3.1% in the same quarter last year.

As we continue to review our product portfolio and remove products that did not address user pain points, we will continue this approach moving forward. At the same time, we will continue to invest in talent, both in R&D, specialized in LLMs, and to-B sales personnel, to help us seize the LLM opportunity to build a new growth engine for Cheetah. Our investments will be backed by our strong cash reserves. At the same time, we will continue to increase our operating profit for the internet business. Secondly, Cheetah Mobile has a healthy balance sheet. As of March 31, 2024, we had cash and cash equivalents and short-term investments of about $250 million. In addition, we had about $130 million of long-term investments, which include several holdings in well-known entities such as Metaso.cn.

Lastly, in line with the practice of comparable China-based companies listed in the U.S. capital market, we have decided not to provide revenue guidance going forward. Thank you.

Helen Zhu (Director of Investor Relations)

Everyone, for today's call, management will answer questions in Chinese, and an AI agent will translate management's comments into English in a separate line. Please note the translation is for convenience purposes only. In the case of any discrepancy, management's statement in Chinese works well. If you are unable to hear the English translation, a transcript in English will be available on our websites within seven working days. Thank you so much. Operator, please now take questions. Thank you.

Operator (participant)

We will now begin the question and answer session. To ask a question, you may press star then one on your touch-tone phone. If you are using a speakerphone, please pick up your handset before pressing the keys. If at any time your question has been addressed and you would like to withdraw your question, please press star then two. At this time, we will pause momentarily to assemble our roster. The first question today comes from Nancy Lu with JPMorgan. Please go ahead.

Speaker 12

[Foreign language] 谢谢管理层。那我这边有一个问题,我想请问一下管理层,今年24年对于公司的计划和目标是什么?打算主要在哪几个方向发力?是客户量、技术,还是产品?谢谢。

Sheng Fu (CEO)

[ Foreign language] 那我来回答。就是我觉得我们的目标还是要把我们这次的战略的转型要彻底地贯彻下去。也就是说,猎豹移动经过几年的时间,已经从家2C的为核心业务的公司,逐渐转向2B为核心业务和能力的公司。而这个2B的主要抓手就是人工智能大模型这一次的这么一次技术浪潮。我们真正要发力的就是把人工智能的应用给做好这一件事,这一个方向。这个方向是我们整个公司的核心战略。然后我们自己新定了一个公司的叫做slogan,讲的就是我们要成为人工智能时代下的心智生产力的提供商。也就是当然这个工具,心智工具,生产力工具的提供商。这个生产力工具主要这一次我们主要是2B这个行业。那这里具体我们真正的你问这几个点,我们觉得还是产品吧。因为今天人工智能虽然非常的火热,但是真正的能够落地的产品并不太多。可能大模型的技术学术非常的厉害,但是真正哪个企业用户能用得比较好的,现在案例还不是太多。我们觉得现在就是扎扎实实做好企业用户的应用,用人工智能帮他提效。此外就是我们把我们的大模型赋能我们的服务机器人,让我们的服务机器人能够有更好的交互能力,更好的自主决策力,在更多的场景中被我们的企业客户所使用。我觉得24年能把这件事做好就非常非常就可以了。谢谢。

Speaker 13

Operator, please move to the second question. Thank you.

Operator (participant)

The next question comes from Thomas Zhang with Jefferies. Please go ahead.

Thomas Zhang (Research Analyst)

[Foreign language] 晚上好,猎豹移动是一家2C业务的核心企业。现在企业要转型2B,做大模型是要花的不少,做机器人。副总理的信心来自于哪里?2B业务不同于2C的业务,可能需要花很多的时间去维护客户、客群关系。副总理是如何布局的?谢谢。

Sheng Fu (CEO)

[Foreign language] 好的,谢谢你的提问。我觉得信心来自于实践。就是今年,去年年底我们收购了猎户星空。商猎户星空也是最初也是猎豹投资的,我也花了不少精力去协助猎户星空来做这个。因为猎户星空一出来就是做2B的相当于市场。所以在这个过程中他们有队伍,然后我们也参与了一些。然后我们在猎户星空的这里面收购这个过程中,我们也学到了很多经验。然后我自己,对,你说的2B不同于2C,我们也花了,就是应该说花了很长时间去学习。然后包括你说的花很多精力去维护客户和客群关系。我觉得最重要的第一个还是要打造一个适合2B的组织能力。我们这半年也花了很多时间去各种。还有一点我想说的是,除了收购猎户星空之外,我们其实还有在几年前整个猎豹也做了不少2B的工作,包括我们有个叫巨云的这么一个业务,上市给各个企业提供亚马逊和谷歌的云服务。我们也是亚马逊和谷歌在中国的这个相当于是金牌,不叫金牌,叫做顶级的合作伙伴。所以我们其实在那个时候就已经开始不断地摸索如何去和2B的客户做交流,然后我们的组织如何去适应2B的这么一个市场。应该来说的确2C转2B是有很大的这个叫做转型的痛苦的。但是我们包括我在内的我们的管理层都花了很多精力,不仅去学习,也去实践。你说维护客群和客户关系,这个的确做2B是要花时间的。当然了,我们现在由于组织已经建设了有类似于华为的铁三角,我们有专门的AR、FR这样的职位去服务我们的客户。我自己花时间去维护,不是客群关系,而是更多地跟客户交流去获取他们的需求。因为只有周一把手去了解客户的需求,才能把2B的业务做好。这也是这几年我们学到的。至于说布局,我觉得今天我们的想法就是,首先我们要打好这个标杆客户。我们现在有几个行业的相当于是顶级客户正在交付,这个交付对我们来说至关重要。虽然我们是做2B了,但是2C的这种重视用户体验这一点还是我们的命脉,一定会让我们的客户觉得足够的,就是我们给他提供服务和产品足够的让他满意。打好标杆客户以后,刚才我发言也说过,我们能够把一些标准件给相当于是标准化出来,就可以做复制。其次,再一个就是由于我们2B的组织建设,所以我们的很多客户关系可以既用在大模型的这种应用上,也可以用在机器人的这种应用上。这里已经出现了很多交叉的案例,都是大模型和机器人的客户共同采购的。所以我觉得现在我们应该说猎豹移动现在重新处在一个创业期,不能说有什么特别大的布局。更重要就是选好人工智能这条战线,然后把客户给服务好。在这个人工智能大潮下,真正的踏踏实实地做应用,让客户觉得满意。谢谢。

Speaker 13

Operator, please move to the next question. Thank you.

Operator (participant)

The next question comes from Vicky Wei with Citi. Please go ahead.

Vicky Wei (Equity Research Analyst)

[Foreign language] 管理层晚上好。谢谢接受我的提问。我想请教一下管理层,我们看到公司的应收账款、prepayment,还有应付账款金额比较大。可否解释一下这是什么业务导致的吗?公司将如何管理应收和应付?谢谢。

Thomas Jintao Ren (CFO)

[Foreign language] 托马斯来回答吧。 好,Vicky,谢谢你的问题。这几个科目金额比较大,都是和我们的一项广告代理的业务相关的。我们猎豹的广告代理业务是帮助众多的中国的广告主从几个比较大的海外平台、在线广告平台购买广告。由于我们确认收入的金额只是广告代理费,所以客户采购广告和我们应付广告平台的金额的全额都是分别计入到你刚才讲到的prepayment和payable的两个科目。这个业务其实也是一项2B的业务,而且我们运营了将近十年。那在这个十年间,我们其实形成了非常严格的机制来评价广告主的信用表现,并且去管理我们的应收应付的账期。我们对这个业务的现金管理还是很有信心的。谢谢。

Speaker 13

Operator, please move to the next question.

Operator (participant)

The next question comes from Miranda Zhuang with Bank of America. Please go ahead. Miranda, your line is open. You may ask your question. It appears we are unable to connect with Miranda at this time. So the next question comes from Karin Kong with Tianfeng Securities. Please go ahead.

Karin Kong (Chief Global Tech Analyst)

[Foreign language] 管理层晚上好。非常感谢今天有这样的一个提问的机会。我想请问一下副总,包括咱们Thomas,就是因为其实关于猎户的话,市场也比较关注,也是咱们可能猎豹里边最具成长性的,以及未来比较有发展空间的一个资产。然后包括刚才其实副总也提到里边咱们猎户其中的大模型业务和机器人业务。这块我就想问一下,就是咱们市场也比较关注咱们猎户。那么后边一个是就是从猎户的猎豹的咱们的股东层面,就是怎么去,比如说规划猎户,包括它的unlocked value,包括后边是否会考虑猎户的单独的上市。因为这块也是市场最关注的咱们猎豹里的一个资产。谢谢。

Thomas Jintao Ren (CFO)

[Foreign language] 托马斯来回答一下。谢谢您的提问。您讲到猎户,其实我们在收购了之后,猎户的业务重点就是我们集团大部分的2B的业务都是放在猎户这家主体里面。但是作为猎豹移动这家上市公司,我们始终是致力于为猎豹移动的股东创造最大的价值。针对猎户的规划,我们会全面地评估各种资本运作的机会,包括可能的让子公司去单独上市或者进行独立的融资。我们的目标是通过有效的方式去提升猎户的业务表现和市场价值,从而进一步提升整个公司的股东价格。股东价值在每一个决策过程中,我们都会充分地考虑市场环境、公司战略以及猎豹移动股东的长期利益,确保我们的每一步操作都能为股东带来最大的回报。谢谢。

Speaker 13

Okay. Operator, please move to the next question.

Operator (participant)

The next question comes from Miranda Zhuang with Bank of America. Please go ahead.

Miranda Zhuang (VP of Equity Research – Internet & Media)

[Foreign language] 晚上好,感谢管理层接受我的提问。我这个问题是想请教一下,就是如果我们看过去的话,很多云厂商在前几年做一些项目制的产品,然后其实效果也不太好,然后也看到最近几年在收缩中。所以就特别想了解一下我们公司在大模型的这个市有化的部署上有哪些创新,然后公司做的这个项目的收入和利润率大概是一个什么样的水平。然后就是可以再帮我们再更好地理解一下,就是在大模型的这个时代,为什么我们会觉得企业级的应用是需要私有化去部署。毕竟就是我们这几天也最近也看到越来越多的云厂商提供更标准化的这些模型的这些调整的这个工具,然后也在做各种降价的这种行动,甚至都就是做到免费的。那就是在这样的一个新时代,然后这样的一个竞争格局的情况下,为什么就是企业还需要做私有化部署,然后什么样类型特征的企业就会您觉得会就是更适合做这个私有化部署?谢谢。

Sheng Fu (CEO)

[Foreign language] 好啊,这个问题还挺多。我简单回答一下。就是第一个就是云厂商的这个项目制,这个说实话我没有那么了解,因为我据我知道的一些云厂商的这个项目,他是做特别大型那种巨大的云的私有化。那个其实和我们今天讲的这个私有化其实概念是不太一样的。但事实上云厂商给他的客户提供足够好的部署服务这件事,他是一直在做的。他只是比如说像亚马逊这样的大公司,他们的部署就他们的人员成本已经很高的情况,他就让合作伙伴来完成。就像我们的巨云就承接了很多这样的项目。而且由于这样的合作伙伴他的成本更低,所以也是有不少的这个利润的。今天我们做的项目的收入和利润率,我们今天坦率讲,我们做这个真正的帮助企业私有化部署这件事还是在我刚才言简意赅也说了,我们还是在做标杆的这个时候。我们现在对这个利润率这些的考量并不是太多。但是我们现在推出这种模式更多的是这个能够去跟合作伙伴去一起这个相当于 revenue share 的模式。这个等到我们真正有一个特别明确的时候再来讲吧,应该是这样。然后下一个问题,大模型的企业应用为什么要私有化部署?因为越是大的企业,他对数据安全的考虑就会越多。而今天你大模型的这个真正你用公有大模型,你真正传给他的很多都是企业的内部的文档,尤其是一些敏感类的文档。其实绝大部分企业都是对这一点上是非常有顾虑的。因为大模型本身的内生能力来自于数据,这数据互联网的数据抓完以后,那其实企业内部的数据也是一个非常重要的数据源。所以这个我们看到的至少客户这一层面是有相当大的顾虑的。而且基本上上了一定规模的公司都是要求大模型的私有化部署的。我们和以前云有什么不同呢?就是我们在做私有化,第一就是大模型的私有化部署本身的成本并不高。它不是一个复杂的部署体系。它其实今天大模型基本上你用一些服务器,雇2台服务器,这大模型就可以私有化部署进去。所以它这个本身部署的成本是非常低的。第二个就是说在做项目制的时候,因为今天我们是做的这个AI落地,我们部署进去大模型,就是大模型有个和以前的这些应用不同的能力,就是它自己的推理和理解力是比较强的。所以这让我们去接触别的行业的客户,比以前那个时代,包括以前那个时代不仅云了,还有SaaS,其实我们是跨领域的能力比以前要大幅度增强。也就是说以前我如果不够足够了解这个行业,其实我很难去进行部署。但因为大模型现在自己了解,我不知道说这个你理解不理解,就是它会自己了解很多专业知识。所以当你就我们的部署的工作量,就是不叫部署,叫做帮他去做应用的工作量会比以前要少很多。而且它一旦形成了这种中台以后,它的那个就是可复制性也会强很多。举个例子,我们当时讲,我们之前讲了一个为一个政务化的项目做这个公积金,老百姓去做公积金,他可以直接问问题。这个我们开始做了挺长时间,但是等到第二个客户来的时候,我们的部署可能也就花了这个2-3周的时间就完成了。第三个就是你问的这个云厂商的大模型推理成本在不断降价,甚至这个免费,现在免费的大部分是开源模型,而开源模型真正在使用的时候,我们遇到的客户绝大部分都是要求自己私有化部署的。当私有化部署分两方面,一方面叫做内网的私有化部署,这对安全级别要高的,还有一种叫云端的私有化部署,也就是我在云端布一个模型,但这模型只给我用,就不能给别人用,数据不能交叉。这种部署也是用这个私有化部署。所以你刚问的那个其实主要还是数据安全的考量吧。当然其实如果你的大模型用得多的话,你部署一台机器的这个成本比你不断地去,当然现在token也在降价,这个其实还是会有些优势的。第三个就是那个什么样的企业和那个适合呢?我们觉得就是这个越大规模的企业,其实它基本上就越需要这个数据的安全性。所以反过来,这就是一个对我们来说也是个好事情,我们更多的这个企业的需求来自于这个支付能力很强的大企业。谢谢。

Speaker 13

Please move to the next question. Thank you.

Operator (participant)

The next question comes from Zhai Lulu with Haitong. Please go ahead.

Speaker 11

[Foreign language[ 感谢管理层接受我的提问。我这边有一个问题,就是想问一下管理层,管理层是如何思考机器人业务和大模型之间的关系,以及说我们今天公司 all in 了大模型企业级应用,这个对机器人业务有哪些促进作用?

Sheng Fu (CEO)

[Foreign language] 因为我们做的机器人不是这种工业产品的机器人,那种自动化机器人,我们做就是服务业的这个机器人,我们本身的客户群就是这个企业用户。这个企业用户,而且我们那个收购猎户星空以后,他们不仅他们更多是代理体系,就是他们的代理商也不仅仅做这个机器人业务,也做很多这种企业的信息化实施、信息化的这个部署业务。所以仅从渠道上来说,它很大一部分就是可以去复用的。第二个从技术点上来说,这个大模型就是机器人的大脑。以前机器人这个产业除了工业机器人之外,就其他这种机器人其实一直都发展得不够好。很重要一点就是这个机器人的大脑能力没起来。现在这个为什么具身智能这么火呢?其实就大语言模型带来的这个叫做决策力和判断力的这种增强以后,现在大家都认为这个服务机器人这个产业,或者叫人形机器人也好,或者叫这个类人形机器人也好,就大家都认为它的未来会很好,就是因为大模型的突破。那么我们这个关系是什么呢?我一方面我们刚讲了客群关系是可以复用的,很大一部分都可以复用的,就是To B的这种企业客户,你一旦建立连接,你发现卖机器人的,他也会对你的大模型感兴趣。这个跟你大模型谈这个,他会觉得你机器人这个也能去帮他替很多岗位。第二个更重要的是,如果我们不把大模型能力给锻造好的话,我们的这个机器人长久来说就会失去竞争力,对吧?因为我们做机器人不是做一个硬件产业,而是真正的做这个他的这种自主决策力。然后我们现在通过对大语言模型的这个训练,包括微调应用等等这些,我们对大语言模型的能力如何用在机器人上有了更清楚的认知。我们内部现在已经开始做了一些具身智能这方面的这个训练了,已经不再是单纯的做大语言模型的训练了。也就是说我们机器人上结合这个具身智能和大语言模型,它的能力会不断地延展。现阶段能看到的就是以前我们做了很多年这个叫语音交互机器人,也就是接待讲解这个一直做的就是成长性不够好,是因为用户的体验一直上不来嘛,那个问题问出范畴他就回答不了。现在有了大语言模型,基本上这个交流的这种顺畅度、满意度都大幅度提升。我们对市场也披露过一个数据,我们当时帮客户做这个相当于这个企业问答,用户问答,我们准确率能够做到97%左右。这个数据就使得你想一个机器人能够给你在讲解的时候能回答那么高的准确率,它的这个实用性就相当于人了。然后呢,而且这个准确率提升还不是靠以前这个大量的人工的去这个做问答对什么的,而是现在只要把一些文档输给他,这个机器人对这里的了解,对吧,就能够去做到一个很高的程度。所以现阶段已经明显可以看到这个在这个讲解介绍这个场景下,机器人这个用户的这个需求在增加,尤其大语言模型又是本身又是多语言化的。以前我们在海外的机器人更多只有英语,因为跨一个语言对我们来说工作量都很大。但现在由于大语言模型它天然就是一个多语言的,所以我们下一步也会在海外推出这个语言交互的这种机器人。当然长远来说,我们也在做一些机械臂的训练,让机器人能够去做一些这个工作,当然这还需要一些时间。谢谢。

Speaker 13

Next question, please, operator.

Operator (participant)

The next question comes from Boris Van with Bernstein. Please go ahead.

Boris Van (Equity Research Analyst)

[Foreign language] 好,欢迎参加,谢谢你给我这个机会做提问。我有两个问题,一个问题是关于我们在大模型社融部署这个场景,竞争力其实蛮大的,然后很多有很大资源的公司也在玩。我们想理解你们做那个大模型微调方面,你们觉得你们会有什么竞争的优势吗?还有你们那个技术门槛会在哪里?然后第二个问题是关于AI的人才。我好奇想问一下你们对那个AI人才招人这个方面有什么,你对那些趋势怎么看?然后你们有需要感觉你们要进一步吸引相关的人才吗?谢谢。

Sheng Fu (CEO)

[Foreign language] 这个问题还挺好的。就是我先想强调一下,就是我们收购的猎户星空,其实在这个17、16年就创办,当时就已经开始做人工智能了。而且17年的时候猎豹移动就喊出过All in AI这种口号,也和猎户星空进行了很多这个AI方面的协同。所以应该说我们的经验不是从去年开始的。这个虽然大语言模型和之前的模型有一些这个特点的不一样,但它的本质的底层神经网络,这个Transformer,我们在最早的TTS上在这个就已经使用过,就语音模型上就有一部分用过Transformer的一些构架。所以我们整个队伍对这个Transformer的整个理解是经过长期沉淀的。那个微调这件事呢,你说竞争优势,我觉得更多的是来自于这个颗粒度,就是能做得足够细。因为微调本身它是大概十几万条语料的这个准备,还有就是根据场景去做好这个数据这方面的精修。这里面其实要花很多的这个心思和这个认真的细节的管理,还有和用户的需求的沟通。这里我觉得呢,如果讲竞争优势,或者说谁有什么竞争优势,我觉得在这么一个激烈的市场下,很难有一家公司说它自己在技术上有什么独到的不可逾越的优势。我觉得我们更多的优势是来自于跟客户、跟市场的结合。就是我们真正主打的,就微调这件事,这个主打的是一个快速的这个迭代的过程,而不是某一个点你做了人家做不了。所以我们不断地强调就用户的这个口碑,还有这个对一些项目的落地的重要性。然后你讲私有化部署本身,大模型私有化部署本身其实根本就不难。这个得说,我们真正做的不是说大模型私有化部署这件事,而是把它部署到用户的这个网络里以后,去根据用户的业务特点、业务需求去做相应的应用套件。这件事的难度在哪呢?在于说今天模型的能力并没有达到一个通用就AGI的这个地步,也不会。刚才是不是有人问过,就如果模型更新怎么办?还有,对,就是不好意思。那个就是真正来说,今天的大语言模型的能力有一定的推理力,但是它离企业那个场景的需求是有一个可能是挺大的这个gap,这里需要做应用。这个做应用这件事的拼的竞争优势,就是你和客户的对客户需求的洞察和在这个需求里面去真正用一整套的技术手段去帮他提供一个解决方案。因为客户只关心这个事情对我来说满意不满意,而不是说关心你究竟是模型是模型解决的,还是应用这个套件里的其他技术解决的。我们经过实践发现,即便是像ChatGPT、OpenAI这样的模型,你真正用在很多企业里面,只是做一个这个叫专业知识问答,它的满意度客户都是不能满意的。这是我们自己经过了这个实践。所以是要经过根据客户的需求去定制一些套件,这些套件去协同大模型工作。这个协同工作以后才能让这个用户真正达到所谓的数字员工的这个角色。这个其实现在看起来市场上其实缺乏这样真正的能够去给客户提供这个让他满意的解决方案。这个是我们对市场的一个理解。所以你问的这个竞争优势,其实我们就是这个和客户的需求深度的去探寻,然后去把细节做好吧。至于你说相关人才呢,这一点上,第一呢,我们的这个领头人的因为涉及到我们就不讲,但是也是这个发过论文的,也有足够的这个学术和这个产业的前瞻性。然后呢,那个在具体的实施的人员和这个一些算法工程师上,其实中国的人才储备是相当多的。在这点上,就是市场上招这样的人不是太困难。这个所以我们对,而且我们并不准备去在大模型的这种大参数量和极致能力上去进行竞争。所以我们这种对所谓的特别顶级人才的需求没有那么高。我们更多的是结合现在我们认为已经供给过剩的大模型的能力去给用户,给我们的企业客户提供一套解决方案。这件事情上是我们的发力点。谢谢。

Speaker 13

Operator, please move to the next question. Thank you.

Operator (participant)

The next question comes from Ritchie Sun with HSBC. Please go ahead.

Ritchie Sun (Director of Internet Research)

[Foreign language] 管理层,晚上好。谢谢你们的时间。我可能问一个问题吧,就是关于私有化部署的。其实我们怎么看,因为其实这些模型一直会持续迭代嘛,然后我们怎么解决这种持续迭代,然后对我们的提供的一些产品方面,我们怎么去看这种迭代对我们的成本,或者是从就是我们的产品方面我们怎么去可以保持这个迭代的那个效率。还有就是当我们对基于企业场景为客户做选择了一款大模型,做完一些微调部署,应用是结用了起来了,但其实迭代模型迭代速度非常快。当这些模型迭代之后,是不是就会完全覆盖了我们为企业微调的大模型的能力?谢谢。

Sheng Fu (CEO)

[Foreign language] 对,非常感谢你的问题。就是说这里面有几个概念我先讲一下,就是微调还有应用,这两个是不同的概念。就是其实在大部分企业的场景下,是不需要单独为企业去做很大规模的微调的。因为企业的现在模型的基础能力在百亿参数以上,现在我们认为300亿参数的模型的基础能力在大部分企业应用的这个框架下基本可以满足。而且一般的企业很少会有那么多的这种数据去提供出来能够微调到大模型会产生更多的变化的。我们现在更多的做法是通过这个叫做写应用套件的方式,让模型和企业的这个需求结合起来。这个东西就是当模型迭代的时候,应用套件并不会过时。因为应用套件更多的是结合企业内部的一些系统,比如说去调用它。你问大模型一个问题,比如说我今天拿一个证件怎么去办,它就说你要提供什么什么证件,对吧?你告诉我你的身份证号,然后你告诉了以后,它就把身份证号去查那个接口。这是应用的一部分。这种应用的接口写完以后,只要你的模型在迭代,对它是没有什么影响的。这是第一个。第二个,其实模型能力增强以后,对应用的这个顺畅度、准确率、各种方面用户体验会提高。这个我觉得一点不冲突。但是现在看起来模型的能力再提高,它也不可能知道每个企业的需求。就是你深入进去看企业的各种需求,那是不一样的。今天的模型都是基于这个互联网的数据训练的。它比如说它到猎豹移动,它完全不知道猎豹移动的行政的需求是什么,它的内部文档是什么。那这些事情,还有这个员工的需求是什么,这些都是需要应用去解决的。现在看起来这个模型的升级,最近也有几个开源大模型升级,我们都特别欢迎,因为这样的话我们的一些这个应用可以更好地做在上面。这和以前的这个叫做有一些东西还不一样,就是因为模型的升级,第一个API的接口它不会怎么动,第二个我们更还有很多是通过这个叫提示词去跟它做交互。像模型升级以后,这些都不会受影响。模型的这个和应用套件就是个配合的关系。目前看来这个在很长的时间内,或者我几乎都认为在相当长时间内,它不太可能去就一个模型往上一部署,用户就能用。这里其实企业级的应用还是有挺多的机会的,也是有很大的需求的。我们也可以看像即便像OpenAI这样的公司,它也是开放了GPTs,开放了更多的API接口,让更多的这个企业去真正地去结合它的实际去做这个应用的开发。所以我觉得这种担忧我们目前是没有的。谢谢。

Speaker 13

Thank you, operator. Please move to the next question.

Operator (participant)

The next question comes from Wei Fang with Mizuho. Please go ahead.

Wei Fang (Director and Equity Research Analyst)

[Foreign language] 谢谢,谢谢 Thomas Ren, Helen。感谢接受我的提问。我想问一个关于这个芯片的问题。就是现在我们知道国内这个高端的芯片目前还是受限,对吧?那首先我想问,猎豹你们自己会持续地训练自己的这个大模型吗?另外你们在给客户端,对吧?在这些企业客户帮他们做这个模型的微调以及迭代的时候,你们怎么解决这个算力问题呢?谢谢。

Sheng Fu (CEO)

[Foreign language] 第一个,我们自己训的大模型,我们的参数量都是在这个,我刚刚已经说我们训的是100多亿参数的这个规模的模型。我们现在还在训一个MOE的这个一个,但参数量也不会大很多的模型。因为我们更多是考虑企业的实施成本。因为这样的一个参数量的模型,如果真的用起来,大概它只需要一个高端一点的服务器就能使用了。所以这也是结合我们需求,用户需求来的。这第一个点。所以我们对芯片的需求没有那么大。比起很多这个做这个千亿参数或者更大参数的大模型公司的芯片需求没有那么大。第二,我们觉得就是今天的这种大模型的训练,这个的确是非常卷。这个我们也没有必要在这上面去做重复的大规模的建设。我们其实今天我们在很早之前就认为开源的社区会非常繁荣,越来越多的性能足够好的开源模型会涌现出来。今天看起来情况也是如此。而且这就使得我们在选择模型的时候,不仅有我们自己的模型,还有很多开源模型是直接可以这个和客户来提供的。所以我们对芯片的问题没有那么担心。然后我们现在更多的会把我们自己的一些训练,除了这个语言,你刚刚问的这个大语言模型这件事,我们可能会更多地往具身智能和机器人协同上去做。因为我认为语言模型的这个供给已经足够满足市场需求,我们也是在上面去做更多的应用。我们不是在卷这个语言模型本身的能力。所以我们对芯片这个事没有那么担心。

Wei Fang (Director and Equity Research Analyst)

Okay, 感谢。

Sheng Fu (CEO)

谢谢。

Speaker 13

Operator, we have no further questions and we'll end the call.

Operator (participant)

There are no further questions at this time. I'd now like to hand the call back over for closing remarks.

Speaker 13

Thank you, operator, and thank you so much for joining our conference call.

Sheng Fu (CEO)

Thank you.

Thomas Jintao Ren (CFO)

Thank you, everyone.

Operator (participant)

The conference is now concluded. Thank you for attending today's presentation. You may now disconnect.