社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  aigc

亚马逊云计算Troy Cui:敦煌网飙升AppStore第二,企业如何应对激增流量是关键 | 中国AIGC产业峰会

量子位 • 5 月前 • 89 次点击  
编辑部 发自 AIGC现场
量子位 | 公众号 QbitAI

敦煌网突然飙到苹果美区AppStore排名第二,面对如此泼天的流量,该用什么“姿势”来接住?

在千变万化、快速发展的生成式AI时代下,如此“灰犀牛”事件,应当给每一个企业敲响一个警钟——

如何确保企业的系统能够应对突发的用量激增?

针对这一问题,亚马逊云科技大中华区数据及存储产品总监Troy Cui在量子位举办的中国AIGC产业峰会上,给出了他的见解:

每个企业在做架构之前,都需要思考:当DAU从1万增长到千万级,当每日Token处理量从几千飙升到上亿时,现有架构能否持续支撑?

基于此,它也以云计算一哥为例给出了独到的解法。

亚马逊云科技大中华区数据及存储产品总监Troy Cui

为了完整体现Troy Cui的思考,在不改变原意的基础上,量子位对演讲内容进行了编辑整理,希望能给你带来更多启发。

中国AIGC产业峰会是由量子位主办的AI领域前沿峰会,20余位产业代表与会讨论。线下参会观众超千人,线上直播观众320万+,累计曝光2000万+。

话题要点

  • 要想提高AI能力,核心竞争力是自己的数据
  • 快速将数据转化为业务洞察、提升数据质量、促进跨部门协作是AI赋能的重要前提
  • “灰犀牛”事件频发的时代,企业如何应对激增的流量是关键
  • 做架构需提前思考:当每日Token处理量从几千飙升到上亿时如何应对

以下是演讲全文:

发展AI的核心竞争力是自己的数据

谢谢大家今天上午的时间,我刚才也听了其他嘉宾的一些演讲,也深受启发,包括阮总介绍百度智能云在各个行业里面的落地、在产业的深耕,以及对未来发展的展望。

包括微软的刘博士给我们介绍RD-Agent,以及PPIO的姚总跟我们介绍怎么样在底层把算力推广到前线的应用上,包括刚刚谭总介绍数据的Agent。

这些东西都是为了一个目的,把我们AI的能力“多、快、好、省”地向前线的用户赋能和推进。

我们要想把AI的能力更快地向前走,毫无疑问最核心的竞争力来自于自己的数据,因为我们的模型,你和你的友商,你和你的竞争对手都可以拿到相对来说同样级别的能力。

但是核心竞争力仍然源于企业自身的数据资产。

正如谭总刚才所说,如何将数据更快地转化为业务洞察,如何最大程度提升数据质量,以及如何让更多人参与决策过程,这些都是为AI赋能的重要前置条件。同时他也指出,目前并非所有拥有数据的用户都能够有效实现这一目标。

过去24小时内,若要讨论什么最受关注,每个人可能有不同看法。但我昨晚看到一则关于敦煌网的新闻特别引人深思。近期外贸环境的变化对许多B2B平台产生了巨大影响。

值得注意的是,越来越多用户选择将业务迁移到云端,主要因为云平台能够支持数据的快速扩展。

在当前”灰犀牛”事件频发的时代,敦煌网APP的下载量据报道在苹果应用商店从百名之外飙升至第二位,这一现象反映出一个关键问题:如何确保我们的系统能够应对突发的用量激增?

这种大规模扩展的能力,显然不是依靠企业自身的运维团队就能轻易实现的。

SageMaker:亚马逊云科技应对大规模扩展之道

作为亚马逊云科技的一员,我们的核心优势在于帮助客户充分利用其高质量数据,即使在需要自动扩展到极限的情况下,也能保证卓越的可用性和可靠性。

我们为用户提供针对不同负载量身定制的最佳业务解决方案和工具支持。

随着业务日益复杂化,单一引擎已无法解决所有问题,用户在不同引擎间切换往往会带来碎片化的体验。

值得一提的是,亚马逊云科技不仅服务于个人开发者和未来的独角兽企业,还服务于众多大型企业客户。

这些企业客户通常有多个部门需要协作,因此如何在这种协作环境中确保有效的数据治理,仍然是一个亟待解决的重要问题。

举例来说,我们目前为一家重要的搜索引擎公司提供服务,该公司在海外市场拥有庞大规模。其TPM(每分钟处理的令牌数)已达千万级别,即将突破亿级门槛。

在如此大规模的计算环境中,如何确保从数据处理到算力调配的整个系统稳健运行,是我们在生成式AI领域亟需解决的关键问题。

针对这些挑战,亚马逊云科技提供了清晰的解决方案:我们致力于实现企业内不同部门、不同角色之间的高效协作。

最关键的是,我们确保所有项目参与者都能在同一个统一规范的数据和AI平台上管理数据资产、代码资产以及访问权限控制。

这正是我们开发SageMaker Unified Studio这一综合性平台的核心原因。

在这个主平台下,开发者可以轻松构建智能问答系统等应用。通过这种低代码(CNC)的方式,开发者只需几分钟就能搭建出完整的端到端智能问答平台。

借助这一基础架构,你可以迅速利用现有数据资源,快速构建和开发智能化解决方案。

实现这一目标的前提条件是广泛获取数据,同时确保合规性,尤其是对企业客户而言,合规的数据管控和治理至关重要。

Amazon Q:使用自然语言发现数据

此外,我们需要配备足够智能的工具支持。亚马逊云科技推出的Amazon Q正是这样一款AI助手产品,它提供最先进的代码开发体验。

无论是将自然语言转换为SQL查询,还是进行代码审查,都能高效完成。特别值得一提的是,对于那些关注知识产权问题的开发者来说,Amazon Q还能帮助判断生成代码是否存在潜在的IP风险——

这一功能尤为重要,因为在传统模式下,开发者往往无法确定后台生成的代码究竟源自何处。

这边跟大家介绍一个视频,这个视频是一个叫Media To Cloud的方案,是可以在亚马逊上有一个prime video,通过自然语言搜索,我去希望找到一个什么样的视频,最后根据你的要求找到了一个making the cut这样一个视频。

实际上如果做一些源数据的工作,其实可以非常方便的可以用自然语言完成很多的searching的工作。

仅仅找到视频还不够,更重要的是如何将其变现,比如通过广告植入。

借助Media To Cloud平台,我们能够精准定位最佳广告投放时机,确保广告内容与视频的上下文、语境、情绪完美契合。

这展示了生成式AI如何深度融入实际业务场景。正如刚才讨论的金融行业,以及阮总分享的制造业和医疗行业案例,这里我展示的是我们在新媒体和泛客户领域的实际应用案例。

在推动数据整合与跨部门协同的同时,数据普惠仍是当前面临的核心挑战。我们需要在保障数据资产安全的前提下,尽可能降低风险,赋能不同角色和部门。

这一目标的实现,关键在于通过统一平台协调各方,统筹数据与AI的治理。与传统依赖人工管理的方式不同,如今可以借助AI技术实现更高效的治理。

传统企业与新兴互联网用户在技术栈上的差异

在治理之外,企业还面临一个现实挑战:传统企业与新兴互联网用户在技术栈上的差异。

亚马逊云科技观察到,拥有二三十年历史的传统企业客户,往往基于Oracle或Teradata等老一代数据库,对SQL技术栈更为熟悉;而原生云上的互联网用户则更适应大数据生态。

当这些企业上云时,需要将两种技术路线融合——既保留数据仓库的事务处理能力,又兼顾大数据的弹性扩展需求。

这正是近年来“湖仓一体”概念兴起的原因:传统企业加速上云并拥抱大数据,而互联网企业也逐渐向规范化发展,推动了两者的技术融合。

在数据赋能的实际落地过程中,我们观察到前端存在大量隐性工作。以亚马逊云科技为例,数据可能分散存储在S3数据湖、数据仓库、传统数据库或本地环境中。如何将这些异构数据源高效整合到消费端,一直是行业面临的挑战。

传统解决方案依赖于ETL流程,但开发者们都知道,随着业务需求的持续迭代,ETL管道的开发和维护会变得异常复杂。这不仅涉及初始开发成本,更面临着持续的运维挑战。

亚马逊云科技在过去几年致力于,大家在更多关注生成式AI应用的开发和构建的时候,尽可能去减少在后端非常复杂。

我记得刘博士说我们做RD-Agent也是要解决脏活累活的问题,我们也同样在数据的处理上,数据的治理上要解决脏活累活的问题。

这也是亚马逊云科技在做Zero-ETL,如果大家听过这个词,我们会把前线不断源的数据能够通过Zero-ETL的手段自动化地去汇聚到数仓,汇聚到湖仓,后面再到数据消费或者AI的应用构建上。

我们在整个这套管理上,上面会通过一个统一的数据和AI的平台,有一个完备的数据治理,下面再通过统一的湖仓大家存储在不同位置上的数据统一纳管和构建,而且具备相当能力的数据质量,像数据治理层的管理能力。

通过这种方式能够帮助我们的用户切实有效地构建他们的生成式AI的应用。

以丰田北美为例,这家业务覆盖研发、生产、供应链、销售和服务的跨国企业,在供应链管理中长期面临数据资产跨部门流转、治理和赋能的挑战。

我们的解决方案有效解决了其核心痛点:将多源异构数据高效转化为可供分析和高价值AI应用构建的高质量数据资产。

今天的分享希望能帮助大家建立关键认知:在构建生成式AI应用时,必须提前规划可扩展的架构。无论您未来是初创公司的技术负责人还是决策者,都需要思考:

当DAU从1万增长到千万级,当每日Token处理量从几千飙升到上亿时,现有架构能否持续支撑?

实际上我相信什么事情如果想得更早,不管是我的Infrastructure,还是Data,都会是蛮重要的一点。

最后分享一下亚马逊云科技自己的产品大会,每年的re:Invent,其实我自己很深的感受,我们在过去几年定义我们的云服务,很多时候我们会聊计算、存储、网络和数据库,这是我们在云服务上最重要的四个基线。

当前构建生成式AI应用的关键在于建立具备自动扩展能力的底层架构。当存储、计算、数据基础设施和AI平台都具备弹性伸缩能力时,才能真正支撑业务从初期验证到规模化增长的全生命周期需求,实现您的战略目标。

谢谢大家!

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

🌟 点亮星标 🌟

科技前沿进展每日见

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/181499
 
89 次点击