每个人的AI,普慧算力驱动的智能将创造哪些可能?

FT中文网
2023-11-08

就大模型意义上的AI而言,未来必然是云与端、公域与私域、通用与个人等各类大模型形态的混合/融合。

文丨胡延平每个人都将接入GPT或类GPT,这是2023年已经明证的趋势。但是,这就够了吗?不!每个人都将拥有属于自己的“智脑”,这是被忽视但正在到来的另一个重要趋势。1. 为什么中心化大模型未来不会独大每个人的AI从根本上主要有两种实现方式,一种是个体成为拥有数十亿用户、全球数据知识信息、超级算力资源的巨无霸平台的一部分,个体作为神经末端既从智能母体那里获得帮助,也为智能母体投喂自己的数据资源,提供各种增益反馈。这种情况下个体是整体的一部分,人是AI的一部分。其形态归根结底是中心化的。另一种是每个人、每个企业、每个个体拥有自己的AI,自有设备、本地部署、自主掌控,和自有数据、本地场景、行业专业结合,满足个体专门化的需要的同时,隐私数据和应用的安全性有保证。这种情况下整体是个体的一部分,AI是人的一部分。其形态归根结底是分布式的。理想且切实的AI,实际上是两种形态的结合。也就是既有中心化的公用AI,也有分布式的私有AI,以及混合形态的其它各种纵横交错、公私兼备的AI。在数据所有权、数据本地化、数智隐私保护、个体觉醒、数智平权等力量的驱动和博弈之下,每个人的AI正在从大模型占据绝对优势的第一种AI进程,向第二种方式也日益崛起的混合形态转变。中心、分布、混合形态,互不冲突,也没必要对立起来,因为它们从根本上是互补而不是排斥关系。每个人的AI实现的历史过程,只有力量的平衡与再平衡,权利和利益的分配,依附和去依附的博弈。2. 为什么分布式AI先抑后扬,未来更贴合每个人的AI场景需求第二种趋势也就是分布式AI,过去以来相对弱势以至于被忽视的原因之一,是大模型、中心化的AI尽管效率不高但可用性更强,而且表现出成为重要生产力工具的巨大潜力。目前的基本原理决定了大模型普遍需要极高算力,而且以人类几乎所有已经数字化的知识信息数据为基础,而常规智能设备不具备这个量级的算力和数据能力。但是三个趋势正在改变这一切。一是端侧算力、精巧的端侧大中小模型的可用性正在快速提高,正在改变只有上万亿参数大模型、数万芯片暴力计算才能提供可用效果的“大规模-高成本”局面;20亿以内参数的端侧大模型基本处于技术探索期,20亿-100亿参数的各类大模型逐步进入应用导入期,100-500亿参数的端侧大模型开始具备不同特定方向的离线可用性;工作站级的AI训练推理设备,以及计算架构更具针对性、算力数倍甚至数十倍于普通PC的AI PC,有望驱动端侧大模型进入上千亿参数的高可用性时代。辅之以本地或云侧大规模算力专门训练后移植到端侧的“取巧”手段,端侧模型的效率和效果都将显著进阶。二是更为精准有效的本地数据、专业应用、个体需要、物联传感以及本地智能设备的“联合”,正在将给每个人的AI首先变成个性化的“场景计算”;而且,每个人的AI,未来首先是也必然是每个人的场景计算;端侧模型在场景数据支持下的实效提升。一些用户将本地知识库的训练与GPT的使用结合起来,能够使得ChatGPT的可用性显著提高,也是这个原因。三是数据-隐私-智能-安全-应用的本地化与私有需要,驱动端侧智能成为相当多用户的首选。从效率-网络-需求角度看,本地、端侧数据包括传感数据不可能完全实时同步给大模型,从隐私安全、数据私有角度看,更加不可能,甚至在相当高的程度上,部分AI应用对“离线应用”有一定刚需;云侧AI对专业化、本地化、实时化的应用支持,很多时候实效差于端侧AI,也在加深用户对智能设备端侧AI能力的种种需求。大模型不是万能的,复杂场景、现实利益和技术趋势,也不会让大模型万能。每个人、每个家庭、每个企业等每一个个体,同时也需要以自己为中心的、分布式的、场景化的AI。端侧高算力、端侧模型高可用性的AI PC智脑,必将先抑后扬,成为更适应本地复杂场景下的实时或离线需要的个性化智能。3. 为什么每个人的AI首先是智脑,智脑的形态首先是AI PC分布式AI的使用场景决定其不可能单点大规模、设备高能耗、投资高成本,体积重量和部署灵活性也显著不同于云侧AI,而技术正在实现高效便捷的每个人的AI。每个人的AI,促动智能设备形态创新、算力普慧,每个人都可购、可用、高算力的智脑也就是AI PC,因此涌现。AI时代重要的开启者之一黄仁勋称,大型语言模型的推理成本将大幅降低。之前他有一个未引起充分关注的预言:“电脑产业正在迎来再生契机。下一个十年,新型AI PC将取代价值上兆美元的传统电脑。” 在日前举行的联想Tech World 2023期间,黄仁勋的提法更进一步:“人类历史上首次,计算机可以编写人类无法编写的软件,这需要人工智能基础设施,一种新型的计算基础设施……现在,一种全新的电脑出现,我称之为AI工厂。这个AI工厂是一个专门的计算基础设施,配套着我们建造的专门用于优化人工智能的超级计算机。这个AI工厂仅有一个单一目的,即将进入其中的原始数据进行处理,并通过大量处理进行提炼,输出智能”。占据80%AI芯片市场的英伟达最新发布的用于生成式 AI 的 GH200 Grace Hopper 超级芯片、桌面AI工作站GPU系列,体积成倍缩小,算力数倍增加。更大的内存使得模型可以常驻在单个GPU上,而不需要多个系统或多个GPU来运行。但是这还不够,AI大模型主要运行在云端,终端设备需要依赖于联网才能获得这类AI能力的局面依然需要被改变。黄仁勋所言的新型AI电脑,就是英特尔总裁、联想CEO所提出的AI PC。英特尔总裁帕特•基辛格称:“AI代表着新时代的到来,创造了巨大的机会。AI将通过云与PC的紧密协作,进而从根本上改变、重塑和重构PC体验,释放人们的生产力和创造力。我们正迈向AI PC的新时代。”帕特•基辛格在Tech World 2023期间也进一步表示:“计算正全方位成为经济发展和人类生存的基础。计算正在进入新时代,在人工智能的加持下,系统的自动化和能动性将进一步提高,协助人类完成知识型任务和体力劳动,并将成为我们身处环境的一部分。人工智能无所不在,将从根本上改变、重塑PC体验,云端和PC设备相互协同会带来更好的隐私保护和数据安全,释放更大的个人生产力和创造力”。“AI人工智能与计算是联想最重要的两个锚点技术,预计明年第一批AI PC将很快诞生,AI PC有望成为终端、边缘计算和云技术的混合体,满足新的生成式AI工作负载的需求”,联想CEO杨元庆称。在AI人工智能的浪潮下,IC智能计算机(也就是AI PC),将逐渐取代传统的个人电脑(PC),成为AI时代的智脑,每个人的智慧之心,每个个体的数智之门。在智能生态中,每一个用户都可以拥有强大的普慧算力,通过自己的AI PC,方便快捷地使用各种AI服务,包括语音识别、图像识别、自然语言处理、机器学习、内容生成创作、多模态交互等生活娱乐与生产力应用。AI PC的出现,标志计算机技术进入了一个全新阶段。与传统PC相比,AI PC具有更强大的计算能力和丰富的智能功能,实现本地化的AI运算,减少对云端计算的依赖,提高计算效率,降低延迟,提供更好的用户体验。4. 端侧AI朋友圈:新IT企业生态协作,加速“每个人的AI”到来智能设备的人人所有,及其所提供的高性能算力的普慧特性,使得每个人的AI成为可能。算力需求的飞速增长,既是压力,也是动力,更是机遇。各类智能设备如AI PC、智能手机、智能音箱等,都需要强大的计算能力以及更高效的算力结构,以满足复杂的AI应用需求。在这个过程中,主要科技企业持续加大对算力产业链的布局与创新,以迎接AI大潮下的发展机遇。不同阶段,不同技术、应用、企业驱动。之前的识别交互、模型锤炼、算力跃升都是前声,GPT是爆发式成长曲线的开始,但ChatGPT远不是全部,更不是AI唯一的未来。第一浪是Public AI,公域-通用;第二浪是Private AI,私域-场景;第三浪是Personal AI,个人-个性。三位一体,融合互补,并不矛盾。第一浪的主力驱动是Open AI、微软、英伟达等。第二浪的主力是行业企业需求、GPT定制模型、算力基础设施提供商,增益客服、运营、制造等场景。第三浪的主力驱动是智能设备生态企业、个人的数智化需求以及背后的芯片与算力企业。比如最近包括联想、AMD、Intel、英伟达、高通、微软等在内的Public、Private与Personal混合意义上的“联想AI朋友圈”,不仅不奇怪,而且恰逢其时。联想的AI for All,在AI形态、混合AI、端侧AI方面可以说通过Tech World 2023发出了不可忽视的趋势信号。尤其端侧AI,必然提速。英特尔、AMD等正在将AI大模型带入到PC产品,推动AI PC时代到来。联想等PC企业即将正式发布AI PC产品。联发科、高通等手机芯片厂商也正在将AI模型带入到移动终端设备。目前一台Intel 13代酷睿PC可以让最高达160亿参数的大语言模型,运行在16GB及以上内存容量的个人电脑。接下来英特尔、联想等主力企业的努力,将让端侧大模型的能力数倍增加。今年12月14日将正式发布面向下一代的AI PC的英特尔酷睿Ultra处理器,联想相应的AI PC,将加速“AI PC”时代的到来。软件和硬件结合,2025年前有望实现超过1亿台PC实现人工智能特性。拥有全球PC市场最高份额的联想,将成为AI PC主力。联想集团CEO杨元庆曾经提到,未来三年,联想集团将在人工智能领域追加投入10亿美元,用于开发适合人工智能计算的服务器、存储等产品。联想集团看好未来算力的发展空间,也看好PC等智能设备在未来的发展。随着技术发展和新应用的出现,PC等智能设备的算力对用户来说绝对不会过剩,反而会有更大的发展空间。5. 混合AI是用户场景,终极意义还是在于实现“每个人的AI”算力普慧驱动下的AI普慧,端边云网智架构基础上的硬件软件/解决方案与服务一体,成就的将是以AI为爆发点的每个人的新IT、个性化的大智能。随计算架构之变端侧算力倍速跃升,以及压缩后百亿级参数的端侧大模型的将雨后春笋。因为高度契合“个性智能-本地数据-隐私安全”,将会是每个人自己的智能。所以,即使是趋势也可以怀疑,但是不怀疑AI可以为每个人自己掌控的本能需要。联想在Tech World 2023现场上公布了其迄今为止最全面的人工智能产品技术,以及“AI for All”的愿景,从口袋到云端,为全球的行业、企业和个人提供专用的人工智能设备、基础设施、解决方案和服务。与NVIDIA合作推出一个新的混合人工智能计划,面向世界各地的企业用户的同时,联想也在和微软讨论如何将个人人工智能双胞胎(AI Twin)和企业级人工智能双胞胎构建进未来的解决方案。基于“NVIDIA MGX架构的新的企业级AI解决方案+联想混合人工智能服务”等,联想将提供完全集成的系统,将人工智能驱动的算力引入数据生成的各个地方,从边缘到云端,帮助千行百业企业轻松部署定制化的生成式人工智能应用,推动创新和转型。但是混合AI不局限于英伟达的合作,智能设备里的端侧AI,一定程度上将会是整合了端边云的AI,Public、Private与Personal大模型兼而有之的AI。联想所展示的AI PC设备、场景和应用,已经能够看出这种后端整合、前端融合的混合AI形态趋势。不过端侧AI最具突破和象征意义的一件事是,第一个PC端侧大模型AI NOW的亮相。这才是每个人的AI的关键突破点、主要切入点、核心系统、交互界面。公共大模型无法提供个性化的答案,因为它没有使用个人数据进行训练,也不知道用户的偏好。公共大模型无法为用户的旅行提供具体建议。此外,用户也不希望个人信息与公共大模型共享。因此,人人需要一个“个人大模型”来处理个人任务。显然端侧智能、个人大模型、个性AI站在用户角度更为需要。联想的混合AI思路,显然是一种 “既要-也要”。一方面企业级大模型与公用大模型和公有云并存,构成混合形态、混合部署的人工智能,另一方面在支持人工智能功能的终端和边缘设备上,建立本地知识库,个人大模型使用存储在设备或家庭服务器上的个人数据进行推理。在更好理解用户的基础上实现大模型的个性和高可用性与此同时, Personal的个人大模型,后端整合、前端融合其它云与端AI包括企业AI,形成All in one的“每个人的AI”。6. 计算架构之变,AI算力的倍速增长与普慧,驱动“每个人的AI”AI能力,首先基于算力。算力的提升,当前呈现四个路径:一是云端超算、高性能算力系统,比如特斯拉自己的Dojo芯片,谷歌之前的TPU和现在的Tensor系列,Open AI声称也要开发的自己的AI芯片,华为升腾Ascend等,一批云端AI加速器、加速卡的企业也是这个方向,还有专用算法专用芯片的ASIC、FPGA架构芯片等。与此相应的是算力的云化,比如英伟达推出DGX云,把AI专用的GPU放到云上出租,微软Azure、亚马逊云也有类似服务。二是,Gaudi 3、酷睿Ultra,英伟达H00、A100等,云侧、私域均可部署,包括AMD的MI GPU、DPU也是。三是高性能低功耗的Jetson等边缘计算平台等。四是端侧专用计算SoC,比如英伟达Orin、地平线等智能汽车SoC;五是端侧异构计算SoC,和每个用户、每个人最直接相关的算力系统,也是AI PC实现的关键所在。为什么要在分析“每个人的AI”的时候,单独分析计算架构之变尤其是端侧算力结构变化?因为这是普慧算力的根本所在。第五点是理解端侧AI、个性智能未来发展可能性的关键。端侧异构计算与算力结构的发展趋向有四点:一方面是包括CPU/GPU/NPU/DSP等在内的总体算力水平和数据处理水平的高速增长,与内存等逐步统合提高效率,芯片堆叠、Die化,多核的同时,实现UltraFusion之类双芯片甚至四芯片高速互联封装;二是GPU越来越重要内核数量和算力比重大幅度提高,消费机PC的GPU在向64核甚至128核进展,独显意义上的GPU算力在向100~200TOPS提升;三是NPU等AI专用芯片不仅集成进来,而且是算力提高最为显著的部分,初代AI PC的NPU的算力在20~50TOPS之间,很快将能达到100TOPS以上。比如英特尔将推出的代号“Meteor Lake”酷睿Ultra处理器,是其首款内置神经网络处理器NPU,能为PC带来百亿级参数端侧大模型推理能力的芯片。苹果最新发布的M3系列芯片,NPU支持运行几十亿参数的AI大模型,不过如果和Intel的Meteor Lake、高通X Elite横向对比AI PC能力,M3的Max和稍后的Ultra基本只是二线水平。高通X Elite集成的自研Adreno GPU提供4.6TOPS的AI算力,而NPU具备45TOPS的AI算力。联想基于X Elite,将发布第一款5G的AI PC。四是端侧异构计算与算力结构的还有很重要的一个趋向,同时也是必须做的一件事情是:算力抽象。算力抽象非常有意义的关键点在于,把CPU、GPU、NPU等不同部分的算力,以及Nvidia、Intel、AMD、高通等不同平台SoC的算力,抽象成为标准化的,可随时随地灵活调用、充分利用的算力。CPU、GPU、NPU等都不闲着,开发者也只要考虑前段需求即可,后面的算力调度由“算力抽象”层来完成。算力抽象能够让普通电脑、手机也实现一定的AI能力。在AI PC本来就具备专门针对AI大模型的较高算力水平的情况下,算力抽象如虎添翼,使得端侧大模型的运行获得更高、更稳定的算力支持,每一台智能设备的算力都得到充分利用。这也是算力普慧基础上,每个设备的智能、每个人的AI能够实现的一个关键。7. 数智人起点来临:每个人都将进入1000 TOPS算力时代宏观而言,作为AI发展的基础,算力已经成为各行业角逐AI产业链的重点发力方向。据测算,预计到2025年,我国算力核心产业规模将不低于4.4万亿元,算力关联产业规模可达24万亿元。但是具体到每个人、每个家庭、每个企业,算力所带来的智能更为清晰有力。这是普慧算力的微观视角。不同智能设备的算力高低通常以TOPS(Tera Operations Per Second,每秒钟一万亿次操作)来衡量。如果以这个指标为标尺,每个人都拥有1000 TOPS算力的“数智人”的起点时代正在到来。TOPS是衡量AI加速性能的常用指标,包括CPU、GPU和NPU等综合起来的AI算力。当前,一个智能手表的算力不到10TOPS。一部智能手机算力约为10至30TOPS 。一台电脑算力大约为30-200TOPS。一辆实际具有L3及以下自动驾驶能力的智能汽车目前的算力约为100-400TOPS左右,应用四颗英伟达OrinX芯片智能汽车的算力1016 TOPS,1000 TOPS左右,被认为是L4自动驾驶的算力基点。一台AI PC也就是智脑的算力,短期内可以达到200-500TOPS。如此来看,个人拥有1000TOPS算力,是正在到来的现实。1000TOPS作为数智人的起点,不高不低。AI PC必将加速这一点。所以,这样的你正在走来:拥有1000TOPS以上算力,数十种智能设备上百种传感器实时连接,端边云数百个智能应用、混合AI随时应需而动,多个AI大模型无缝嵌入你的各类应用场景,100Kwh起的移动能源实现时空自由,但这些只是你作为数智人的能量起点……并非预想,这些是2023年前后已经在发生的事,人群当中的有些人已经完全到达了上述起点。而各路新IT力量正在从不同角度构建和升维这样的未来。无论企业还是个人,接下来的数智场景和智慧能级,将会被这4个问题的答案所决定:复杂多样的智能设备,将会呈现什么样的协作格局,不同设备之间将是何种关系?未来智能会是AI大模型的独角戏,还是端边云多层次多角度不同智能的分工协作?算力将如何驱动智能,智能设备将如何成为每个人、每个企业的数智竞争力?计算架构进一步将如何演变?8. 智能设备生态格局之变,从生产力工具到每个人的智算中心应用AI PC智脑,本地智能设备离线就可以回答日常问题、提炼工作内容、撰写邮件、在视频中搜索过往内容,企业可以开发客服问答系统等,完成只有在线与云端大模型互动才能完成(甚至云端大模型也不一定能完成)的任务。在人工智能驱动下,全球智能生态正在呈现出1+6+N的布局。这个布局中,"1"代表智脑(AI PC),"6"代表手机、手表、汽车、眼镜、智慧屏、边缘设备,而"N"则代表的是基于端侧和云的各种智能服务。智脑(AI PC)是智能生态为个体所有的智算中心,不仅提供普慧的强大算力,还具有丰富的智能化功能,可以提供各种AI服务,满足用户的各种需求。手机、手表、汽车、眼镜、智慧屏、边缘设备是这个布局的重要组成部分,它们是用户与智能生态的接口。这些设备可以收集用户的各种数据,通过AI技术分析处理这些数据,提供个性化的智能服务,提高用户的工作效率和生活品质。基于端侧和云的各种智能服务是这个布局的延伸,它们为用户提供了丰富多样的服务选项。然而,实现1+6+N的布局并不容易。它需要各类智能设备提供商、智能生态服务商的共同努力。在这个过程中,智能设备提供商需要不断提升自己的技术能力,提供更强大、更智能的设备。他们需要不断研发新的技术,提高设备的计算能力和智能化水平,满足用户的各种需求。智能生态服务商也需要不断创新,提供更多元、更个性化的服务。他们需要深入了解用户的需求,开发出能够满足用户需求的服务,提供更好的用户体验。实现1+6+N的布局,需要各类智能设备提供商、智能生态服务商的共同努力,才能构建出一个真正强大、多元、个性化的智能生态。未来智能设备将会更加个性化、智能化和多元化。从AI角度看,智能设备和智能设备之间的关系将会更加紧密。他们不再是孤立的个体,而是构成一个完整的智能生态系统。在这个系统中,各种设备可以通过AI技术进行智能连接和协同工作,共享数据和资源,提供更完善的服务。联想集团CEO杨元庆曾表示,未来的智能设备将更加强大,更AI-ready且性能更优化,进化为人工智能个人电脑、人工智能手机、人工智能服务器和存储。联想集团正与微软、高通和英伟达等商业伙伴通力合作,共同构建下一代产品路线图和解决方案产品组合。联想集团以人工智能和计算为两大“锚点”,在全球范围内加速部署人工智能技术和应用。同时,联想集团正在加快推动算力的普及化和智慧化,加速普慧算力的落地,加码多元化算力布局。算力普慧驱动下的AI普慧,正在呈现为端边云网智架构基础上的硬件软件/解决方案与服务一体,以AI为爆发点的新IT、大智能。AI是新IT的一部分,生成式大模型是AI的一部分,云侧的类GPT大模型实际又是生成式大模型的一部分。联想实际是以智能所需的算力/能力为基础,从设备到核心应用,为个人、家庭、企业、行业提供以AI为核心能力的全链全场景大智能。AI发展呈现梯度进阶、融合发展状态。先是集合全球数据与超级算力的万亿参数大模型公域起势,再是结合本地私域数据应用的有一定算力规模的千亿参数企业/行业/垂直大模型成风,然后是随计算架构之变端侧算力倍速跃升的压缩后百亿左右参数的端侧大模型的雨后春笋。尤其后者,高度契合“个性智能-本地数据-隐私安全”的每个人的智能需求,与前两者混合/融合发展。每个人的AI意义上的AI朋友圈的成型,是标志性的一步,AMD、英伟达、英特尔、微软、ARM、高通、联发科等系统-SoC-架构厂商与联想等智能设备/方案服务企业联动,这个部分也已经有成势的感觉。就大模型意义上的AI而言,未来必然是云与端、公域与私域、通用与个人等各类大模型形态的混合/融合。过去一个阶段是集合超级算力的云侧/公域大模型的独唱,舆论以为云侧类ChatGPT就等于大模型的全部,甚至误以为就是AI的全部,实际上在私域/端侧算力和大模型压缩等技术提高的基础上,在数据本地化/隐私安全需求驱动下,端侧大模型、AI意义上的端侧智能,必将是火了的节奏。作者为DCCI互联网数据中心创始人,中国互联网独立第三方研究专家

商业财经 国际视角

关注FT中文网视频号

往期精选

禁止做空会刺激股价上涨吗?

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

精彩评论

我们需要你的真知灼见来填补这片空白
发表看法