数据中心提供生成式人工智能答案的压力越来越大,联想正在恢复使用服务器-客户端方法来减轻部分计算压力。
联想正在与 Nvidia 合作,在 L40S 服务器 GPU 和 RTX 6000 Ada 工作站 GPU 之间分解使用其 AI Enterprise 软件开发的应用程序。
联想在一份声明中写道,这家 PC 制造商的 ThinkStation PX 将搭载 RTX 6000 Ada GPU,将“为桌面带来扩展的人工智能功能和数据中心性能”。
PX 工作站与 Lenovo ThinkSystem SR675 V3 服务器配对,该服务器将托管 Nvidia 的 L40S GPU。
联想与 Nvidia 的合作伙伴关系是在奥斯汀服务器制造商的 Tech World 展会上宣布的。
重新包装的人工智能服务器-客户端方法被公司重新称为“混合人工智能”。
服务器-客户端产品的目标客户是希望在本地硬件中部署定制人工智能模型的公司。
在此过程中,人工智能的电力成本也从数据中心转移到客户端工作站。PX 工作站最多可托管四个 RTX 6000 Ada GPU,每个显卡的功耗高达 300 瓦。
根据英伟达的文档,该显卡采用台积电的 4N 工艺制造,在相同功率包络下运行时,其速度比其前身快约两倍。该显卡基于PCIe 4.0互连技术。
大多数人工智能应用程序都托管在云端,但出于成本和安全原因,金融和医疗保健行业的公司正在寻求将系统迁回国内。公司正在 Equinix 等主机托管提供商那里租用数据中心硬件。
GPU 短缺还导致主要云提供商无法提供 AI 计算能力。Nvidia 的 H100 供不应求,该公司现在正在将客户重定向到 L40S GPU 来运行 AI 应用程序。
联想的 ThinkSystem 服务器配备 L40S GPU,并通过 BlueField-3 数据处理单元得到增强。
芯片制造商还寻求在客户端设备上构建更多的人工智能能力,以减轻云提供商和中间服务器的处理压力。英特尔最近谈到了人工智能 PC,并为其 Meteor Lake 芯片带来了更多推理功能,该芯片将为下一代台式机和笔记本电脑提供动力。
服务器-客户端方法依赖于人工智能食物链的调整,使服务器和客户端能够生成结果。一种称为检索增强生成的技术在推理管道的较低级别创建微服务,以便聊天机器人或应用程序可以使用本地硬件来更快地获得结果。
例如,根据该公司网站上检索增强生成的技术文档,Nvidia 在内部将该技术用于聊天机器人,旨在帮助员工回答公共关系答案。
“样本数据集包括过去两年的 Nvidia 新闻稿和公司博客文章。我们对该聊天机器人的开发和部署是这个参考生成人工智能工作流程的指南,”根据 Nvidia文档。
联想还与 Nvidia 合作,基于其 MGX 设计为 Metaverse 应用程序创建服务器。
【公司名称】四川旭辉星创科技有限公司
【代理级别】成都联想服务器工作站总代理
【销售经理】熊经理
【联系方式】座机:028-85596747 手机:18244236404
【公司地址】成都市人民南路 科华路口 群益商务大厦403
请用微信扫描二维码