新闻动态

【人工智能】在 NVIDIA GTC 2025 上探索 RTX AI PC 和工作站如何助力 AI 开发

  在全球人工智能大会上,来自整个ECO的专家将分享在本地部署人工智能的见解。

  生成式 AI正在重新定义计算,开启在 PC 和工作站上构建、训练和优化 AI 模型的新方法。从内容创建、大型和小型语言模型到软件开发,由 AI 驱动的 PC 和工作站正在改变工作流程并提高生产力。

  在 3 月 17 日至 21 日于圣何塞会议中心举行的GTC 2025上,来自整个 AI 生态系统的专家将分享有关在本地部署 AI、优化模型以及利用尖端硬件和软件来增强 AI 工作负载的见解,重点介绍 RTX AI PC 和工作站的主要进步。

  RTX GPU 采用称为Tensor Core的专用 AI 硬件构建,可提供运行最新、最苛刻的 AI 模型所需的计算性能。这些高性能 GPU 能够在一定程度上帮助构建数字人类、聊天机器人、AI 生成的播客等。

  拥有超过 1 亿 GeForce RTX 和 NVIDIA RTX™ GPU 用户,研发人员在部署新的 AI 应用和功能时拥有大量目标受众。在“为 RTX PC 和工作站构建数字人类、聊天机器人和 AI 生成的播客”会议中,NVIDIA 高级产品经理 Annamalai Chockalingam 将展示研发人员可用于简化开发和部署速度极快的 AI 应用的端到端工具套件。

  大型语言模型 ( LLM ) 可用于大量用例,并可扩展以处理诸如编写代码或将日语翻译成希腊语等复杂任务。但由于它们通常使用广泛的知识进行训练以用于广泛的应用,因此它们可能不适合特定任务,例如视频游戏中的非玩家角色对话生成。相比之下,小型语言模型在需求与减小尺寸之间取得平衡,在更多设备上本地运行时保持准确性。

  在“注意你的语言:创建在设备上运行的小型语言模型”会议上,NVIDIA 高级工程经理 Oluwatobi Olabiyi 将介绍研发人员和爱好者可拿来生成、整理和提炼数据集的工具和技术,然后训练一个可以执行为其设计的任务的小型语言模型。

  由于硬件配置和软件环境各异,在基于 Windows 的工作站上优化 AI 推理和模型执行需要战略性地调整软件和硬件。“在 Windows 工作站上优化 AI 工作负载:策略和最佳实践”会议将探讨 AI 优化的最佳实践,包括模型量化、推理管道增强和硬件感知调整。

  在本地基础设施上构建、测试和部署 AI 模型可确保安全性和性能,即使没有连接到基于云的服务也是如此。借助 NVIDIA RTX GPU 加速,Z by HP 的 AI 解决方案提供了在本地开发 AI 所需的工具,同时保持对数据和 IP 的控制。

  Dell Pro Max 和 NVIDIA:释放 AI 开发的未来:本次会议将介绍搭载 NVIDIA RTX GPU 的 Dell Pro Max PC、面向专业技术人员的高性能笔记本电脑和台式机。了解这对强大的组合如何帮助启动 AI 计划并改变 AI 研发人员、数据科学家、创作者和高级用户的创新方式。

  使用 HP GenAI Lab 和 AI Studio 的 Z 增强 Gen AI 开发:本次会议探讨了 HP GenAI Lab 和 AI Studio 的 Z 怎么来实现本地 LLM 开发,同时保持完整的数据安全性和控制。了解这些工具如何简化从实验到部署的整个 AI 生命周期,同时集成 NVIDIA NGC 目录中可用的模型以实现协作和工作流程效率。

  NIM 微服务是针对生成式 AI 优化的预打包模型。它们涵盖了对 PC 开发至关重要的模式,并且易于通过行业标准应用程序编程接口下载和连接。

  本文所发布的内容和图片旨在传播行业信息,版权属于原本的作者所有,非商业用途。如有侵权,请与我们联系。所有信息仅供参考和分享,不构成任何投资建议。投资者应基于自身判断和谨慎评估做出决策。投资有风险,入市需谨慎。

  特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

  豪门悲喜夜:利物浦2-1绝杀下轮夺冠?姆巴佩染红皇马1-0 曼联1-4

  AI、Web3、Meta聚合型精选内容分享。以前沿视角,探索科技未来;让每一个人,都走在时代的前沿

  牛弹琴:中方深夜回应美国偷摸豁免 三句线斤重野猪咬伤男子苏醒:头骨和大动脉都被咬破

  牛弹琴:中方深夜回应美国偷摸豁免 三句线斤重野猪咬伤男子苏醒:头骨和大动脉都被咬破