- Microsoft 将优化的 DeepSeek R1 模型整合到 Copilot+ PC 设备中,并支持 NPU。
- 该模型将提供更高效的本地人工智能体验,同时对电池和系统资源的影响更小。
- DeepSeek 的更高级变体,例如 7B 和 14B,将在稍后阶段提供。
- 开发人员将能够通过 Azure AI Foundry 以及 Visual Studio Code 中的 AI Toolkit 等工具使用 DeepSeek R1。
微软在人工智能的运用上又向前迈出了一步 通过在装有 Windows Copilot+ 的设备上整合 DeepSeek R1 模型。这一进步标志着人工智能解决方案集成的一个里程碑,允许模型在使用神经处理单元 (NPU) 优化的硬件上本地执行。
称为 Copilot+ PC 的计算机将可以使用 DeepSeek R1 模型的“精炼”版本,最初是 1.5B 变体,未来的更新将包括模型 7B 和 14B。 这将允许更高效、更轻量的人工智能应用程序。,而不完全依赖于云。
AI效率和性能的飞跃

Microsoft 优化了 DeepSeek R1 模型,以充分利用 Copilot+ PC 中 NPU 的性能。得益于 Phi Silica 和 ONNX QDQ 格式等技术,该模型呈现 有竞争力的响应时间,速度可达 每秒 16 个令牌 对于简短的条目。此外,对整体系统性能和电池消耗的影响也降至最低。
这种集成的关键之一是使用先进技术,例如低精度量化和滑动窗口设计。这些进步 减少内存使用 并优化计算,通过紧凑的模型提供更快的答案,而不牺牲推理能力。
方便开发商和公司

DeepSeek R1 集成不仅是为最终用户设计的,而且还为 提升开发者体验。通过 Visual Studio Code 的 AI Toolkit 扩展等工具,开发人员可以 对模型进行实验,执行测试并使其适应您的需求。
该模型也可在Azure AI Foundry中使用,为企业提供一个平台 可靠且可扩展 部署先进的人工智能解决方案。微软表示,这种结合将使公司能够遵守安全标准和负责任的人工智能法规。
初始支持和未来版本

DeepSeek R1 的首次部署将针对搭载 Snapdragon 的设备其次是英特尔 Lunar Lake 和 AMD Ryzen AI 9。微软表示,这一策略将确保与最先进硬件的初始兼容性,确保最佳性能。
未来,预计会出现更先进的变体,例如7B和14B馏分油,这将进一步扩大本地人工智能的可能性。同时,微软将继续通过Azure提供基于云的访问选项,提供 最大的灵活性 给它的用户。
对技术生态系统的影响

微软决定采用DeepSeek R1不仅凸显了该模型的潜力,也表明了其引领AI市场的意图。几位专家表示,这一举措可能标志着企业开发人工智能的方式发生重大变化,重点是 本地和自治解决方案.
此外,DeepSeek R1 等开源模型的引入使得 显着降低开发成本 以及为初创公司和独立开发者提供更多的可访问性。
通过这些创新,微软正在促进人工智能在从商业应用程序到创意项目等不同领域的采用。预计这项技术将允许 我们互动方式的转变 以及我们如何更有效、更容易地解决复杂问题。
我是一名技术爱好者,已将自己的“极客”兴趣变成了职业。出于纯粹的好奇心,我花了 10 多年的时间使用尖端技术并修改各种程序。现在我专攻计算机技术和视频游戏。这是因为 5 年多来,我一直在为各种技术和视频游戏网站撰写文章,旨在以每个人都能理解的语言为您提供所需的信息。
如果您有任何疑问,我的知识范围涵盖与 Windows 操作系统以及手机 Android 相关的所有内容。我对您的承诺是,我总是愿意花几分钟帮助您解决在这个互联网世界中可能遇到的任何问题。