芯动力神速适配DeepSeek-R1大模型,AI芯片设计迈入“快车道”!

发布时间:2025-2-7 17:35    发布者:工程新闻
      近期,国产大模型 DeepSeek-R1横空出世,迅速成为AI领域的焦点。芯动力在24小时内完成了与DeepSeek-R1大模型的适配。
      DeepSeek-R1是幻方量化旗下大模型公司DeepSeek研发的系列推理模型,自诞生起就备受瞩目。它采用强化学习训练,推理时包含大量反思和验证,思维链长度可达数万字。在数学、代码以及复杂逻辑推理任务上,DeepSeek-R1有着出色的表现,能取得媲美OpenAI o1的推理效果,还能为用户展现完整的思考过程 。在1月24日的Arena上,DeepSeek-R1 基准测试已经升至全类别大模型第三,其中在风格控制类模型(StyleCtrl)分类中与OpenAI o1并列第一。
      随着技术的发展,大模型训练成本呈下降趋势,商业化门槛也随之降低。大模型作为技术底座,为各行业应用开拓了无限可能,这也让边缘大模型逐渐成为主流方向。而芯动力所设计的芯片恰好契合这一开发应用需求。
      芯动力此次能够在如此短的时间内完成与DeepSeek-R1模型适配,AzureBlade K340L M.2加速卡是关键。这是一款高性能AI加速卡,实现了高性能、低功耗、小体积的完美结合。这款加速卡内嵌AE7100芯片,尺寸仅为22mm×80mm,大约半张名片大小,却实现了高达32TOPs的算力,并且功耗能达到8w以下。其采用标准M.2接口,便于集成到各种设备中,成为业界最小、最薄的GPU之一。该加速卡兼容CUDA和ONNX,满足各类AI应用需求,其高算力和内存带宽确保数据高效稳定处理与传输。目前,这款加速卡已经可以支撑大模型在AI PC等设备上运行,并适配了DeepSeek-R1、Llama 3-8B、Stable Diffusion、通义千问等开源模型。除此之外,该加速卡在工业自动化、泛安防、内容过滤、医疗影像及信号处理等领域也得到了广泛的应用。
      AzureBlade K340L加速卡性能卓越、适用性广,有望在大模型端侧设备部署中发挥关键作用,助力 AI 技术在更多场景落地,推动 AI 技术发展与应用,开启 AI 应用新篇章。未来,芯动力团队还将在 AI 及其他行业持续创新突破,为生活和社会带来更多变革。


本文地址:https://www.eechina.com/thread-881446-1-1.html     【打印本页】

本站部分文章为转载或网友发布,目的在于传递和分享信息,并不代表本网赞同其观点和对其真实性负责;文章版权归原作者及原出处所有,如涉及作品内容、版权和其它问题,我们将根据著作权人的要求,第一时间更正或删除。
您需要登录后才可以发表评论 登录 | 立即注册

厂商推荐

  • Microchip视频专区
  • 基于CEC1712实现的处理器SPI FLASH固件安全弹性方案培训教程
  • 安静高效的电机控制——这才是正确的方向!
  • 5分钟详解定时器/计数器E和波形扩展!
  • 无线充电基础知识及应用培训教程3
  • 贸泽电子(Mouser)专区
关于我们  -  服务条款  -  使用指南  -  站点地图  -  友情链接  -  联系我们
电子工程网 © 版权所有   京ICP备16069177号 | 京公网安备11010502021702
快速回复 返回顶部 返回列表