芯动力神速适配DeepSeek-R1大模型,AI芯片设计迈入“快车道”!

2025年02月07日 16:30:06   [来源:互联网]   [阅读:1030]
字体:【

      近期,国产大模型 DeepSeek-R1横空出世,迅速成为AI领域的焦点。芯动力在24小时内完成了与DeepSeek-R1大模型的适配。

      DeepSeek-R1是幻方量化旗下大模型公司DeepSeek研发的系列推理模型,自诞生起就备受瞩目。它采用强化学习训练,推理时包含大量反思和验证,思维链长度可达数万字。在数学、代码以及复杂逻辑推理任务上,DeepSeek-R1有着出色的表现,能取得媲美OpenAI o1的推理效果,还能为用户展现完整的思考过程 。在1月24日的Arena上,DeepSeek-R1 基准测试已经升至全类别大模型第三,其中在风格控制类模型(StyleCtrl)分类中与OpenAI o1并列第一。

      随着技术的发展,大模型训练成本呈下降趋势,商业化门槛也随之降低。大模型作为技术底座,为各行业应用开拓了无限可能,这也让边缘大模型逐渐成为主流方向。而芯动力所设计的芯片恰好契合这一开发应用需求。

      芯动力此次能够在如此短的时间内完成与DeepSeek-R1模型适配,AzureBlade K340L M.2加速卡是关键。这是一款高性能AI加速卡,实现了高性能、低功耗、小体积的完美结合。这款加速卡内嵌AE7100芯片,尺寸仅为22mm×80mm,大约半张名片大小,却实现了高达32TOPs的算力,并且功耗能达到8w以下。其采用标准M.2接口,便于集成到各种设备中,成为业界最小、最薄的GPU之一。该加速卡兼容CUDA和ONNX,满足各类AI应用需求,其高算力和内存带宽确保数据高效稳定处理与传输。目前,这款加速卡已经可以支撑大模型在AI PC等设备上运行,并适配了DeepSeek-R1、Llama 3-8B、Stable Diffusion、通义千问等开源模型。除此之外,该加速卡在工业自动化、泛安防、内容过滤、医疗影像及信号处理等领域也得到了广泛的应用。

      AzureBlade K340L加速卡性能卓越、适用性广,有望在大模型端侧设备部署中发挥关键作用,助力 AI 技术在更多场景落地,推动 AI 技术发展与应用,开启 AI 应用新篇章。未来,芯动力团队还将在 AI 及其他行业持续创新突破,为生活和社会带来更多变革。

推荐阅读:


相关新闻
新闻焦点
近年来,随着中国经济快速发展,化妆品市场呈现出一片红火景象,中国已成为全球化妆品消费第二大国。我国化妆品市场前期虽然起步较晚,但潜力不容小觑,许[更多]
近日,新浪与近20家全国头部地面频道、王牌民生节目、优秀的融媒体平台及自媒体平台签订融媒体深度战略合作协议,并宣布正式启动“温暖70城”活动。合[更多]
最近护肤界掀起了一股“国潮风”,最本人也对一款少女杀手面膜动心了,没管住自己的手入了名膜壹号的梦幻面膜。名膜壹号的面膜一直有不少小红书护肤达人的[更多]
【今年平均每人花44元看电影】截至12月14日,据灯塔专业版数据显示,国内累计电影票房已达609.6亿元,超过了去年全年606.88亿元的票房总[更多]
关于我们 | 联系我们 | XML地图 | 网站地图TXT | 版权声明
版权所有:科技杂谈网未经授权禁止复制或建立镜像
相关作品的原创性、文中陈述文字以及内容数据庞杂本站无法一一核实,如果您发现本网站上有侵犯您的合法权益的内容,请联系我们,本网站将立即予以删除!
中国互联网违法和不良信息举报中心 网络警察报警岗亭