• 首页
  • 时政
  • 财经
  • 社会
  • 股票
  • 信用
  • 视频
  • 图片
  • 品牌
  • 发改动态
  • 中宏研究
  • 营商环境
  • 新质生产力
logo 公司
  • 中宏网首页 >
  • 商业管理 >
  • 公司 >
  • 正文

宝德AI服务器:为大模型提供算力支持,推动AI产业快速发展

2023-12-20 11:58:19 来源:河北网络广播电视台
分享到:
用微信扫描二维码

  语言大模型作为人工智能领域的重要分支,其强大的自然语言处理能力和模仿人类的对话决策能力,正逐渐成为人们的关注焦点。近日,据央视新闻报道,工业和信息化部赛迪研究院数据显示,今年我国语言大模型市场规模实现较快提升,应用场景不断丰富,增长率有望突破100%。目前我国已有超过19个语言大模型研发厂商,其中通过备案的共有15家厂商的模型产品,预计今年我国语言大模型市场规模将达到132.3亿元,增长率将为 110%。这表明语言大模型技术在我国得到了广泛应用,并且市场需求也在不断增长。

  然而,看得见的应用背后,是看不见的算力在支撑。算力是AI发展的底层土壤,语言大模型的训练和推理都需要消耗大量的计算资源。传统的通用算力往往难以满足语言大模型对算力的高需求,因此,强大可靠的AI算力底座显得尤为重要。

  作为中国AI服务器市场的TOP3和中国领先的计算产品方案提供商,宝德依托雄厚的自主研发实力和AI市场经验,基于AI产业市场需求,不断进行技术创新和升级,打造了AI训练、AI推理、AI边缘、AI终端以及AI集群、AICA(人工智能应用中心)、AIGC等丰富多样的算力产品和解决方案,可为语言大模型的训练和推理提供了强大的算力支持,助力推动语言大模型加快落地应用。

  其中,大模型加速利器——宝德AI训练服务器PR4910E是当之无愧的算力王者。它采用2颗身怀七大算力神器的第四代英特尔®至强®可扩展处理器,最大60核心,支持10张GPU加速卡,已经适配和支持Intel GPU Flex系列,能为大模型训练和推理提供强有力的算力支撑;它具有13个PCIe x16 Gen5插槽,支持32个 DIMM / DDR5内存插槽,支持最新的400Gb ETH和NDR IB高速智能网卡,以及 GPU Direct RDMA,最多支持24个 NVMe SSD,而且采用CPU 直通设计,大幅降低 I/O 延迟,为大模型数据存储和传输提供高效可靠的保证。此外,它采用整机模块化设计,支持灵活切换 CPU 和 GPU 的异构拓扑结构,非常便于用户的系统维护和管理。而且,该产品支持最新发布的第五代英特尔®至强®处理器,每个内核都具备 AI 加速功能,无需添加独立加速器,即可处理要求严苛的 AI 工作负载,非常适用于大模型、人工智能、深度学习、神经网络,赋能医学、材料、金融、科技等千行百业智能化转型和应用。

  未来,随着人工智能技术的不断进步和应用场景的不断拓展,大模型的市场需求将持续增长。宝德作为AI领域的领军企业,将继续发挥自身优势,加大产品技术创新,探索更多AI的新应用、新场景和新模式,推出更多先进的AI全栈算力产品方案,为大模型的研发和应用提供更加强大的算力支持。同时,宝德也将积极推动AI产业的快速发展,为我国经济社会的发展做出更大的贡献。


编辑:沈露
审核:王明月

免责声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。如稿件版权单位或个人不想在本网发布,可与本网联系,本网视情况可立即将其撤除。

  • 微信
  • 微博
  • 手机中宏网

互联网新闻信息服务许可证10120230012 信息网络传播视听节目许可证0121673 增值电信业务经营许可证京B2-20171219 广播电视节目制作经营许可证(京)字第10250号

关于我们 中宏网动态 广告服务 中宏网版权所有 京ICP备2023030128号-1 举报电话:010-63359623

Copyright © 2016-2025 by www.zhonghongwang.com. all rights reserved 运营管理:国家发展和改革委员会宏观经济杂志社