96006资源网
当前位置: 首页>科技资讯>国产摩尔线程MTT S50显卡登场:精巧单槽设计,配备8GB显存,规格紧随S80脚步

国产摩尔线程MTT S50显卡登场:精巧单槽设计,配备8GB显存,规格紧随S80脚步

时间:2024-11-25 00:02:07

人气:0

编辑:96006资源网

8月1日消息,摩尔线程官方宣布,MTT S50显卡的试用申请已在其官方网站正式启动。此次发布不仅开放了申请渠道,还首度公开了该显卡的外观设计与详细性能参数,吸引众多硬件爱好者和专业人士的关注。

国产摩尔线程MTT S50显卡登场:精巧单槽设计,配备8GB显存,规格紧随S80脚步

该显卡为单槽厚度,长和高分别为 264.4mm 和 126.6mm,采用了涡轮散热设计,官网显示定位“数字办公”产品。

摩尔线程 MTT S50 采用第一代 MUSA 架构,拥有 2048 个可编程 MUSA 核心,单精度浮点算力最高 5.2 TFLOPS,配备 8GB 显存,位宽为 256-bit,整卡功耗为 85W。

此外,该卡配有 1 个 HDMI 2.0 接口、2 个 DP 1.4 接口,支持 H.264、H.265、AV1 多路高清视频编解码,最高 8K 分辨率显示,还全面支持 DirectX、Vulkan 、OpenGL 和 OpenGL ES 等图形 API。

摩尔线程官网介绍称,在《英雄联盟》1080P 分辨率及最高画质设定下,MTT S50 能够为玩家提供“稳定性能表现”。同时,MTT S50 还能够在 Linux 平台上,为《反恐精英:全球攻势》、《刀塔 2》等多款热门游戏爱好者带来“流畅操作体验”。

AI 方面,MTT S50 提供对 DBNet、CRNN、Yolo、Restnet50 / 101 等主流 AI 模型,及对 PyTorch、TensorFlow、PaddlePaddle 框架的支持。

系统兼容性方面,MTT S50 显卡兼容 x86、Arm、LoongArch 等多种 CPU 架构,以及国产 Linux、国际 Linux、Windows 操作系统发行版。

从规格来看,MTT S50 的 MUSA 核心数和显存容量均为 MTT S80 的一半。早在 2022 年,闲鱼出现了一款 MTT S50 型号,卖家称该卡性能对标 GTX 1660。

摩尔线程携手识因智能,成功适配“一叶轻舟”多模态大模型

近日,摩尔线程与识因智能的战略合作标志着国产全功能GPU技术与先进的人工智能大模型应用的深度融合。双方携手完成了摩尔线程夸娥智算集群与识因智能“一叶轻舟”多模态大模型的适配,这一协作不仅强化了双方在AI行业的影响力,还预示着将为客户提供更加强大、灵活的智能化解决方案,加速推进各行业数字化转型的进程。

摩尔线程携手识因智能,成功适配“一叶轻舟”多模态大模型

识因智能的“一叶轻舟”多模态大模型,拥有行业领先的多模态、多任务通用人工智能能力,覆盖自然语言处理、智能内容生成、语音及视觉识别等关键技术领域。该模型通过量化压缩技术,构建了从0.7B到45B多个规模的可商用模型,满足实际应用场景中多样化的业务需求。基于循环门控网络的混合专家模型(MoE)展现了高度的可配置性和普适性,为AI应用实践提供了高效平台。

摩尔线程夸娥智算集群的强大算力支持下,识因智能完成了70亿参数大模型的训练测试,测试结果表明兼容适配程度高,训练效率达到预期,充分验证了智算集群的高效能。此次深度融合将进一步增强大模型的应用场景和服务能力,为客户提供更强大和定制化的解决方案。

识因智能的产品与服务已广泛应用于政务服务、金融证券、智慧办公、智能制造等多个场景,为产业智能化转型升级提供了有力支撑。未来,摩尔线程与识因智能将继续深化合作,推动国产算力与国产大模型的结合,共同打造深耕行业的解决方案,更好地为各行业赋能。

摩尔线程夸娥智算中心:破万卡规模,解锁万P级浮点运算新纪元

7月3日消息,摩尔线程科技有限公司对外宣布了一项重要的技术升级,其自主研发的AI旗舰级产品——夸娥(KUAE)智算集群解决方案,实现了从原先的千卡级别跃升至万卡级别的重大跨越。

摩尔线程夸娥智算中心:破万卡规模,解锁万P级浮点运算新纪元

摩尔线程夸娥万卡智算集群,以全功能 GPU 为底座,打造能够承载万卡规模、具备万 P 级浮点运算能力的国产通用加速计算平台,专为万亿参数级别的复杂大模型训练而设计。

夸娥万卡智算解决方案具备以下核心特性:

万卡万 P:夸娥智算集群实现单集群规模超万卡,浮点运算能力达到 10Exa-Flops,达到 PB 级的超大显存总容量、每秒 PB 级的超高速卡间互联总带宽和每秒 PB 级超高速节点互联总带宽。

长稳训练:摩尔线程夸娥万卡集群平均无故障运行时间超过 15 天,最长可实现大模型稳定训练 30 天以上,周均训练有效率在 99% 以上,远超行业平均水平。

高 MFU:夸娥万卡集群在系统软件、框架、算法等层面一系列优化,实现大模型的高效率训练,MFU(评估大模型训练效率的通用指标)最高可达到 60%。

生态友好:可加速 LLM、MoE、多模态、Mamba 等不同架构、不同模态的大模型。基于 MUSA 编程语言、完整兼容 CUDA 能力和自动化迁移工具 Musify,加速新模型“Day0”级迁移。

摩尔线程将开展三个万卡集群项目,分别为青海零碳产业园万卡集群项目、青海高原夸娥万卡集群项目、广西东盟万卡集群项目。

相关推荐
热门应用排行榜
热门游戏排行榜
热门合集