时间:2024-11-25 00:02:07
人气:0
编辑:96006资源网
8月1日消息,摩尔线程官方宣布,MTT S50显卡的试用申请已在其官方网站正式启动。此次发布不仅开放了申请渠道,还首度公开了该显卡的外观设计与详细性能参数,吸引众多硬件爱好者和专业人士的关注。
该显卡为单槽厚度,长和高分别为 264.4mm 和 126.6mm,采用了涡轮散热设计,官网显示定位“数字办公”产品。
摩尔线程 MTT S50 采用第一代 MUSA 架构,拥有 2048 个可编程 MUSA 核心,单精度浮点算力最高 5.2 TFLOPS,配备 8GB 显存,位宽为 256-bit,整卡功耗为 85W。
此外,该卡配有 1 个 HDMI 2.0 接口、2 个 DP 1.4 接口,支持 H.264、H.265、AV1 多路高清视频编解码,最高 8K 分辨率显示,还全面支持 DirectX、Vulkan 、OpenGL 和 OpenGL ES 等图形 API。
摩尔线程官网介绍称,在《英雄联盟》1080P 分辨率及最高画质设定下,MTT S50 能够为玩家提供“稳定性能表现”。同时,MTT S50 还能够在 Linux 平台上,为《反恐精英:全球攻势》、《刀塔 2》等多款热门游戏爱好者带来“流畅操作体验”。
AI 方面,MTT S50 提供对 DBNet、CRNN、Yolo、Restnet50 / 101 等主流 AI 模型,及对 PyTorch、TensorFlow、PaddlePaddle 框架的支持。
系统兼容性方面,MTT S50 显卡兼容 x86、Arm、LoongArch 等多种 CPU 架构,以及国产 Linux、国际 Linux、Windows 操作系统发行版。
从规格来看,MTT S50 的 MUSA 核心数和显存容量均为 MTT S80 的一半。早在 2022 年,闲鱼出现了一款 MTT S50 型号,卖家称该卡性能对标 GTX 1660。
近日,摩尔线程与识因智能的战略合作标志着国产全功能GPU技术与先进的人工智能大模型应用的深度融合。双方携手完成了摩尔线程夸娥智算集群与识因智能“一叶轻舟”多模态大模型的适配,这一协作不仅强化了双方在AI行业的影响力,还预示着将为客户提供更加强大、灵活的智能化解决方案,加速推进各行业数字化转型的进程。
识因智能的“一叶轻舟”多模态大模型,拥有行业领先的多模态、多任务通用人工智能能力,覆盖自然语言处理、智能内容生成、语音及视觉识别等关键技术领域。该模型通过量化压缩技术,构建了从0.7B到45B多个规模的可商用模型,满足实际应用场景中多样化的业务需求。基于循环门控网络的混合专家模型(MoE)展现了高度的可配置性和普适性,为AI应用实践提供了高效平台。
摩尔线程夸娥智算集群的强大算力支持下,识因智能完成了70亿参数大模型的训练测试,测试结果表明兼容适配程度高,训练效率达到预期,充分验证了智算集群的高效能。此次深度融合将进一步增强大模型的应用场景和服务能力,为客户提供更强大和定制化的解决方案。
识因智能的产品与服务已广泛应用于政务服务、金融证券、智慧办公、智能制造等多个场景,为产业智能化转型升级提供了有力支撑。未来,摩尔线程与识因智能将继续深化合作,推动国产算力与国产大模型的结合,共同打造深耕行业的解决方案,更好地为各行业赋能。
7月3日消息,摩尔线程科技有限公司对外宣布了一项重要的技术升级,其自主研发的AI旗舰级产品——夸娥(KUAE)智算集群解决方案,实现了从原先的千卡级别跃升至万卡级别的重大跨越。
摩尔线程夸娥万卡智算集群,以全功能 GPU 为底座,打造能够承载万卡规模、具备万 P 级浮点运算能力的国产通用加速计算平台,专为万亿参数级别的复杂大模型训练而设计。
夸娥万卡智算解决方案具备以下核心特性:
万卡万 P:夸娥智算集群实现单集群规模超万卡,浮点运算能力达到 10Exa-Flops,达到 PB 级的超大显存总容量、每秒 PB 级的超高速卡间互联总带宽和每秒 PB 级超高速节点互联总带宽。
长稳训练:摩尔线程夸娥万卡集群平均无故障运行时间超过 15 天,最长可实现大模型稳定训练 30 天以上,周均训练有效率在 99% 以上,远超行业平均水平。
高 MFU:夸娥万卡集群在系统软件、框架、算法等层面一系列优化,实现大模型的高效率训练,MFU(评估大模型训练效率的通用指标)最高可达到 60%。
生态友好:可加速 LLM、MoE、多模态、Mamba 等不同架构、不同模态的大模型。基于 MUSA 编程语言、完整兼容 CUDA 能力和自动化迁移工具 Musify,加速新模型“Day0”级迁移。
摩尔线程将开展三个万卡集群项目,分别为青海零碳产业园万卡集群项目、青海高原夸娥万卡集群项目、广西东盟万卡集群项目。
中国钢研刷新纪录,国内首台套超大规模热等静压装备问世,位居全球第二
暂无
大小: 36.80MB
大小: 0KB
影音播放
大小: 76.19MB
角色扮演
大小: 939.52MB
大小: 23.61MB
社交通讯
大小: 263.95MB
大小: 112.49MB
大小: 115.58MB
大小: 77.16MB
大小: 47.29MB
体育健身
大小: 32.03MB
地图导航
大小: 75.65MB
超车大师3D游戏
悦玩网络爆装传奇
闲置屠宰公司v1.1.66
升级加农炮
尸灵出笼
西部荒野幸存者
动作
格斗
街机
国产摩尔线程MTT S50显卡登场:精巧单槽设计,配备8GB显存,规格紧随S80脚步
时间:2024-11-25 00:02:07
人气:0
编辑:96006资源网
8月1日消息,摩尔线程官方宣布,MTT S50显卡的试用申请已在其官方网站正式启动。此次发布不仅开放了申请渠道,还首度公开了该显卡的外观设计与详细性能参数,吸引众多硬件爱好者和专业人士的关注。
该显卡为单槽厚度,长和高分别为 264.4mm 和 126.6mm,采用了涡轮散热设计,官网显示定位“数字办公”产品。
摩尔线程 MTT S50 采用第一代 MUSA 架构,拥有 2048 个可编程 MUSA 核心,单精度浮点算力最高 5.2 TFLOPS,配备 8GB 显存,位宽为 256-bit,整卡功耗为 85W。
此外,该卡配有 1 个 HDMI 2.0 接口、2 个 DP 1.4 接口,支持 H.264、H.265、AV1 多路高清视频编解码,最高 8K 分辨率显示,还全面支持 DirectX、Vulkan 、OpenGL 和 OpenGL ES 等图形 API。
摩尔线程官网介绍称,在《英雄联盟》1080P 分辨率及最高画质设定下,MTT S50 能够为玩家提供“稳定性能表现”。同时,MTT S50 还能够在 Linux 平台上,为《反恐精英:全球攻势》、《刀塔 2》等多款热门游戏爱好者带来“流畅操作体验”。
AI 方面,MTT S50 提供对 DBNet、CRNN、Yolo、Restnet50 / 101 等主流 AI 模型,及对 PyTorch、TensorFlow、PaddlePaddle 框架的支持。
系统兼容性方面,MTT S50 显卡兼容 x86、Arm、LoongArch 等多种 CPU 架构,以及国产 Linux、国际 Linux、Windows 操作系统发行版。
从规格来看,MTT S50 的 MUSA 核心数和显存容量均为 MTT S80 的一半。早在 2022 年,闲鱼出现了一款 MTT S50 型号,卖家称该卡性能对标 GTX 1660。
摩尔线程携手识因智能,成功适配“一叶轻舟”多模态大模型
近日,摩尔线程与识因智能的战略合作标志着国产全功能GPU技术与先进的人工智能大模型应用的深度融合。双方携手完成了摩尔线程夸娥智算集群与识因智能“一叶轻舟”多模态大模型的适配,这一协作不仅强化了双方在AI行业的影响力,还预示着将为客户提供更加强大、灵活的智能化解决方案,加速推进各行业数字化转型的进程。
识因智能的“一叶轻舟”多模态大模型,拥有行业领先的多模态、多任务通用人工智能能力,覆盖自然语言处理、智能内容生成、语音及视觉识别等关键技术领域。该模型通过量化压缩技术,构建了从0.7B到45B多个规模的可商用模型,满足实际应用场景中多样化的业务需求。基于循环门控网络的混合专家模型(MoE)展现了高度的可配置性和普适性,为AI应用实践提供了高效平台。
摩尔线程夸娥智算集群的强大算力支持下,识因智能完成了70亿参数大模型的训练测试,测试结果表明兼容适配程度高,训练效率达到预期,充分验证了智算集群的高效能。此次深度融合将进一步增强大模型的应用场景和服务能力,为客户提供更强大和定制化的解决方案。
识因智能的产品与服务已广泛应用于政务服务、金融证券、智慧办公、智能制造等多个场景,为产业智能化转型升级提供了有力支撑。未来,摩尔线程与识因智能将继续深化合作,推动国产算力与国产大模型的结合,共同打造深耕行业的解决方案,更好地为各行业赋能。
摩尔线程夸娥智算中心:破万卡规模,解锁万P级浮点运算新纪元
7月3日消息,摩尔线程科技有限公司对外宣布了一项重要的技术升级,其自主研发的AI旗舰级产品——夸娥(KUAE)智算集群解决方案,实现了从原先的千卡级别跃升至万卡级别的重大跨越。
摩尔线程夸娥万卡智算集群,以全功能 GPU 为底座,打造能够承载万卡规模、具备万 P 级浮点运算能力的国产通用加速计算平台,专为万亿参数级别的复杂大模型训练而设计。
夸娥万卡智算解决方案具备以下核心特性:
万卡万 P:夸娥智算集群实现单集群规模超万卡,浮点运算能力达到 10Exa-Flops,达到 PB 级的超大显存总容量、每秒 PB 级的超高速卡间互联总带宽和每秒 PB 级超高速节点互联总带宽。
长稳训练:摩尔线程夸娥万卡集群平均无故障运行时间超过 15 天,最长可实现大模型稳定训练 30 天以上,周均训练有效率在 99% 以上,远超行业平均水平。
高 MFU:夸娥万卡集群在系统软件、框架、算法等层面一系列优化,实现大模型的高效率训练,MFU(评估大模型训练效率的通用指标)最高可达到 60%。
生态友好:可加速 LLM、MoE、多模态、Mamba 等不同架构、不同模态的大模型。基于 MUSA 编程语言、完整兼容 CUDA 能力和自动化迁移工具 Musify,加速新模型“Day0”级迁移。
摩尔线程将开展三个万卡集群项目,分别为青海零碳产业园万卡集群项目、青海高原夸娥万卡集群项目、广西东盟万卡集群项目。
中国钢研刷新纪录,国内首台套超大规模热等静压装备问世,位居全球第二
暂无
大小: 36.80MB
大小: 0KB
影音播放
大小: 76.19MB
角色扮演
大小: 939.52MB
大小: 23.61MB
社交通讯
大小: 263.95MB
社交通讯
大小: 112.49MB
大小: 115.58MB
影音播放
大小: 77.16MB
影音播放
大小: 47.29MB
体育健身
大小: 32.03MB
地图导航
大小: 75.65MB
超车大师3D游戏
悦玩网络爆装传奇
闲置屠宰公司v1.1.66
升级加农炮
尸灵出笼
西部荒野幸存者
动作
格斗
街机