稀宇科技推出万亿MoE模型abab 6.5
4月17日,稀宇科技MiniMax正式推出abab 6.5系列模型。abab 6.5系列包含两个模型:abab 6.5和abab 6.5s。据介绍,abab 6.5包含万亿参数,支持200k tokens的上下文长度;abab 6.5s跟abab 6.5使用了同样的训练技术和数据,但是更高效,支持200k tokens的上下文长度,可以1秒内处理近3万字的文本。在各类核心能力测试中,abab 6.5开始接近GPT-4、Claude-3、Gemini-1.5等大语言模型。
相关资讯
- ▣ MiniMax发布万亿MoE模型abab 6.5
- ▣ 将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B
- ▣ 猎户星空发布MoE大模型,推出AI数据宝AirDS
- ▣ 新视角设计下一代时序基础模型,Salesforce推出Moirai-MoE
- ▣ 北京深度求索公司推出首个国产开源MoE大模型
- ▣ 阶跃星辰发布Step-2万亿参数MoE语言大模型预览版
- ▣ MiniMax发布abab大模型:6.51秒内可处理近3万字文本
- ▣ 通用大模型创业硬核选手亮相 阶跃星辰发布万亿参数MoE大模型预览版
- ▣ 苹果推出开放语言模型 OpenELM;微软、清华团队提出多头混合专家 MH-MoE|大模型论文
- ▣ 最神秘国产大模型团队冒泡,出手就是万亿参数MoE,2款应用敞开玩
- ▣ 猎户星空发布MoE大模型
- ▣ 全球科技早参丨微软推出轻量级AI模型
- ▣ 生数科技与清华联合推出视频大模型Vidu
- ▣ 腾讯发布最大开源MoE模型,3890亿参数免费可商用
- ▣ 大模型初创企业MiniMax将发布国内首个MoE大模型
- ▣ 中国科技公司推出多款模型与OpenAI的Sora竞争
- ▣ 阿里通义千问开源首个MoE模型
- ▣ 腾讯开源:3D素材生成模型、最大MoE模型,兼容OpenAI SDK
- ▣ 第一个100%开源的MoE大模型,7B的参数,1B的推理成本
- ▣ 腾讯混元又来开源,一出手就是最大MoE大模型
- ▣ 一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo
- ▣ 蚂蚁百灵大模型推出20亿参数遥感模型
- ▣ 科大讯飞2024上半年亏损,在大模型研发等方面投入超6.5亿
- ▣ 「天工大模型3.0」4月17日正式发布——同步开源4000亿参数MoE超级模型,性能超Grok1.0
- ▣ 科技早报 | 阶跃星辰发布“万亿”和“多模”大模型;黄仁勋6月套现近1.7亿美元
- ▣ 从零手搓MoE大模型,大神级教程来了
- ▣ 幻方量化旗下DeepSeek发布第二代MoE模型
- ▣ 商湯科技推出新版AI模型 股價暴漲一度暫停交易
- ▣ 永太科技:2023年预亏4.5亿元—6.5亿元 同比转亏