「生数科技」完成数亿元Pre-A轮融资,百度投了 | 36氪首发

文 | 周鑫雨

编辑 | 邓咏仪

36氪获悉,近日多模态大模型企业“生数科技”完成数亿元Pre-A轮融资,该轮融资由北京市人工智能产业投资基金、百度联合领投,中关村科学城公司等跟投,启明创投等数位老股东继续支持。

此前,生数科技已经获得来自蚂蚁集团、BV百度风投、卓源亚洲、锦秋基金、达泰资本、智谱AI等机构的投资。据悉,本轮融资主要用于持续迭代优化自研大模型,并加速产品开发与市场拓展。

生数科技是36氪持续跟进的AI企业。这家成立于2023年的“清华系”多模态企业的核心团队成员,出自清华大学人工智能研究院。

生数科技是36氪持续跟进的AI企业。这家成立于2023年的“清华系”多模态大模型企业的核心创始成员,出自清华大学人工智能研究院。联合创始人兼CEO唐家渝是清华大学自然语言处理实验室硕士,曾任瑞莱智慧副总裁、腾讯优图实验室高级产品经理。

生数科技最近一次受到大规模的关注,是在今年4月发布了性能对标OpenAI Sora的全自研视频生成模型Vidu,将国产专业级视频生成的时长天花板,拉高到了16秒,并在画面逼真度、一致性等方面全面对标Sora。

虽然采用与Sora相似的Diffusion Transformer融合架构,但Vidu的底层技术,则是生数团队原创研究的成果,甚至比Sora的底层架构发布得更早——

2022年9月,生数科技就发布了9.5亿参数规模的U-ViT网络架构,这也是全球首个Diffusion Transformer架构。3个月后,伯克利团队才发布了初代DiT架构U-Net,后被应用于Sora的研发。

生数科技创始团队判断,大模型的发展必将从语言单一模态走向多模态融合。因此成立之初,生数科技就坚持采用U-ViT融合架构处理多模态数据。2023年3月,团队又开源了全球首个基于U-ViT架构的多模态扩散模型 UniDiffuser,以此验证验证大规模训练融合架构的可行性与涌现能力。。

除了视频生成技术的储备,生数科技在图像生成、3D生成等多模态领域,也有相应的技术和产品储备。

生数科技自2021年以来的扩散模型研究成果——免训练推断算法Analytic-DPM、全球最快采样算法DPM-Solver,被Stable Diffusion、DALL·E 2等图像模型采用。

目前,生数科技采取的是To B和To C两条腿走路的商业化模式:对B端提供MaaS服务,对C端提供多模态生成应用。

目前,在To B方向,生数科技已将多模态大模型应用于游戏、影视、文旅、智能终端等场景。

在C端产品的布局上,生数科技在2023年上线了两款工具型产品:视觉创意设计平台PixWeaver、3D资产创建工具VoxCraft。

以下为投资人评价:

欢迎交流!