科大讯飞将在港投资 4 亿港元,专注大语言模型等开发;英伟达 Mistral AI 联手发布 12B 参数小模型丨AI情报局
今日融资快报
科大讯飞将在香港投资 4 亿港元,并设立国际总部
科大讯飞公布了一项为期 5 年的 4 亿港元、投资计划,并在香港设立了国际总部。公司表示,这项投资计划将支持其组建一支 150 人的研发团队,专注于大语言模型的开发,以及智能语音、教育和医疗等领域的 AI 应用。科大讯飞副总裁段大为表示:“我们的初期预算是 4 亿港元。如果一切在香港顺利推进,这个数字还会增加。”(南华早报)
蚌壳智能获得1.2亿人民币战略投资,天阳科技投资
蚌壳智能是一家致力于创新的人工智能企业,拥有适合国内企业快速部署的通用大模型、代码大模型、多模态图文大模型、多模态语音大模型等多个基础大语言模型。
天阳科技与蚌聚合创、蚌壳咨询、蚌壳管理、蚌合创智签署了《关于北京蚌壳智能科技有限公司之投资协议》,向蚌壳智能投资1.2亿元,认购蚌壳智能新增注册资本87万元,剩余1.19亿元计入资本公积金,以取得本次增资完成后蚌壳智能8%的股权。
计算机视觉技术及产品研发商感图科技获C2轮数亿元融资
感图科技是计算机视觉技术及产品研发商,主要业务是将计算机视觉技术应用于精密外观检测场景。目前感图科技聚焦高端制造领域的智能化品质管控及良率管理, 通过自主研发的底层AI框架和核心技术,为高端制造业提供一站式智能化解决方案。感图科技完成数亿元C2轮融资,本轮融资由地方政府产业基金支持,并且获得数家银行授信支持。(投资界)
AI主导的 B2B 支付平台 Slope 获 6500 万美元的战略股权和债务融资
Slope 是一家以 AI 为主导的 B2B 支付平台,已获得摩根大通提供的 6500 万美元战略股权和债务融资。 Y Combinator、Notable Capital、Jack Altman 和 Max Altman 的新基金 Saga 也参与了本轮融资。
旅游与活动端到端解决方案提供商Planned在 B 轮融资中筹集 3500 万美元
Planned 成立于 2017 年,是一家通过技术加速旅行与活动的 "从来源到支付 "服务公司。该公司将人工服务与人工智能相结合,提供定制化的采购和预订服务,服务的客户包括普华永道、Block、AWS 和 Instacart。
本轮融资由 Drive Capital 领投,Outsiders Fund 和另外两家公司参投。除宣布融资外,Planned 还将 Hopper 首席执行官兼联合创始人、Expedia 前副总裁 Frederic Lalonde 加入董事会。
AI驱动的收入周期自动化公司Thoughtful AI 筹集 2000 万美元的融资
Thoughtful Automation Inc. 是一家AI驱动的专注于医疗保健行业的收入周期管理初创公司,推出了三个人工智能代理:CAM、EVA 和 PHIL,它们分别用于处理索赔处理、患者资格验证和付款过帐任务。该轮融资由 Drive Capital 的 Nick Solaro 领投,TriplePoint Capital 参与。
GPU 云提供商SF Compute获 Alt Capital 领投1200万美元融资
曾在 OpenAI 以及 AI Grant创业加速器工作的 Evan Conrad 与室友 Alex Gajewski 创办的 SF Compute 宣布获得 Sam Altman兄弟创办的 Alt Capital 领投的 1200 万美元融资,估值 7000 万美元。
由于市场缺乏足够的算力,初创公司难以获取 AI 所需的大量半导体,SF Compute 希望帮助初创企业获得这些资源,并创建一种算力交易平台;目前,SF Compute 已获得 8000 块 H100 订单来启动该项目。(有新Newin)
AI导盲眼镜.lumen完成500万欧元融资
.lumen 致力于创造改变生活的技术,由 Cornel Amariei 创立,其旗舰产品.lumen Glasses 和基础 AI 技术为视障人士提供了独立性和安全性。.lumen 的盲人眼镜使用行人自主驾驶(PAD AI)技术模仿导盲犬的功能。 .lumen 在一轮融资中从股权管理和投资公司 SeedBlink 筹集了 500 万欧元。(Zpotentials)
AI客服信联时代获2000万元天使轮融资
信联时代基于人工智能技术,为企业提供智能化的产品和服务,涵盖智能客服、智能营销、等多个领域。本轮融资由合一资本有限公司领投。
AI引擎提供商Artificial.Agency完成数百万美元种子轮融资
Artificial.Agency成立于2023年,专注于为游戏创作者和工作室提供AI驱动的行为引擎。该引擎能够将运行时决策整合到游戏动态中,为玩家带来充满活力的体验。投资方包括BDC Venture Capital、Kaya、Radical Ventures、TIRTA Ventures以及Toyota Ventures。
生成式AI公司EdgeRunner AI完成550万美元种子轮融资
EdgeRunner AI旨在为边缘构建安全、可靠和透明的生成式AI。该公司开发了小型的、特定于任务的超高效语言模型 ,无需访问互联网即可运行,从而提高了数据隐私、安全性和合规性。本轮融资由Four Rivers Group领投,Madrona Ventures和战略天使投资人参投。
AI编辑平台Edit Cloud获 200 万英镑融资
Edit Cloud 是一家总部位于英国伦敦的基于云的人工智能编辑平台提供商,提供一个云制作平台,旨在通过人工智能技术创造高质量的内容。它还汇集了基于云的工具,使团队能够高效地协同工作。本轮融资由 Edge 领投,天使投资人包括 Simon Ward 和 Justin Cooke。
AI大模型开发平台Arcee.ai完成A轮融资
Arcee.ai成立于2023年2月,致力于开发一个领域适配语言模型系统,旨在为特定领域提供量身定制的LLM,将DALM与业务运营无缝集成,以实现数据知情的决策和有价值的见解。该公司的系统不仅可以帮助客户获得LLM,还能创建一个值得信赖和真实的系统。本轮投资方包括Centre Street Partners、Emergence、Flybridge Capital和Journey Ventures。(亿欧)
人工智能企业诺比侃完成D+轮融资
诺比侃专注于将先进人工智能技术、数字孪生技术应用于高复杂度的开放场景中,提供具备高普适性的人工智能产品和面向轨道交通运维、智慧能源、智慧城市、智慧环境等领域的行业解决方案。本轮投资方为沛坤投资。
英格玛机器人科技获国家超级计算无锡中心战略投资
EnigmaRobotics是一家成立于2023年的初创公司,专注于研发和推广智能陪伴型机器人、多模态综合模型及其应用。国家超级计算无锡中心宣布对英格玛机器人科技进行战略投资。
AI驱动的信贷融资平台New Frontier Funding 获投资
New Frontier Funding 致力于利用生成式 AI 帮助中小型企业寻找信贷和债务融资,该公司使用其专有数据并微调 OpenAI 的语言模型,用于语义搜索和代理工作流程,以减少后台工作并准确地将借款人与贷方匹配。目前完成了 Homsher Family Office的一轮增长资本融资。交易金额未披露。
边缘创智获天使轮投资
边缘创智首要应用场景是通过使用多模态传感器 + AI 技术可以量化心理病患在诊疗过程中的数据,提高心理医生接诊效益,核心关注面部肌肉变化、心率和呼吸等指标。近日获得奇绩创坛的天使轮投资。CEO赵梓合毕业于香港科技大学,是一位连续创业者。有丰富机器人算法开发、产品研发经验,曾就职于大疆。
多模态大型机器人研发商银河通用获港投公司投资
银河通用是一家多模态大型机器人研发商,专注于制造具有嵌入式AGI的机器人,为全球提供通用机器人。“港版淡马锡”香港投资管理有限公司宣布投资「银河通用」,投资金额未披露。此前6月,银河通用才获得7亿元天使融资,投资方包括美团点评战投、北汽产投、商汤国香基金、讯飞基金等顶级战略及产业投资方,光源资本担任独家财务顾问并参与早期投资。
(欢迎添加微信AIyanxishe2,了解更多AIGC、融资情况,与志同道合的朋友一同畅聊时新AI产品)
今日大厂风闻
英伟达 Mistral AI 联手发布12B 参数小模型 Mistral Nemo,碾压 Llama 3 单张 4090 可跑
英伟达与 Mistral AI 合作发布了新的 AI 小模型 Mistral NeMo,具有 120 亿参数,支持 128K 上下文,在多项基准测试中击败了同类模型 Gemma 2 9B 和 Llama 3 8B。Mistral NeMo 旨在服务于企业用户,可以轻松定制和部署支持聊天机器人、多语言任务、编码和摘要的企业应用程序。Mistral NeMo 模型性能优异,兼容性强,易于使用,并且可以直接替代任何使用 Mistral 7B 的系统。模型使用 FP8 数据格式进行推理,减少了内存大小并加快了部署速度,同时保持了准确性。Mistral NeMo 还支持多语言应用,具有高效的分词器 Tekken,提升了对多种语言的处理效率。此外,Mistral NeMo 已经准备好在云、数据中心或 RTX 工作站等任何地方运行,开发者可以使用 mistral-inference 试用 Mistral NeMo。
小米小爱大模型即将全量升级:全部免费,本月底手机、平板、电视全支持
小米小爱大模型将迎来全量升级,并且全部免费。升级后的模型将更加聪明,支持智能问答、创作等功能,并且提升闲聊体验。7 月底将有手机、平板和电视等设备支持新模型。手机和平板的版本为 V6.126.5,电视的版本为 V4.30.1,内存容量需要 1G 以上。8 月底将有无屏音箱升级支持,而 10 月底则是有屏音箱的升级。(快科技)
苹果发布超 Mistral-7B 性能开源模型 DCLM-7B
苹果在 Hugging Face 上发布了 DCLM-7B 开源模型。该模型的性能已经超越了 Mistral-7B,并且正在逼近 Llama 3 和 Gemma。DCLM-7B 模型的开源资源包括模型权重、训练代码和预训练数据集。研究团队提出了 DCLM 新基准,用于评估大型语言模型的性能,特别是在多模态领域。DCLM 基准采用了标准化的实验框架,包括固定的模型架构、训练代码、超参数和评估,以找出最适合训练高性能模型的数据整理策略。DCLM-7B 模型使用基于 OpenLM 框架的预训练方案,在 MMLU 基准上的 5-shot 准确率达到了 64%,与 Mistral-7B-v0.3 和 Llama 3 8B 相媲美,但所需计算量仅为 Llama 3 8B 的 1/6。
谷歌和雷朋厂商开发搭载 Gemini AI 模型的智能眼镜
谷歌公司已接触 EssilorLuxottica(雷朋 Ray-Bans 品牌背后公司),计划合作生产 Gemini 智能眼镜。EssilorLuxottica 公司此前已经和 Meta 公司合作,推出了两代雷朋 Meta 智能眼镜,而最新消息称 Meta 正计划斥资数十亿美元收购 EssilorLuxottica 大约 5% 的股份。(The Verge)
今日产品动态
Product Hunt 热榜,Flow Studio
Flow Studio 是由 Flow GPT 团队开发的能将文本转换成高质量的短片的工具。该平台由 Lifan Wang、Sam Xu、Qianhua Ge、Jay Dang 和 Luke Pioneero 共同开发,于 2024 年 7 月 18 日在 Product Hunt 上发布。Flow Studio 的亮点是能够通过单一的文本提示,自动生成一个包含故事、配音、背景音乐和声效的完整视频,极大地简化了视频制作过程。Flow GPT 获得了用户的高度评价,平均得分为 4.9/5 星。
创始人Jay Dang大学在加州大学伯克利分校学习计算机科学,他是 FlowGPT、Markit AI 和 LUUM 的创始人,也在 C. Light Technologies, Inc. 和 Glaucomark 担任过数据科学家和独立研究员。
?https://flowgpt.com/flow-studio?ref=producthunt
GitHub Trending 热榜,构建多智能体和 RAG的框架Langflow
Langflow 是一个视觉化的框架,旨在帮助开发者构建多智能体和 RAG 应用程序。项目基于 Python 开发,已开源,可以完全自定义,同时支持不同的语言模型和向量存储。用户可以通过 pip 安装 Langflow,并且需要确保系统中安装的 Python 版本至少为 3.10。项目提供了详细的文档和部署指南。
?https://github.com/langflow-ai/langflow
特别关注
前谷歌大脑高级研究员、Reka AI联合创始人Yi Tay解析:为什么在 BERT 之后没有看到更多的编码器模型扩展?
Yi Tay 是 Reka AI 的联合创始人和首席科学家,并筹集了 1 亿美元的资金。他曾在 Google Brain 从事大型语言模型和人工智能研究,2020 年到 2023 年初,深入参与了 Google 的大部分大型语言模型和多模态工作。他曾在 ICLR 和 WSDM 会议上获得的最佳论文奖项,在 Stanford University 的 CS25 课程中担任客座讲师。
Yi Tay 在 X 平台上发布系列博客的第一篇,旨在探讨大型语言模型时代的模型架构。讨论了包括 Transformer 编码器、编码器 - 解码器、PrefixLM 以及去噪目标在内的各种架构。Yi Tay 引用了一个常见问题,即为什么在 BERT 之后没有看到更多的编码器模型扩展,以及编码器 - 解码器或仅编码器模型的命运。他还质疑了去噪目标的有效性,并在博客中分享了自己的想法。
博客首先提到了近年来自然语言处理领域的人们对于编码器模型消失的困惑,以及 BERT 和 T5 等模型的发展情况。强调了编码器 - 解码器模型、编码器只模型和解码器只模型之间的区别和联系,并指出了 PrefixLM 架构的特点。进一步解释了去噪目标的概念,包括 BERT 风格的 “原地” 去噪和 T5 风格的序列到序列的去噪方式,并讨论了去噪目标的优缺点。
Yi Tay 还分析了编码器 - 解码器模型的计算成本,以及为什么 BERT 风格的模型逐渐被淘汰。并指出,去噪目标通常与因果语言模型相辅相成,并在大型语言模型的预训练中发挥作用。此外,双向注意力机制在不同规模的模型中的作用也被讨论了。最后,Yi Tay 总结了编码器 - 解码器架构的优缺点,并强调了理解归纳偏差和预训练策略的重要性,以及 BERT 模型为何被更灵活的 T5 模型取代的原因。
?https://www.yitay.net/blog/model-architecture-blogpost-encoders-prefixlm-denoising
敬请期待明日的最新动态!
雷峰网