本周人工智能领域,OpenAI 竟显疲态
嗨,朋友们,欢迎来到 TechCrunch 定期的 AI 时事通讯。如果您希望每周三在收件箱中收到此内容,请在此处注册 这里.
短暂中断后,我们带着一些关于OpenAI 的开发日的展示要点回来了。
昨天早上在旧金山的主题演讲因其低调的语气而引人注目——与去年首席执行官萨姆·奥特曼(Sam Altman)那种热闹、炒作的演讲形成对比。在这个开发日,奥特曼没有登上舞台推介闪亮的新项目。他甚至没有露面;平台产品负责人奥利维尔·戈德芒(Olivier Godement)担任主持人。
在这几个 OpenAI 开发日中的第一个的议程上——下一个本月在伦敦,最后一个 11 月在新加坡——是生活质量方面的改进。OpenAI 发布了实时语音 API 以及视觉微调,这允许开发人员使用图像自定义其 GPT-4o 模型。并且该公司推出了模型蒸馏,它采用像 GPT-4o 这样的大型 AI 模型,并使用它来微调较小的模型。
此次活动的狭窄焦点并非出乎意料。OpenAI 今年夏天降低了人们的预期,表示开发日将侧重于教育开发人员,而不是展示产品。然而,周二紧凑的 60 分钟主题演讲中遗漏的内容引发了关于 OpenAI 无数 AI 努力的进展——和状态——的问题。
我们没有听到可能接替 OpenAI 将近一年的图像生成器DALL-E 3的消息,也没有获得关于语音引擎(该公司的语音克隆工具)有限预览的更新。OpenAI 的视频生成器Sora还没有发布的时间表,对于该公司表示正在开发的让创作者控制其内容在模型训练中的使用情况的应用程序 Media Manager,也没有任何消息。
当被要求发表评论时,OpenAI 的一位发言人告诉 TechCrunch,OpenAI“正在慢慢向更多值得信赖的合作伙伴推出[语音引擎]预览”,并且 Media Manager“仍在开发中”。
但似乎很明显,OpenAI 显然已经力不从心,而且这种状况持续有段时间了。
据《华尔街日报》最近的报道,该公司负责 GPT-4o 工作的团队仅有九天时间来进行安全评估。《财富》报道称,许多 OpenAI 员工认为o1,该公司的第一个“推理”模型,还没有准备好亮相。
在朝着一轮可能高达 65 亿美元的融资努力迈进时,OpenAI 涉足了许多未成熟的领域。在许多定性测试中,DALL-3 的表现不如 Flux 这类图像生成器;据报道,Sora 生成素材的速度极慢,以致于 OpenAI 正在对该模型进行改进;而且 OpenAI 继续推迟其机器人市场GPT 商店的收益分享计划的推出,该计划最初定于今年第一季度。
OpenAI 如今发现自身被员工的倦怠和高管的离职所困扰,对此我并不惊讶。当你试图成为万事通时,最终你会一事无成——也无法取悦任何人。
AI 法案被否决:加利福尼亚州州长加文·纽瑟姆否决了 SB 1047,这是一项备受瞩目的法案,原本将规范该州人工智能的发展。在一份声明中,纽瑟姆称该法案“用心良苦”,但“并非是保护公众免受人工智能危害的最佳方法”。
AI 法案通过: 纽瑟姆确实签署了其他人工智能法规成为法律——包括处理人工智能训练数据披露、深度伪造裸体等的法案。
Y Combinator 受到批评: 创业加速器 Y Combinator 在支持了一家人工智能企业 PearAI 之后受到了批评,其创始人承认他们基本上克隆了一个名为 Continue 的开源项目。
Copilot 获得升级: 微软的人工智能驱动的 Copilot 助手在周二焕然一新。它现在能够读取您的屏幕、深入思考并大声与您交流等,还有其他本领。
OpenAI 联合创始人加入 Anthropic: OpenAI 不太出名的联合创始人之一 Durk Kingma 本周宣布他将加入 Anthropic。不过,目前还不清楚他要做啥工作。
基于客户照片训练 AI: Meta 的由人工智能驱动的雷朋眼镜前面有个摄像头,用于各种增强现实功能。但这或许会成为一个隐私问题——该公司没说是否打算依据用户的图像来训练模型。
Raspberry Pi 的 AI 相机: 销售小型、便宜单板计算机的公司 Raspberry Pi 发布了 Raspberry Pi AI 相机,这是一款带有板载 AI 处理功能的附加器件。
人工智能编码平台已经吸引了数百万用户,并从风险投资公司那里获得了数百个数百万美元。但它们是否兑现了提高生产力的承诺呢?
也许并非如此。据工程分析公司 Uplevel 的一项新分析所说。
Uplevel 对约 800 名其开发者客户的数据进行了比较——其中有一些报告使用了 GitHub 的 AI 编码工具 Copilot,而另一些则没有使用。
Uplevel 发现,依赖 Copilot 的开发者引入的错误要多出 41%,并且与未使用该工具的开发者相比,他们出现职业倦怠的可能性并没有更低。
尽管存在不仅涉及安全,还包括版权侵权和隐私等方面的担忧,但开发者们对 AI 驱动的辅助编码工具表现出极大热情。
Liquid AI,一家麻省理工学院的衍生公司,本周宣布了其首批生成式 AI 模型系列:Liquid Foundation Models,简称 LFMs。
“那又怎样?”您也许会问。模型是一种商品——实际上每天都有新的模型发布。
嗯,LFMs 采用了新颖的模型架构,并且在一系列行业基准上获得了有竞争力的分数。
大多数模型都是所谓的转换器。2017 年由谷歌的一个研究团队提出,到目前为止,转换器已成为占主导地位的生成式 AI 模型架构。
转换器支撑着Sora和Stable Diffusion 的最新版本,以及像 Anthropic 的Claude和谷歌的Gemini这样的文本生成模型。
但转换器存在局限性。特别是,它们在处理和分析大量数据时,效率不是很高。
Liquid 声称,与 Transformer 架构相比,其 LFM 的内存占用减少,使其能够在相同硬件上处理更大量的数据。“通过有效地压缩输入,LFM 可以处理更长的数据序列,”该公司在一篇博客文章中写道。
Liquid 的 LFM 可在多个云平台上使用,该团队计划在未来的版本中继续完善该架构。
要是您眨了下眼,可能就错过了:一家人工智能公司本周申请上市。
这家名为 Cerebras 的旧金山初创公司开发用于运行和训练人工智能模型的硬件,它直接与 Nvidia 竞争。
那么,在 Nvidia 占据 70%到 95%人工智能芯片市场份额之时,Cerebras 希望如何与这家芯片巨头竞争呢?Cerebras 表示,靠的是性能。该公司声称,其旗舰人工智能芯片(既直接销售,也通过其云服务提供)能够胜过 Nvidia 的硬件。
但 Cerebras 还没把这种所谓的性能优势转化成利润。根据向美国证券交易委员会提交的文件,该公司在 2024 年上半年净亏损 6660 万美元。而去年,Cerebras 报告称,营收 7870 万美元,净亏损 1.272 亿美元。
据彭博社报道,Cerebras 可能试图通过首次公开募股筹集多达 10 亿美元。
到目前为止,这家公司在风险投资中已经筹集了 7.15 亿美元,三年前其估值超过 40 亿美元。