每周AI和NLP新闻——2024年6月第3周

每周AI和NLP新闻——2024年6月第3周

OpenAI的收入翻了一番,NVIDIA拥有数据中心GPU市场98%的收入份额,Mistral获得6.4亿美元的融资。

以下是NLPlanet为您选择的关于NLP和AI的每周文章、指南和新闻!

  • OpenAI年营收翻倍至34亿美元。OpenAI 2024年的预计收入为34亿美元,高于2023年的16亿美元,其中首席执行官Sam Altman表示,32亿美元来自核心人工智能产品/服务,2亿美元来自与微软Azure等合作伙伴关系。随着该公司在人工智能行业的不断发展,该公司的估值达到了860亿美元。(链接:https://finance.yahoo.com/news/openai-doubles-annualized-revenue-3-232851705.html
  • 微软Nadella正在打造一个人工智能帝国。OpenAI只是第一步。微软首席执行官Satya Nadella正在通过在全球范围内收购人工智能资产、培育专有人工智能技术,并可能将微软定位为OpenAI的竞争对手,来增强公司的人工智能能力。这种扩张包括投资人工智能初创公司和招聘行业专家。(链接:https://www.wsj.com/tech/ai/microsoft-nadella-openai-inflection-9727e77a
  • Nvidia在2023年出货了376万块数据中心GPU,以98%的收入份额占据主导地位。2023年,Nvidia通过分销376万台GPU,巩固了其在数据中心GPU市场98%的份额,自2020年以来,即使在美国出口限制和制造障碍的情况下,Nvidia的收入也实现了126%的惊人增长,达到609亿美元。(链接:https://www.tomshardware.com/tech-industry/nvidia-shipped-376m-data-center-gpus-in-2023-dominates-business-with-98-revenue-share
  • 总部位于巴黎的人工智能初创公司Mistral AI融资6.4亿美元。Mistral AI是一家总部位于巴黎的人工智能初创公司,创始人来自Meta和DeepMind,该公司在General Catalyst领投的B轮融资中获得6.4亿美元,估值达到60亿美元,专注于创造尖端人工智能技术,平衡开源和专有产品。(链接:https://techcrunch.com/2024/06/11/paris-based-ai-startup-mistral-ai-raises-640-million/
  • 苹果的WWDC24亮点。苹果公司在2024年的全球开发者大会上重点介绍了苹果智能,这是一个新的个人智能系统,利用生成模型和整个生态系统的个人环境集成,同时对iOS 18、iPadOS 18、macOS Sequoia、watchOS 11、tvOS 18和visionOS 2进行了重大更新。(链接:https://www.apple.com/newsroom/2024/06/wwdc24-highlights/
  • Luma Dream Machine。Lumalabs的Luma Dream Machine是一款人工智能模型,旨在从文本和图像中合成高质量、逼真的视频,利用针对视频内容优化的基于变压器的方法。(链接:https://lumalabs.ai/dream-machine
  • Musk希望禁止苹果向OpenAI靠拢。Elon Musk表示,出于安全考虑,苹果公司宣布在其操作系统中部署OpenAI的ChatGPT,作为回应,他打算禁止苹果设备进入他的公司。(链接:https://www.theregister.com/2024/06/11/musk_wants_to_ban_apple/
  • Claude’s Character。这篇文章探讨了“性格训练”,重点是在避免伤害的同时,给克劳德3模型灌输好奇心和开放思想等属性。它描述了一种训练策略,旨在通过灵活地调整人工智能行为与特定特征来协调人工智能的互动能力与道德规范。(链接:https://www.anthropic.com/research/claude-character
  • The Prompt Report:提示技巧的系统调查。“Prompt Report”全面分析了生成式人工智能中的提示方法,介绍了一个分类和统一的术语集,包含33个提示词汇条目。它详细介绍了58种基于文本的系统技术和40种用于非文本模式的技术,以标准化这个新兴领域的理解。(链接:https://arxiv.org/abs/2406.06608
  • Depth Anything V2。Depth Anything V2使用合成图像和更大的教师模型改进了单目深度估计,并使用伪标记的真实图像进行更好的泛化。它提供了明显更快和更准确的结果,模型尺寸在25M到1.3B参数之间变化。(链接:https://arxiv.org/abs/2406.09414
  • Samba:用于高效无限上下文语言建模的简单混合状态空间模型。Samba是一种新颖的语言模型体系结构,它将Mamba的选择性状态空间模型与滑动窗口注意合并在一起,以实现高效的长序列压缩和精确的内存召回。拥有38亿个可观的参数规模,Samba在处理无限上下文方面优于现有的语言模型。(链接:https://arxiv.org/abs/2406.07522
  • 自回归模型击败扩散:Llama可伸缩图像生成。LlamaGen是一种新颖的图像生成方法,它利用自回归模型,具有高效的标记器和类条件模型,用于生成高保真度的文本对齐图像。(链接:https://arxiv.org/abs/2406.06525)
  • 当线性注意遇到自回归解码:走向更有效和高效的线性化大型语言模型。本研究通过线性注意机制和推测解码的结合,展示了自回归llm的进步,从而显著提高了效率,包括减少了困惑,生成速度提高了2倍。(链接:https://arxiv.org/abs/2406.07368v1

感谢阅读!你还可以订阅我们的YouTube频道,观看大量大数据行业相关公开课:https://www.youtube.com/channel/UCa8NLpvi70mHVsW4J_x9OeQ;在LinkedIn上关注我们,扩展你的人际网络!https://www.linkedin.com/company/dataapplab/

原文作者:Fabio Chiusano
翻译作者:过儿
美工编辑:过儿
校对审稿:Jason
原文链接:https://medium.com/nlplanet/weekly-ai-and-nlp-news-june-17th-2024-b49b0c48fd33