Photo by Pawel Czerwinski / Unsplash

AFL Weekly - 09/22/2023

AFL Weekly Sep 22, 2023
本周报基于主流 AI 搜索平台推荐、经 AFL 团队摘要和评论而生成。

AI 要闻和视角

  • 「谷歌官宣『Bard 应用市场能力』:Bard Extension」(原文:Bard can now connect to your Google apps and services;OSChina:Bard 更新:迄今为止最强大的模型、集成谷歌全家桶):Google 的下一个大杀器 Bard Extension 于 2023 年 9 月 19 日上线,把整个 Google 生态链接了起来:1)可以实时从 Google 地图、航班、酒店和 YouTube 获取信息;2)可以将自己的 Gmail / Google Docs / Google Drive 作为信息输入源;3)可以通过谷歌搜索评估 Bard 的回答是否靠谱。
  • 企业级聊天 AI 平台 Druid 融资 3 千万美元」(原文:Druid, a conversational AI platform for enterprises that integrates with ChatGPT, raises $30M):欧洲人工智能初创公司 Druid 今天宣布,它已在 B 轮融资中筹集到 3000 万美元,并希望在美国实现双倍增长。Druid 于 2018 年在罗马尼亚成立,其「对话式商业应用」既依赖于传统的对话式人工智能模型,也依赖于 ChatGPT 提供的新兴生成式人工智能。
  • AI 网络芯片公司 Enfabrica 获得 1.25 亿美元投资」(原文:Enfabrica, which builds networking hardware to drive AI workloads, raises $125M):联合创始人兼首席执行官 Rochan Sankar 表示,Enfabrica 公司今天宣布在 B 轮融资中筹集了 1.25 亿美元,其估值是 A 轮融资后估值的「五倍」。
  • 以色列基于 GPU 的大数据分析公司 SQream 获得 4500 万美元投资。」(原文:SQream calls in $45M to expand its GPU-based big data analytics platform):该公司的重点是半导体、制造、电信、金融服务和医疗保健等垂直领域的企业细分市场,已披露的客户包括移动运营商 Orange、三星、LG、阿里巴巴和 PubMatic 等。该公司计划利用这笔资金继续加倍努力,尤其是在北美地区。这家初创公司的名字源于其最初的关注点: Gal 与 Razi Shoshani(首席技术官)和 Kostya Varakin(已不在公司)一起创办了这家公司,最初的想法是专注于 SQL 数据库分析,这在当时本身就是一个很大的市场;而借助 Nvidia 基于 GPU 的并行处理技术的想法,则源于他们三人都非常喜欢游戏,并看到了 GPU 在当时的潜力,可以为商业智能、机器学习和其他任何用途创建更快、更高效的数据查询。
  • 头像图片生成工具 Charater.ai 用户数量直追 ChatGPT」(原文:AI app Character.ai is catching up to ChatGPT in the US
  • Patronus AI:用 AI 评测 AI/LLM 并确保其安全准确」(原文:Patronus AI conjures up an LLM evaluation tool for regulated industries):该公司以托管服务的形式建立了一个安全和分析框架,用于测试大型语言模型,以识别可能存在问题的领域,尤其是出现幻觉的可能性,在幻觉中,模型由于缺乏正确回答的数据而编造了一个答案。「在我们的产品中,我们真正寻求的是实现全流程和模型评估的自动化和规模化,以便在发现问题时提醒用户。」
  • Adobe 公司开始向训练 AI 素材库的创作者支付酬金」(原文:Adobe starts paying bonuses to Stock contributors whose content is being used to train Firefly):Adobe 的 Firefly 人工智能生成模型已普遍可用。一直以来,Firefly 在众多图像生成模型中脱颖而出的一个特点是,该公司只对公共领域的内容或通过其图片库服务 Adobe Stock 拥有版权的内容进行训练。

AI 实战和拆解

AI 学术和代码

  • 使用 Next.js 13、React、Tailwind、Prisma、Stripe 构建 SaaS 人工智能伴侣 | 完整教程 2023」(原文和示例代码:Build a SaaS AI Companion with Next.js 13, React, Tailwind, Prisma, Stripe | Full Tutorial 2023
  • 9 项人工智能发展: 从 HeyGen 2.0 到 AjaxGPT、从 Open Interpreter 到 NExT-GPT 和 Roblox AI」(油管视频:9 AI Developments: HeyGen 2.0 to AjaxGPT, Open Interpreter to NExT-GPT and Roblox AI
  • QLoRA:量化 LLM 的高效微调」(原文:QLoRA: Efficient Finetuning of Quantized LLMs):该代码 repo 支持「QLoRA:量化 LLM 的高效微调」(QLoRA: Efficient Finetuning of Quantized LLMs)这篇论文,该论文旨在实现 LLM 研究的普及化。QLoRA 使用 bitsandbytes 进行量化,并与 Hugging Face 的 PEFT 和 transformers 库集成。QLoRA 由华盛顿大学 UW NLP 小组成员开发。摘要:我们提出的 QLoRA 是一种高效的微调方法,它能减少内存使用量,足以在单个 48GB GPU 上对 65B 参数模型进行微调,同时保持完整的 16 位微调任务性能。QLoRA 通过将冻结的 4 位量化预训练语言模型的梯度反向传播到低秩适配器(LoRA)中。

「你只能用独有的知识换取回报,而不是你付出的努力。你付出努力是为了获得独有的知识。」– Naval
"You get rewarded for unique knowledge, not for effort.  Effort is required to create unique knowledge."  – Naval

Tags

Chance Jiang

Editor and Director of AI Futures Lab