Web LLM:将语言模型聊天直接带到 Web 浏览器中


陈天奇团队新发布了一个可将大型语言模型和基于 LLM 的聊天机器人引入 Web 浏览器的项目 —— Web LLM。“一切都在浏览器内运行,无需服务器支持,并使用 WebGPU 加速。这开辟了许多有趣的机会,可以为每个人构建 AI 助手,并在享受 GPU 加速的同时实现隐私。

查看演示网页以进行试用

生成式 AI 和 LLM 方面最近的发展如火如荼,LLaMA、Alpaca、Vicuna 和 Dolly 等相继开源。但这些模型通常很大且计算量很大。要构建聊天服务的话,需要一个大型集群来运行推理服务器,同时客户端向服务器发送请求并检索推理输出,且通常还必须在特定类型的 GPU 上运行。

因此,Web LLM 项目的推出,是“为生态系统带来更多多样性的一步”。具体来说,通过实现将 LLM 直接 bake 到客户端并直接在浏览器中运行,可以为客户个人 AI 模型提供支持,从而降低成本、增强个性化和保护隐私。“如果我们可以简单地打开一个浏览器并直接将 AI 原生地带到你的浏览器选项卡,这不是更令人惊奇吗?生态系统中有一定程度的准备。这个项目为这个问题提供了肯定的答案。

Web LLM 中采用的关键技术是机器学习编译(MLC)。该解决方案建立在开源生态系统的基础上,包括 Hugging Face、来自 LLaMA 和 Vicuna 的模型变体、wasm 和 WebGPU;主要流程则建立在 Apache TVM Unity 之上。

目前,WebGPU 已经发布到 Chrome 并且处于测试阶段,开发团队在 Chrome Canary 中进行了实验。用户也可以试用最新的 Chrome 113,但不支持 Chrome 版本 ≤ 112。Windows 和 Mac 上也已进行了相关的测试,运行的前提条件是一个 6.4G 内存的 GPU。

根据介绍,WebGPU 支持多个后端,除了 Apple Silicon 上的 Metal 之外,它还可以 offloads 到 Vulkan、DirectX 等;这意味着支持 Vulkan 的 Windows 笔记本电脑应该也可以使用。“我配备 AMDGPU 的 2019 年英特尔 MacBook 也能正常工作。当然,还有 NVIDIA GPU!我们的模型是 int4 量化的,大小是 4G,所以也不需要 64GB 的内存。6G 左右的地方应该就足够了。”

不过,Web LLM 团队也坦承该项目还有许多障碍需要跨越,包括在人工智能框架方面摆脱对硬件供应商维护的优化计算库的严重依赖、仔细规划内存使用并压缩权重等。我们也不想只为一个模型做这件事。相反,我们想提供一个可重复和可破解的工作流程,使任何人都能够以高效的 Python 优先方法轻松开发和优化这些模型,并普遍部署它们,包括在 Web 上。

除了支持 WebGPU,该项目还为 TVM 支持的其他类型的 GPU 后端(如 CUDA、OpenCL 和 Vulkan)提供了线束。

更多详情可查看官方公告。


相關推薦

2024-01-16

基于CSGHub,用户可以通过Web界面、Git命令行或者自然语言Chatbot等方式,实现对模型文件、数据集、代码等资产的操作,包括上传、下载、存储、校验和分发; 2.同时平台提供微服务子模块和标准化API,便于用户与自有系统

2023-08-04

家合作,最新发布了 Top 10 for LLM 的 1.0 版本,专门针对大语言模型(LLM)应用相关风险。旨在为开发人员、数据科学家和安全专家提供实用、可操作和简明的安全指南,帮助他们驾驭复杂多变的 LLM 安全领域。 “急于利用 LLM 潜

2023-10-26

学习成本为 JavaScript 开发人员带来非凡的功能。你可以在浏览器、带有 WebGL 加速功能的纯 JavaScript 栈或服务器上的 tfjs-node 库中运行 TensorFlow.js。Node 库为你提供了相同的 JavaScript API,但运行于 C 二进制程序之上,可最大限度地

2023-07-10

系统配置存放至Redis 新增指令【在线问答】,提供LLM模型联网知识问答的能力

2023-09-27

b 上已经获得了 4.9K 个 Star 。 AIdea 是一款集成了主流大语言模型以及绘图模型的 APP , 采用 Flutter + Golang 开发,代码完全开源,支持以下功能: OpenAI 的 GPT-3.5 ,GPT-4 大语言模型 Anthropic 的 Claude instant ,Claude 2.0 大语言模

2023-03-18

微软宣布推出 Microsoft 365 Copilot,将大型语言模型 (LLM)(包括 Open AI 的 GPT-4)集成到 Microsoft 365 应用程序中。  微软董事长兼首席执行官 Satya Nadella 表示:“今天标志着我们与计算交互方式的演变迈出了重要的一步,这将

2023-07-27

过了五成。 对此,马斯克直言 Stack Overflow 已被 LLM(大语言模型)“杀死”。 在另一份关于 Stack Overflow 的数据图表中,分析师指出“用户花在 Stack Overflow 上的时间比去年同期下降了 40%,比此前网站峰值期下降了约 2 亿小时

2023-11-10

爆料者 Tech_Reve 发表推文表示,苹果公司正在使用大语言模型 (LLM) 将 Siri 彻底改造成“终极虚拟助理”,并准备将其开发为“最强大的杀手级 AI 应用”。 目前苹果正在积极推进这项开发工作,首款产品预计将在 WWDC 2024 上亮相

2023-09-06

AIdea 是一款集成了主流大语言模型以及绘图模型的 APP, 采用 Flutter 开发,代码完全开源,支持以下功能: 支持 GPT-3.5/4 问答聊天 支持国产模型:通义千问,文心一言 支持文生图、图生图、超分辨率、黑白图片上色等功能

2023-07-22

进行索引,结合LLM的能力,回复用户的各种运维问题 LLM聊天:当问题超出OpsPilot能够处理的范围的时候,使用LLM的能力解决各种长尾问题 0.4 版本更新内容 [新增]Word文档索引能力 [新增]PPT文档索引能力 [新增]企业微信

2023-11-16

性等方面的基本挑战。 .NET 8 还支持将 OpenAI 的 GPT 等大语言模型 (LLM) 直接集成到 .NET 应用程序中。 开发者可通过 Blazor 使用单个强大的组件模型来处理所有 Web UI 需求,使用 .NET MAUI 将移动应用程序部署到最新版本的 iOS 和 A

2023-08-10

进行索引,结合LLM的能力,回复用户的各种运维问题 LLM聊天:当问题超出OpsPilot能够处理的范围的时候,使用LLM的能力解决各种长尾问题 0.5版本 * [新增]Redis故障处置引导模式 * [新增]支持将蓝鲸CMDB的数据映射至Neo4J,并使

2023-05-16

程,不断提高其性能。   Dify 方面表示,其将以大语言模型的快速进步和社区反馈为动力,不断提升产品体验和能力边界,完善 Ops(持续运营)端平台功能。并长期规划以下产品功能: 插件能力。将插件纳入 App 编排

2023-08-17

织希望利用生成式人工智能的力量,而不需要构建自己的模型或对现有模型进行微调。此外,他们对于是否与商业 LLM 分享其专有数据犹豫不决。这就是 Redis Enterprise 的用武之地。作为矢量数据库,它提供强大的混合语义搜索功