微语 0.3.1 发布 - 基于大模型 LLM && RAG 的智能客服


对话即服务,Chat as a Service

语言

  • English
  • 中文

介绍

智能客服

  • 基于大模型 LLM && RAG 的智能客服

AI 助手

  • 更适合团队使用,一人配置,多人使用。完美权限控制,即可私用,也可公用

在线客服:跟客户聊

  • 支持多渠道:
    • 平台渠道:Web/H5/React/Android/iOS/Uniapp/Flutter、
    • 社交渠道:微信公众号 / 小程序 / 企业微信 / 小红书 / 抖音 / 快手 / 百度 / 微博 / 知乎、
    • 电商渠道:淘宝 / 天猫 / 京东 / 千牛 / 抖店
    • 海外渠道:Facebook/Instagram//Whatsapp/Line
  • 多种路由策略、
  • 详细考核指标
  • 坐席工作台、
  • 工单系统、
  • 坐席管理、
  • 数据看板、
  • 人工知识库、
  • 技能组管理、
  • 实时监控、
  • 公告、
  • 敏感词、
  • CRM、
  • 报表功能,
  • 为客户提供一体化客服工作台服务

社交 IM:跟好友聊

  • 好友、
  • 群组、

企业 IM:跟同事聊

  • 多层组织架构、
  • 角色管理
  • 权限管理
  • 聊天记录管理

快速开始

# 注意: 此开源版本处于早期阶段,许多功能尚未完善或测试未完成,文档尚待完善,请勿在生产环境使用
git clone https://github.com/Bytedesk/bytedesk.git
# 配置文件: bytedesk/starter/src/main/resources/application-dev.properties
# use maven && vscode
cd bytedesk
mvn install -Dmaven.test.skip=true
# 项目使用了protobuf,可能需要安装 protobuf 编译工具
# 
cd bytedesk/starter
mvn spring-boot:run
# 打包jar并运行:
cd bytedesk/starter
mvn package -Dmaven.test.skip=true
java -jar bytedesk-starter-0.2.3-BYTEDESK.jar
# 后台运行
nohup java -jar bytedesk-starter-0.2.3-BYTEDESK.jar
# 
# 本地预览
开发者入口: http://127.0.0.1:9003/dev
web: http://127.0.0.1:9003/
管理后台: http://127.0.0.1:9003/admin, 用户名: admin@email.com, 密码: admin
客服端: http://127.0.0.1:9003/agent, 用户名: admin@email.com, 密码: admin
访客: http://127.0.0.1:9003/chat?t=0&sid=default_agent_uid&
api文档: http://127.0.0.1:9003/swagger-ui/index.html
actuator: http://127.0.0.1:9003/actuator
h2数据库: http://127.0.0.1:9003/h2-console, 路径: ./h2db/weiyuim, 用户名: sa, 密码: sa
 

文档

  • 文档

预览

管理后台

组织 客服 ai

桌面客户端

登录 对话 通讯录 设置
客服 - AI 助手 客服 - 常用语 客服 - 访客信息

Web Chat

自定义按钮颜色 按钮放在窗口左下角 自定义按钮边距 自定义聊天窗口边距
自定义聊天窗口宽度 全屏聊天窗口 iframe 聊天窗口 嵌入式聊天窗口

对话 SDK

  • iOS-oc
  • iOS-swift
  • Android
  • Flutter
  • Vue
  • React
  • React-native
  • UniApp
  • Web
  • Browser-Extension
  • Vscode-plugin

客户端

  • Windows
  • Mac
  • Linux
  • Android
  • IOS

技术栈 - 基于金融级云原生架构

  • sofaboot-4.2.0 (springboot-3.2.2) jdk17/maven/h2/mysql8.0/postgresql/oracle (jpa 支持的所有数据库) for 后端
  • python-3.10 for AI 助手
  • react-18.2.0 for web 前端
  • react-native-0.73.4 for 移动客户端 (ios&android)
  • electron-29.1.1 for 桌面客户端 (windows&mac&linux)

相關推薦

2024-08-22

微语 对话即服务,Chat as a Service 语言 English 中文 介绍 智能客服 基于大模型 LLM && RAG 的智能客服 AI助手 更适合团队使用,一人配置,多人使用。完美权限控制,即可私用,也可公用 在线客服:跟客户

2024-08-07

微语 对话即服务,Chat as a Service 语言 English 中文 介绍 智能客服 基于大模型 LLM && RAG 的智能客服 AI助手 更适合团队使用,一人配置,多人使用。完美权限控制,即可私用,也可公用 在线客服:跟客户

2024-07-06

对话即服务,Chat as a Service 语言 English 中文 介绍 智能客服 基于大模型 LLM && RAG 的智能客服 AI助手 更适合团队使用,一人配置,多人使用。完美权限控制,即可私用,也可公用 在线客服:跟客户聊

2024-10-01

不仅仅是一款 企业IM 语言 English 中文 介绍 智能客服 基于大模型 LLM && RAG 的智能客服 支持Ollama 智谱AI AI助手 更适合团队使用,一人配置,多人使用。完美权限控制,即可私用,也可公用 在线客

2024-10-09

不仅仅是一款 企业IM 语言 English 中文 介绍 智能客服 基于大模型 LLM && RAG 的智能客服 支持Ollama 智谱AI AI助手 更适合团队使用,一人配置,多人使用。完美权限控制,即可私用,也可公用 在线客

2024-10-15

不仅仅是一款 企业IM 语言 English 中文 介绍 智能客服 基于大模型 LLM && RAG 的智能客服 支持Ollama 智谱AI AI助手 更适合团队使用,一人配置,多人使用。完美权限控制,即可私用,也可公用 在线客

2024-08-02

依赖于预训练模型和外部知识库的即时查询。它擅长回答基于知识的特定问题,但缺乏对用户上下文和历史的深层理解。 Mem0 则引入了多层次的记忆存储机制,不仅能够记住用户的特定偏好和历史对话,还可以存储并调用更复

2024-03-31

企业IM + 在线客服 + AI助手,打造开源版企业微信/钉钉/飞书 基于AI的企业IM和在线客服系统 English 中文 介绍 企业IM 在线客服 大模型AI助手 技术栈 springboot-3.2.0 for 后端 react-18.2.0 for web前端 reac

2024-05-07

升级内容: 1. 更新数据库结构 2. 完善管理后台部门、角色、权限 语言 English 中文 介绍 企业即时通讯/IM 在线客服 大模型AI助手 局域网文件传输,类似airdrop 技术栈 springboot-3.2.0 jdk17/maven/mysql8.0 or postgresql&nb

2024-05-16

基于AI的开源企业IM和在线客服系统。 语言 English 中文 介绍 企业即时通讯/IM 多层组织架构、 角色管理 权限管理 聊天记录管理 在线客服 支持多渠道、多种路由策略、详细考核指标 坐席工作台、 工单系

2024-09-30

,致力于成为企业的最强大脑。 MaxKB开源项目自2024年3月发布至今在开源社区表现出了卓越的成长性。目前,MaxKB已经在代码托管平台GitHub上获得超过10,000个Star和超过1,300次Fork,全网累计下载数量超过200,000次,项目正在被广泛

2024-07-05

微软开源了基于图的 RAG 工具 GraphRAG,可以在私有或以前未见过的数据集上进行问题解答。 GraphRAG 通过创建知识图谱来增强模型的推理和生成性能,使用 LLM GPT-4 对 GraphRAG 和传统 RAG 进行评估, GraphRAG 在全面性和多样性方

2023-12-02

12月1日,昆仑万维正式发布「天工SkyAgents」平台,助力大模型走入千家万户。「天工SkyAgents」是国内领先的AI Agents开发平台,基于昆仑万维「天工大模型」打造,具备从感知到决策,从决策到执行的自主学习和独立思考能力。用

2024-08-01

(12 个开源 LLM 和 10 个专有 LLM)领先的生成式 AI 大语言模型性能进行了比较排名。 Hallucination Index 使用 Galileo 专有的评估指标“context adherence”对开源和闭源模型进行了测试。测试模型的输入量从 1,000 到 100,000 token 不等,