当前位置: 首页 > article >正文

WPS的AI助手进化跟踪(灵犀+插件)

Ver

V0.0 250216: 如何给WPS安装插件用以支持其他大模型LLM

V0.1 250217: WPS的灵犀AI现在是DeepSeek R1(可能是全参数671B)

前言

    WPS也有内置的AI,叫灵犀,之前应是自已的LLM模型,只能说是属于“能用,有好过无”,所以我一直在找能否在WPS上用上其他的LLM大语言模型,比如目前最火的DeepSeek,结论是:安装OfficeAI助手,就能在WPS上用上其他的LLM了。
    2025-2-17号,发现WPS灵犀AI的底座LLM已明确显示是DS R1了。

Index

OfficeAI助手 - 免费办公智能AI助手, AI写作

OfficeAI助手插件(主要是下载、安装、设置)

1、下载、安装(自动安装VC库时有点慢)

OfficeAI助手 - 免费办公智能AI助手, AI写作   (在这里下载)

软件版本: v0.3.15

软件大小: 32MB

软件授权: 免费

支持语言: 中文/英文

更新时间: 2025-2-14

系统平台: Windows/Office/WPS

2、设置WPS信任第三方COM加载项才能在WPS中使用

默认情况下wps会阻止加载第三方插件,解决方法:

  1. 运行WPS,打开或新建任意文档;
  2. 左上找到文件菜单->选项,在选项页面中找到信任中心 :
  3. 勾上”受信任的加载项”(如没找到下图的选项,请将wps更新一下)
  4. 点“确定“保存对应设置,重开一般会显示。如还是未显示,重装一下插件。
  5. 重启WPS后出现"OfficeAI"
  6. 在WPS右侧需要用微信扫码后使用

3、设置使用的LLM大模型

(1)LLM默认是豆包的lite-32K(默认支持:豆包、百度、ChatGLM、通义)

     从综合应用来说,这里推荐使用豆包的:doubao-pro-32K,Doubao-pro-32K 是一款兼顾性能与成本的中长文本处理模型,32K属于中等偏长的上下文长度,平衡了性能与成本。若需更高性价比或超长上下文支持,可结合 Doubao-lite 或 Doubao-pro-128k 使用。

注:这里的32K的解释
    指模型的上下文窗口(context window)为32,000 tokens(支持 32K 上下文窗口(约
3.2 万汉字),适合处理长文本推理和交互)。这一指标决定了模型单次处理文本的长度上限。32K的上下文能力允许模型处理更长的对话、文档或代码(例如分析长文章、撰写报告、调试复杂代码等),适合需要长文本记忆的场景。下表是一个直观的模型类型映射到场景的说明:

模型类型特点适用场景
Doubao-lite响应速度更快,成本更低(输入 0.3 元/百万 tokens)实时交互、简单任务
Doubao-pro-128k支持 128K 上下文(约 12.8 万汉字),适合超长文本分析法律文档、论文研读
Doubao-vision多模态模型,擅长图文理解图像描述、视觉问答

(2)使用DeepSeek

下面是我使用官网的KEY,模型用的是R1。

4、使用

OfficeAI助手简介 | OfficeAI助手  (在线使用手册)

附录1:灵犀的底座模型的介绍(DS R)

附录2:deepseek-chat和deepseek-reasoner的区别和使用场景

    deepseek-chat 和 deepseek-reasoner 是 Deepseek 平台提供的两种不同功能的模型,其区别和使用场景如下:


1. 核心区别

模型功能定位技术特点
deepseek-chat通用对话与交互面向自然语言对话场景,擅长生成流畅、连贯的文本回复,支持多轮对话和日常交流。
deepseek-reasoner逻辑推理与复杂问题解决针对需要深度分析、逻辑推理的任务(如数学计算、代码调试、决策支持等),强调结构化思考和精准输出。

2. 使用场景对比

deepseek-chat
  • 适用场景

    • 客服机器人(自动回复、用户咨询)。

    • 日常闲聊、情感交流。

    • 内容生成(如文案撰写、故事创作)。

    • 简单信息查询(天气、新闻摘要等)。

  • 示例任务

    • 用户问:“推荐一部好看的电影。”

    • 生成营销文案:“为新产品写一段吸引人的广告语。”

deepseek-reasoner
  • 适用场景

    • 数学/物理问题求解(如方程推导、几何证明)。

    • 代码分析与调试(解释代码逻辑、修复错误)。

    • 科学计算与数据分析(如统计推断、数据建模)。

    • 复杂决策支持(基于规则或数据的策略建议)。

  • 示例任务

    • 用户问:“如何用 Python 实现快速排序算法?”

    • 解决数学题:“已知三角形三边长为 3、4、5,求其面积。”


3. 选择建议

  • 选择 deepseek-chat
    若任务以开放性对话、文本生成为主,无需深度逻辑分析,优先使用此模型。其响应更自然,适合交互性强的场景。

  • 选择 deepseek-reasoner
    若任务涉及结构化问题、数学/编程挑战或需要分步推理,则选择此模型。它更注重精准性和逻辑严谨性。


4. 技术配置差异

  • API_KEY 区分:两者的 API 密钥不同(如 deepseek-chat vs. i8e4eba839936),可能对应不同的服务端接口或计费策略。

  • 依赖组件:本地部署时可能需要安装不同的依赖库(如 reasoner 需数学计算库支持)。


总结

  • 对话优先选 Chat,推理优先选 Reasoner

  • 任务边界模糊(如既有对话又需推理),可尝试结合两者,或参考 Deepseek 官方文档的混合调用方案

  • 建议通过实际测试验证模型效果,或咨询平台技术支持以获取更详细的性能对比数据。


http://www.kler.cn/a/549548.html

相关文章:

  • 人工智能 - 大脑神经网络与机器神经网络的区别
  • Deepseek R1模型本地化部署与API实战指南:释放企业级AI生产力
  • 数据库系统原理——第十一章并发控制复习题
  • 网络安全:从攻击到防御的全景解析
  • img标签的title和alt
  • Python实现微博关键词爬虫
  • Linux 基于共享内存的循环队列实现
  • 服务器中部署大模型DeepSeek-R1 | 本地部署DeepSeek-R1大模型 | deepseek-r1部署详细教程
  • Rocky Linux 9.4 安装 VirtualBox 7.1
  • 数据库索引使用 B+树和Java TreeMap 使用红黑树的原因
  • 硬件学习笔记--44 电磁兼容试验-8 振铃波试验介绍
  • 26. 未来一瞥:量子计算
  • HCIA项目实践--静态路由的综合实验
  • 【故障处理】- RMAN-06593: platform name ‘Linux x86 64-bitElapsed: 00:00:00.00‘
  • JDK1.8新特性面试题
  • 使用 Python 爬虫和 FFmpeg 爬取 B 站高清视频
  • 【limit 1000000,10 加载很慢该怎么优化?】
  • FPGA之​​​​​​​​​​​​​​HRBANK与HOBANK有什么区别?
  • HTTP入门
  • Go语言的错误处理error