当前位置: 首页 > article >正文

docker-compose Install m3e(fastgpt扩展) GPU模式

M3E 前言

  • M3E 是 Moka Massive Mixed Embedding 的缩写,参考

  • Moka,此模型由 MokaAI 训练,开源和评测,训练脚本使用 uniem ,评测 BenchMark 使用 MTEB-zh
  • Massive,此模型通过千万级 (2200w+) 的中文句对数据集进行训练
  • Mixed,此模型支持中英双语的同质文本相似度计算,异质文本检索等功能,未来还会支持代码检索
  • Embedding,此模型是文本嵌入模型,可以将自然语言转换成稠密的向量
  • m3e-sm

http://www.kler.cn/a/581287.html

相关文章:

  • 跨公网 NAT 配置方案:实现高效网络通信与安全访问
  • 关于在vue3中使用keep-live+component标签组合,实现对指定某些组件进行缓存或不缓存的问题
  • 【软考-架构】2.3、设备管理-文件管理
  • flinkOracleCdc任务报错kafkaConnectSchema
  • 基于 Simulink 的超级储能参与电网一次调频仿真研究
  • 怎么删除百度搜索下拉框里的搜索引导词
  • KTH31XX 系列_比例式线性霍尔效应传感器,模拟电压输出
  • Go Ebiten小游戏开发:俄罗斯方块
  • Pytorch系列教程:可视化Pytorch模型训练过程
  • SpringBoot日常:集成shareingsphere-jdbc
  • 【网络协议详解】——QOS技术(学习笔记)
  • 哪些业务场景更适合用MongoDB?何时比MySQL/PostgreSQL好用?
  • FastAPI 分页模块实现详解
  • 数据的划分、性能指标和评估方法
  • 《使用 Python Flask + MySQL + ECharts 构建销售数据看板》实战案例笔记
  • CAN总线协议攻防实战:从漏洞分析到攻击模拟
  • windows一个进程的内存被其他进程踩坏原因
  • Spring Boot 接口延迟响应的实现与应用场景
  • 悖论的背后:从蚂蚁到宇宙的故事-续集
  • 14.onlineoj项目总结(C++)