AI 六月 29, 2025

用 TEI 部署向量嵌入和重排模型,并在 Dify 中使用

文章字数 21k 阅读约需 19 mins.

TEI(Text Embeddings Inference)是 Hugging Face 提供的一个服务框架,用于部署和运行文本嵌入模型,以及序列分类模型(重排模型)。它支持多种模型格式,性能优异,并...

查看全文

AI 六月 22, 2025

Ilya Rice: How I Won the Enterprise RAG Challenge

文章字数 53k 阅读约需 48 mins.

https://abdullin.com/ilya/how-to-build-best-rag/

In this guest blog post Ilya Rice describes the approach that helped him build the best RAG and win in the Enterprise RAG Challenge. He took first place in both prize categories and on SotA leaderboard...

查看全文

AI 五月 25, 2025

基于对话补全接口的问答能力评估

文章字数 9k 阅读约需 8 mins.

LLM Evaluator 是一个跨平台的命令行工具,旨在帮助用户评估基于兼容 OpenAI API 对话补全接口的大语言模型(或智能体、RAG 流程)对于有标准答案的问题的回答能力。

基本工作流程为:

  1. llm-evaluator 通过配置文件读取待评估的问题及标准答案,评估标准可选,默认为本质含义一致,可设置为 = 表示必须与标准答案完全一致;
  2. 调用候选模型对话补全接口,获得候选模型对待评估问题的回答;
  3. 使用评估提示词组装问题、标准答案和候选模型回答的内容,交由评估模型对回答进行评估;
  4. 评...
查看全文

AI 五月 11, 2025

一些短期免费调用 DeepSeek-V3-0324 等模型 API 的方法

文章字数 17k 阅读约需 15 mins.

有哪些可以短期免费调用 DeepSeek-V3-0324 等模型 API 的方法?

https://huggingface.co/deepseek-ai/DeepSeek-V3-0324?inference_api=true&inference_provider=sambanova&language=sh

https://huggingface.co/settings/tokens

curl https://router.huggingface.co/sambanova/v1/chat...
查看全文

GO 三月 09, 2025

Chat with LLMs

文章字数 11k 阅读约需 10 mins.

  • Releases 页面下载对应平台的二进制文件。
  • 生成配置文件模板
      ./chat-llms -t 
  • 去掉模板文件 _template 后缀,配置多模型信息、对话内容,如有需要还可配置系统提示词。
    models_config.yaml
      模型1_ID:
      endpoint: https://api.openai.com
      api-key: sk-xxxxxxxx
      model: text-davinci-003
      temperatures:
          - 0.5
          - 0.7
          - 0.9
      enabled: true...
查看全文

AI 二月 16, 2025

可本地部署使用的大模型显存资源估算工具

文章字数 3.5k 阅读约需 3 mins.

🤗 Model Memory Calculator🤗 Accelerate 库提供的一个模型显存计算工具,可估算模型训练或推理时所需的显存大小。

但目前该在线工具无法正常使用,即使使用默认的模型名称,也会报在 Hub 中无法找到该模型:

在该 space 的 discussions 中也有不少人遇到了此问题。

本文提供一种本地化部署运行此工具的方法,还可通过指定 HF_ENDPOINT 避免无法访问 Hugging Face 的问题。

直接部署 https://huggingface.co...

查看全文

AI 十二月 22, 2024

用 vLLM 在多节点多卡上部署 Qwen2.5 以及进行推理

文章字数 14k 阅读约需 13 mins.

本文记录了在两台机器,每台机器一块 Tesla T4 显卡的环境下,使用 vLLM 部署 Qwen2.5-32B-Instruct-GPTQ-Int4 模型的过程及遇到的问题,供类似环境使用 vLLM 进行多节点多卡推理参考。

  1. Qwen2.5-32B-Instruct-GPTQ-Int4vLLM
  2. docker v27.4.0nvidia-container-toolkit v1.17.3
  3. Tesla T4 显卡驱动 v550.127.08 CUDA12.4
# qwen
$ git clone...
查看全文

AI 十二月 01, 2024

用 Spring AI 调用 OpenAI 对话接口

文章字数 7.3k 阅读约需 7 mins.

使用 Spring AI 需要 JDK 17 及以上版本。

$ java -version
openjdk version "17.0.2" 2022-01-18
OpenJDK Runtime Environment (build 17.0.2+8-86)
OpenJDK 64-Bit Server VM (build 17.0.2+8-86, mixed mode, sharing)

https://start.spring.io/ 下载一个包含 Spring Web...

查看全文

AI 十一月 24, 2024

ARM 环境中部署 Dify

文章字数 26k 阅读约需 24 mins.

将下面内容保存为 arm-images.yaml,执行 docker compose -f arm-images.yaml pull 拉取所需镜像:

services:
  # The nginx reverse proxy.
  # used for reverse proxying the API service and Web service.
  nginx:
    image: nginx:1.27.2
    platform: arm64

  # API service
  api:
    image: langgenius...
查看全文

AI 九月 15, 2024

使用 Arthur Bench 评估本地领域模型

文章字数 11k 阅读约需 10 mins.

Arthur Bench 是一个评估大模型的开源工具。

使用 Arthur Bench 评估 LLM,需编写少量代码,即测试套件(TestSuite),在套件中选择内置评分方法(也可自定义评分方法),对 LLM 的相应内容进行评估打分。

内置的评分方法 分为四类:

  1. 基于提示词评分,如问答正确性(qa_correctness)、摘要质量(summary_quality)、是否存在幻觉(hallucination);
  2. 基于 Embedding 评分,如(bertscore)、(hedging_language...
查看全文
加载更多
0%