Перейти к основному содержимому

Deep Eval и Confident AI

Цены

链接

Бесплатное питание: достаточно

Стартовый пакет: 20 долларов США в месяц

image-20240415112030958

Быстрый старт

官方

最新版本

pip install -U deepeval

注册 Confident AI

Использование API Key

Посадка

deepeval login --api-key xxxx

Создание файла test_example.py

from deepeval import assert_test
from deepeval.test_case import LLMTestCase
from deepeval.metrics import AnswerRelevancyMetric

def test_answer_relevancy():
answer_relevancy_metric = AnswerRelevancyMetric(threshold=0.5)
test_case = LLMTestCase(
input="What if these shoes don't fit?",
# Replace this with the actual output of your LLM application
actual_output="We offer a 30-day full refund at no extra cost."
)
assert_test(test_case, [answer_relevancy_metric])

Имя файла должно начинаться с test_

Работа

deepeval test run test_example.py

Настройка папки для сохранения результатов

Настройка переменной среды

export DEEPEVAL_RESULTS_FOLDER="./deep-eval-results"

Параметры deeppeval test run

Параллельно

deepeval test run test_example.py -n 4

Кэширование

deepeval test run test_example.py -c

Повторение

deepeval test run test_example.py -r 2

крюки

...

@deepeval.on_test_run_end
def function_to_be_called_after_test_run():
print("Test finished!")

Основные концепции

官方文档

Test Case包含input/actual_output/retrieval_context
DatasetTest Case的集合
Golden相比 test case,少了 actual_output

Реальный тест-case

test_case = LLMTestCase(
input="Who is the current president of the United States of America?",
actual_output="Joe Biden",
retrieval_context=["Joe Biden serves as the current president of America."]
)

Оценка с помощью Pytest

from deepeval import assert_test
from deepeval.test_case import LLMTestCase
from deepeval.metrics import AnswerRelevancyMetric

dataset = EvaluationDataset(test_cases=[...])

@pytest.mark.parametrize(
"test_case",
dataset,
)
def test_customer_chatbot(test_case: LLMTestCase):
answer_relevancy_metric = AnswerRelevancyMetric()
assert_test(test_case, [answer_relevancy_metric])

@ pytest.mark.parametrize - это декоратор, предоставляемый Pytest.Это просто цикл оценки каждого тестового случая на основе «EvaluationDataset».

Использование без CLI

文档

# A hypothetical LLM application example
import chatbot
from deepeval import evaluate
from deepeval.metrics import HallucinationMetric
from deepeval.test_case import LLMTestCase

# ……
test_cases = [first_test_case, second_test_case]

metric = HallucinationMetric(threshold=0.7)
evaluate(test_cases, [metric])

Тестный пример

Стандартный тестовый случай

test_case = LLMTestCase(
input="What if these shoes don't fit?", #必选
expected_output="You're eligible for a 30 day refund at no extra cost.", #必选
actual_output="We offer a 30-day full refund at no extra cost.",

context=["All customers are eligible for a 30 day full refund at no extra cost."], # 参考值
retrieval_context=["Only shoes can be refunded."], # 实际检索结果

latency=10.0
)
  • «контекст» представляет собой идеальный результат поиска для данного входа, обычно из набора данных оценки,
  • фактические результаты поиска для приложения LLM retrieval_context.

Набор данных

Создание набора данных вручную и отправка в Confident AI

from deepeval.test_case import LLMTestCase
from deepeval.dataset import EvaluationDataset

# 原始数据
original_dataset = [
{
"input": "What are your operating hours?",
"actual_output": "...",
"context": [
"Our company operates from 10 AM to 6 PM, Monday to Friday.",
"We are closed on weekends and public holidays.",
"Our customer service is available 24/7.",
],
},
{
"input": "Do you offer free shipping?",
"actual_output": "...",
"expected_output": "Yes, we offer free shipping on orders over $50.",
},
{
"input": "What is your return policy?",
"actual_output": "...",
},
]

# 遍历,将生成 LLMTestCase 实例
test_cases = []
for datapoint in original_dataset:
input = datapoint.get("input", None)
actual_output = datapoint.get("actual_output", None)
expected_output = datapoint.get("expected_output", None)
context = datapoint.get("context", None)

test_case = LLMTestCase(
input=input,
actual_output=actual_output,
expected_output=expected_output,
context=context,
)
test_cases.append(test_case)

# 将 LLMTestCase 数组变成 EvaluationDataset
dataset = EvaluationDataset(test_cases=test_cases)

# 推送到Confident AI
dataset.push(alias="My Confident Dataset")

链接

Просмотреть результаты

image-20240415122342814

image-20240415122410879

在Confident AI的Web UI手动创建

поддержка китайского языка

Вручную изменить все запросы в / Users / xxx / anaconda3 / envs / LI311-b / lib / python3.11 / site-packages / deepeval / synthesizer / template.py, добавить

6. `Rewritten Input` should be in Chinse.

Metric

Размер оценки

评估指标描述
正确性和语义相似度生成的答案 与 参考答案 的对比
Context Relevancy查询 与 检索到的上下文 的相关性
Faithfulness生成的答案 与 检索到的上下文 的一致性
Answer Relevancy生成的答案 与 查询 的相关性

Уверенный AI