Metadata-Version: 2.2
Name: llmrf
Version: 0.1.1
Summary: 轻量级的 LLM 响应格式化工具，支持标准响应和流式响应
Home-page: https://github.com/cchking/llmrf
Author: 满天翔
Author-email: 2722843861@qq.com
Classifier: Programming Language :: Python :: 3
Classifier: License :: OSI Approved :: MIT License
Classifier: Operating System :: OS Independent
Requires-Python: >=3.6
Description-Content-Type: text/markdown
Dynamic: author
Dynamic: author-email
Dynamic: classifier
Dynamic: description
Dynamic: description-content-type
Dynamic: home-page
Dynamic: requires-python
Dynamic: summary

好的，这是一个更详细的 `README.md`：

````markdown
# LLMRF (LLM Response Formatter)

一个简单的 LLM 响应格式化工具，可以将文本内容格式化为类似 OpenAI API 的响应格式。

## 功能特点

- 支持普通响应和流式响应格式
- 类 OpenAI API 的响应结构
- 简单易用的接口
- 支持自定义模型名称和其他参数

## 安装

```bash
pip install llmrf
```
````

## 基础使用

```python
from llmrf import RF

# 创建格式化器实例
rf = RF()

# 普通响应
response = rf.f_r("你好世界")
# 返回格式示例：
{
    "id": "chatcmpl-xxx",
    "object": "chat.completion",
    "created": 1709544000,
    "model": "gpt-3.5-turbo",
    "choices": [{
        "index": 0,
        "message": {
            "role": "assistant",
            "content": "你好世界"
        },
        "finish_reason": "stop"
    }],
    "usage": {
        "prompt_tokens": 3,
        "completion_tokens": 3,
        "total_tokens": 6
    }
}

# 流式响应
stream = rf.f_r("你好世界", stream=True)
# 返回格式示例：
data: {"id": null, "object": "chat.completion.chunk", ...}
data: [DONE]
```

## 高级用法

可以自定义模型名称和其他参数：

```python
response = rf.f_r(
    content="你好世界",
    stream=False,
    model="custom-model",
    id="custom-id"
)
```

## 参数说明

`rf.f_r()` 方法支持以下参数：

- `content`: (必需) 要格式化的文本内容
- `stream`: (可选) 布尔值，是否使用流式响应格式，默认 False
- `model`: (可选) 模型名称，默认 "gpt-3.5-turbo"
- `id`: (可选) 响应 ID，默认自动生成
- `created`: (可选) 创建时间戳，默认当前时间

## 开源协议

MIT License

## 问题反馈

如果您发现任何问题或有改进建议，欢迎在 [GitHub](https://github.com/cchking/llmrf) 上提交 issue。
