2.0 KiB
2.0 KiB
Markdown 处理工具
这是一个用于处理 Markdown 文件的工具,它可以根据一级标题将文件内容分块,然后使用大型语言模型(LLM)处理每个块,最后将处理后的结果合并生成新的 Markdown 文件。
功能特点
- 读取 Markdown 文件
- 根据一级标题(#)对文件内容进行切分
- 确保每个块的长度小于指定的最大长度
- 使用 LM-Studio 的 OpenAI 兼容接口处理每个块
- 合并处理后的结果生成新的 Markdown 文件
安装要求
- Python 3.6+
- OpenAI Python 库
- LM-Studio(用于本地运行大语言模型)
安装依赖
pip install openai
使用方法
-
确保 LM-Studio 已启动并运行在默认端口(http://localhost:1234)
-
运行脚本处理 Markdown 文件:
python markdown_processor.py input.md output.md
命令行参数
input_file
:输入的 Markdown 文件路径(必需)output_file
:输出的 Markdown 文件路径(必需)--max_length
:每个块的最大长度,默认为 4000--model
:使用的 LLM 模型名称,默认为 'gpt-3.5-turbo'--api_base
:API 基础 URL,默认为 'http://localhost:1234/v1'
示例
# 基本用法
python markdown_processor.py my_document.md processed_document.md
# 指定最大块长度
python markdown_processor.py my_document.md processed_document.md --max_length 2000
# 指定不同的模型和API地址
python markdown_processor.py my_document.md processed_document.md --model llama3 --api_base http://localhost:8000/v1
工作原理
- 读取指定的 Markdown 文件
- 根据一级标题(#)将内容分块,确保每个块小于指定的最大长度
- 使用 LM-Studio 的 OpenAI 兼容接口处理每个块
- 将处理后的块合并生成新的 Markdown 文件
- 保存结果到指定的输出文件
注意事项
- 确保 LM-Studio 已经启动并正在运行
- 如果没有一级标题,整个内容将作为一个块处理
- 如果单个块超过最大长度,将进一步分割