📖 工具说明
在进行网页数据采集或接口调试时,手动将复杂的 cURL 命令还原为 Python 的请求字典既繁琐又容易出错。本工具提供了一键式的自动化转换,支持 Requests、HTTPX 及 Aiohttp 等主流库,让您在秒级时间内完成请求逻辑的迁移。
1. 核心应用场景
- 爬虫快速开发: 在浏览器开发者工具(F12)中“Copy as cURL”后,直接生成 Python 爬虫脚本,自动处理复杂的
User-Agent、Cookies 和 Headers。
- 接口协议分析: 通过生成的字典结构,清晰地观察 POST 请求中的
JSON 负载或 Form-data 参数。
- 自动化脚本编写: 将手动测试通过的请求一键转化为 Python 自动化测试用例,确保请求参数与浏览器环境完全一致。
- 反爬策略模拟: 完整保留 cURL 中的 TLS 指纹相关参数(如特定的 Header 顺序),提高模拟请求的成功率。
2. 核心功能解析
本站工具深度适配了 Python 开发者最常用的网络请求生态:
A. 支持多种主流方案 (Multi-Library Support)
- Requests (默认推荐): 生成最流行、易读性最强的同步请求代码。
- HTTPX: 为需要支持 HTTP/2 或同步/异步兼容的项目生成代码。
- Aiohttp: 为高并发异步爬虫开发者生成
async/await 风格的请求片段。
B. 智能参数映射逻辑
- 自动识别 Body 类型: 智能识别
--data-raw (JSON)、-d (表单) 和 --data-binary。如果是 JSON 数据,工具会自动引入 json 模块或使用 requests 的 json= 参数。
- Cookie 与 Header 分离: 自动将 cURL 中的 Cookie 字符串解析为独立的 Python 字典,方便后续进行 Cookie 维持。
- URL 参数自动拆解: 识别 URL 中的
? 查询参数并转化为 params 字典,使代码更整洁。
C. 100% 本地解析 (Zero-Upload Privacy)
- 绝对的数据隐私: 核心转换逻辑完全基于浏览器端 JavaScript 实现。您的 API 接口地址、身份验证令牌 (Auth Token)、Session 信息等敏感数据绝不上传服务器,所有操作均在您的设备内完成。
D. 代码规范与美化
- 生成的代码严格遵循 PEP 8 规范。
- 自动处理转义字符,确保生成的 Python 字符串在执行时不会报错。
3. 操作流程简述
- 复制 cURL 指令: 在浏览器(Chrome/Edge/Firefox)开发者工具的“网络”面板中,右键点击目标请求,选择 Copy -> Copy as cURL (bash/posix)。
- 粘贴代码: 将复制的内容粘贴到本站的“输入框”中。
- 实时生成: 点击“转换为 Python”,右侧输出区将立即显示对应的 Python 脚本。
- 一键复制: 点击输出区上方的“复制代码”按钮,直接粘贴到您的 Python 编辑器(如 VS Code 或 PyCharm)中。
4. 转换代码示例
原始 cURL 命令:
curl 'https://api.ebtool.com/search' -H 'Authorization: Bearer key123' --data-raw '{"query": "python"}'
生成的 Python 代码 (以 Requests 为例):
import requests
headers = {
'Authorization': 'Bearer key123',
'Content-Type': 'application/json',
}
json_data = {
'query': 'python',
}
response = requests.post('https://api.ebtool.com/search', headers=headers, json=json_data)
print(response.json())
5. 为什么选择本站在线 cURL 转 Python?
- 免安装,即开即用: 无需在 IDE 中安装任何复杂的转换插件,网页端满足所有需求。
- 毫秒级解析: 采用优化的语法解析引擎,即使是长达数千行的复杂请求也能瞬间处理。
- 纯净无广告: 专为工程师设计的简洁交互界面,拒绝干扰,专注于代码本身。
- 跨平台兼容: 无论您是在 Windows、macOS 还是 Linux 环境下工作,只需一个浏览器即可随时转换。