Python接口项目实战_从封装到调用完整流程【教程】

需封装带自动刷新token的requests会话,用Session子类拦截401、同步刷新、更新headers并重放请求;超时须设元组控制连接与读取;重试用指数退避;响应统一解析,提取data/code等字段并标准化错误信息。

Python接口项目不是写个 requests.get() 就算完事,真正上线的接口调用必须处理鉴权、重试、超时、错误分类、日志追踪和响应结构统一——否则一出问题就只能翻日志猜。

怎么封装一个带 token 自动刷新的 requests 会话

硬编码 headers={'Authorization': 'Bearer xxx'} 在请求里,token 过期后所有接口直接 401,没人手动去换。得让会话自己感知过期并刷新。

  • requests.Session() 子类,在 send() 方法里拦截 401 响应,触发 refresh_token()
  • refresh_token() 必须是同步阻塞调用(别用 asyncio),否则并发请求可能同时发起多次刷新
  • 刷新成功后,要更新会话级 headers['Authorization'],并重放原请求(注意只重放一次,避免死循环)
  • token 存储建议用线程局部变量 threading.local(),而不是全局变量,防止多线程污染

requests 超时设置为什么总被忽略

timeout=5 看似简单,但实际只控制「连接 + 响应头到达」时间,不包括下载大文件体的过程。线上遇到慢接口或返回 MB 级响应时,程序仍会卡住。

  • 必须拆成元组:timeout=(3.0, 10.0) —— 第一个数是 connect timeout,第二个是 read timeout
  • read timeout 要根据业务预期设:查缓存接口设 1s,导出报表接口可能得设 60s
  • 别在全局 requests.adapters.HTTPAdapter(pool_connections=10) 里漏设 max_retries,否则超时后不会自动重试
  • 重试策略建议用指数退避:urllib3.util.Retry(backoff_factor=0.3, status_forcelist=[429, 502, 503, 504])

怎么让所有接口响应都走同一套解析逻辑

不同接口返回字段名不一致(data / result / payload)、错误码嵌套层级不同(err.code vs error.code),硬写 if-else 会迅速失控。

  • 定义统一响应基类,用 @dataclass 或 Pydantic BaseModel 描述标准结构
  • 封装 call_api(method, url, **kw) 函数,在内部做三件事:发请求 → 检查 HTTP 状态码(非 2xx 抛 HTTPError)→ 用 response.json() 解析后,用预设规则提取业务数据字段
  • 提取规则可配置化:比如 data_key='data'code_key='code'success_code=0,不同接口传不同参数
  • 错误信息必须带原始 response.status_coderesponse.text[:200],否则排查时看不到真实返回体
def call_api(method, url, *, data_key='data', code_key='code', success_code=0, **kwargs):
    resp = session.request(method, url, **kwargs)
    if not (200 <= resp.status_code < 300):
        raise APIError(f"HTTP {resp.status_code}", resp)
    try:
        body = resp.json()
    except ValueError:
        raise APIError("Invalid JSON", resp)
    if body.get(code_key) != success_code:
        raise APIError(f"API error: {body.get(code_key)}", resp)
    return body.get(data_key, {})

最常被跳过的细节是:没对 response.content 做长度校验,上游返回空体或 HTML 错误页时,.json() 报错信息极难定位;还有就是把 timeout 写成单个数字,结果大文件下载永远卡死。