百独托管7500 紫田网络超高转化播放器收cps[推荐]速盾CDN 免实名免备防屏蔽阿里云 爆款特卖9.9元封顶提升alexa、IP流量7Q5团队
【腾讯云】中小企福利专场【腾讯云】多款产品1折起高防 随时退换 好耶数据小飞国外网赚带你月入万元炎黄网络4H4G10M 99每月
香港带宽CN2/美国站群优惠中客数据中心 服务器租用联盟系统移动广告平台 中易企业专场腾讯云服务器2.5折九九数据 工信部正规资质
腾讯云新用户大礼包代金券高价收cpa注册量高价展示【腾讯云】2核2G/9.93起租服务器找45互联 随时退换阿里云 短信服务 验证秒达

[其它内容] requests 利用 gzip 压缩优化大 XML 响应的处理方法 [复制链接]
查看:160 | 回复:1

1477

主题

1656

帖子

9

积分

落伍者(一心一意)

Rank: 1

贡献
685
鲜花
0
注册时间
2016-6-22

落伍者落伍微信绑定落伍手机绑定

发表于 2023-11-16 15:47:32 | 显示全部楼层 |阅读模式 来自 中国江苏淮安
华科云商丑图1.jpg
在处理大XML响应时,我遇到了问题。由于响应的大小可能达到数百万字节,因此将整个响应加载到内存中并交给XML解析器进行处理是不可能的。我正在使用lxml进行解析,并将`response.raw`作为参数传递给其`iterparse()`函数,这是在requests文档中描述的某个地方。

然而,我所调用的API并不十分好。因此,即使我明确要求不使用压缩数据,该API仍然可能返回`Content-Encoding: gzip`。此外,这些极其重复和冗长的XML文件的压缩比率非常好(10x以上),因此我希望能够利用压缩响应。

解决方案:

为了解决这个问题,我可以使用`functools.partial`来替换响应的`read`方法,或者将其包装在其他方式中,以便进行如下操作:

``` python

response.raw.read = functools.partial(response.raw.read, decode_content=True)

```

然后将`response.raw`传递给解析器。这个解决方案可以帮助我在处理大XML响应时更高效地利用gzip压缩。

我建议将这个解决方案添加到requests的文档中,例如在FAQ中,这样其他开发者也可以受益于这个优化方法。

这个方法可以显著提高处理大XML响应的效率,尤其是在处理压缩响应时,可以减少内存的使用,提高性能。希望这个解决方案对其他开发者也能有所帮助。如果有任何疑问或需要进一步的解释,请随时提出。​​​​
企业专线拨号VPS动态IP派克斯ADSL本地拨号,联系QQ174629754
回复

使用道具 举报

372

主题

1万

帖子

649

积分

落伍者(一心一意)

Rank: 1

贡献
2397
鲜花
0
注册时间
2020-6-17

落伍手机绑定落伍者

发表于 2023-11-17 10:35:38 | 显示全部楼层 来自 中国河南开封
看看了,愿收录[url=http://www.chinaqingtian.com/]流量计厂家[/url]
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

论坛客服/商务合作/投诉举报:2171544 (QQ)
落伍者创建于2001/03/14,本站内容均为会员发表,并不代表落伍立场!
拒绝任何人以任何形式在本论坛发表与中华人民共和国法律相抵触的言论!
落伍官方微信:2030286 邮箱:(djfsys@gmail.com|tech@im286.com)
© 2001-2014

浙公网安备 33060302000191号

浙ICP备11034705号 BBS专项电子公告通信管[2010]226号

  落伍法律顾问: ITlaw-庄毅雄

手机版|找回帐号|不能发帖?|Archiver|落伍者

GMT+8, 2024-11-26 21:22 , Processed in 0.059263 second(s), 35 queries , Gzip On.

返回顶部