利用Python爬虫怎么获取重定向后的url-创新互联
这期内容当中小编将会给大家带来有关利用Python爬虫怎么获取重定向后的url,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。
创新互联网站建设公司一直秉承“诚信做人,踏实做事”的原则,不欺瞒客户,是我们最起码的底线! 以服务为基础,以质量求生存,以技术求发展,成交一个客户多一个朋友!专注中小微企业官网定制,成都做网站、成都网站建设,塑造企业网络形象打造互联网企业效应。方法(一)
# 获得重定向url from urllib import request # /tupian/20230522/681501874175782812.html url = "https://www.baidu.com/link?url=IscBx0u8h9q4Uq3ihTs_PqnoNWe7slVWAd2dowQKrnqJedvthb3zrh9JqcMJu3ZqFrbW_DKVuTnTypDbMkZx_hwCQIGFPRVWGyxRXA-65jK&wd=&eqid=f7aeecba00092ed7000000065ec62596" print(request.urlopen(url).geturl())
方法(二)
# 请求头,这里我设置了浏览器代理 headers = headers = {'User-Agent': 'xx'} # 这里chrome的user-agent获取方式:在浏览器地址栏输入 about://version 即可得到结果 url = "https://www.baidu.com/link?url=IscBx0u8h9q4Uq3ihTs_PqnoNWe7slVWAd2dowQKrnqJedvthb3zrh9JqcMJu3ZqFrbW_DKVuTnTypDbMkZx_hwCQIGFPRVWGyxRXA-65jK&wd=&eqid=f7aeecba00092ed7000000065ec62596" # 请求网页 response = requests.get(url, headers=headers) # print(response.status_code) # 打印响应的状态码 print(response.url) # 打印重定向后的网址 # 两个结果都是:/tupian/20230522/681501874175782812.html
上述就是小编为大家分享的利用Python爬虫怎么获取重定向后的url了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注创新互联行业资讯频道。
新闻标题:利用Python爬虫怎么获取重定向后的url-创新互联
分享网址:http://scyanting.com/article/iegoj.html