溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python中urllib.request和requests有什么區別

發布時間:2020-07-29 09:14:32 來源:億速云 閱讀:687 作者:小豬 欄目:開發技術

小編這次要給大家分享的是python中urllib.request和requests有什么區別,文章內容豐富,感興趣的小伙伴可以來了解一下,希望大家閱讀完這篇文章之后能夠有所收獲。

urllib.request

我們都知道,urlopen()方法能發起最基本對的請求發起,但僅僅這些在我們的實際應用中一般都是不夠的,可能我們需要加入headers之類的參數,那需要用功能更為強大的Request類來構建了

在不需要任何其他參數配置的時候,可直接通過urlopen()方法來發起一個簡單的web請求

發起一個簡單的請求

import urllib.request
url='https://www.douban.com'
webPage=urllib.request.urlopen(url)
print(webPage)
data=webPage.read()
print(data)
print(data.decode('utf-8'))

urlopen()方法返回的是一個http.client.HTTPResponse對象,需要通過read()方法做進一步的處理。一般使用read()后,我們需要用decode()進行解碼,通常為utf-8,經過這些步驟后,最終才獲取到我們想要的網頁。

添加Headers信息

import urllib.request
url='https://www.douban.com'
headers = {
   'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36',
 }
response=urllib.request.Request(url=url,headers=headers)
webPage=urllib.request.urlopen(response)
print(webPage.read().decode('utf-8'))

使用Request類返回的又是一個urllib.request.Request對象了。

通常我們爬取網頁,在構造http請求的時候,都需要加上一些額外信息,什么Useragent,cookie等之類的信息,或者添加代理服務器。往往這些都是一些必要的反爬機制

requests

通常而言,在我們使用python爬蟲時,更建議用requests庫,因為requests比urllib更為便捷,requests可以直接構造get,post請求并發起,而urllib.request只能先構造get,post請求,再發起。

import requests
url='https://www.douban.com'
headers = {
  'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36',
}
get_response = requests.get(url,headers=headers,params=None)
post_response=requests.post(url,headers=headers,data=None,json=None)
print(post_response)
print(get_response.text)
print(get_response.content)
print(get_response.json)

get_response.text得到的是str數據類型。

get_response.content得到的是Bytes類型,需要進行解碼。作用和get_response.text類似。

get_response.json得到的是json數據。

總而言之,requests是對urllib的進一步封裝,因此在使用上顯得更加的便捷,建議小伙伴們在實際應用當中盡量使用requests。

補充知識:python中urllib.request.Request()與urllib.request.urlopen()區別

蟒蛇中urllib.request.Request()與urllib.request.urlopen()的區別:

相對于urllib.request.urlopen()來說urllib.request.Request是進一步的包裝請求,下面是請求類的源碼示例:

class Request:
  
  # 主要看這塊,構造函數中指明了Request進一步包裝請求中可以傳遞的參數有(url,data,headers,            
  # origin_req_host,unverifiable,method)
 
  def __init__(self, url, data=None, headers={},
         origin_req_host=None, unverifiable=False,
         method=None):
    self.full_url = url
    self.headers = {}
    self.unredirected_hdrs = {}
    self._data = None
    self.data = data
    self._tunnel_host = None
    for key, value in headers.items():
      self.add_header(key, value)
    if origin_req_host is None:
      origin_req_host = request_host(self)
    self.origin_req_host = origin_req_host
    self.unverifiable = unverifiable
    if method:
      self.method = method
  pass

我們可以這樣使用(以下是模擬有道字典翻譯發送的請求):

# 請求地址url
url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule"
 
# 請求頭
request_headers = {
  'Host':'fanyi.youdao.com',
  "User-Agent": "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.108 Safari/537.36",
}
 
# 發送給服務器的表單
form_data = {
  "i": word,
  "from": "AUTO",
  "to": "AUTO",
  "smartresult": "dict",
  "doctype": "json",
  "version": "2.1",
  "keyfrom": "fanyi.web",
  "action": "FY_BY_REALTIME",
  "typoResult": "false"
}
 
# POST發送的data必須為bytes或bytes類型的可迭代對象,不能是字符串
form_data = urllib.parse.urlencode(form_data).encode()
 
# 構造請求對象Request
req = urllib.request.Request(url, data=form_data, headers=request_headers)
 
# 發起請求
response = urllib.request.urlopen(req)
data = response.read().decode()
print(data)

所以,總的來說,如果我們在獲取請求對象時,不需要過多的參數傳遞,我么可以直接選擇urllib.request.urlopen();如果需要進一步的包裝請求,則需要用urllib.request里。的urlopen()進行包裝處理。

看完這篇關于python中urllib.request和requests有什么區別的文章,如果覺得文章內容寫得不錯的話,可以把它分享出去給更多人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女