溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

寫簡單的爬蟲都需要什么

發布時間:2020-06-20 05:51:07 來源:網絡 閱讀:297 作者:even_07 欄目:編程語言

寫爬蟲都需要些什么呢,
寫簡單的爬蟲都需要什么
A 要爬取的網址難度的大小 (選擇谷歌對要爬取的網址源代碼進行分析)
寫簡單的爬蟲都需要什么
B 借用Python中的模塊urllib與requests 對網址進行請求與訪問
以requests為例:(requests模塊的導入見:https://blog.51cto.com/13747953/2321389)
a 下載圖片

import requests            

ret=requests.get('http://×××w.xiaohuar.com/d/file/20180724/40d83a6709eca21137dcdd80ee28c31b.jpg')
print(ret,type(ret))
print(ret.status_code)
print(ret.content)
with open(r'E:\text1\爬蟲\text_png\p1.png','wb') as f:
    f.write(ret.content)

寫簡單的爬蟲都需要什么
b 基本文字信息的獲取

import requests
from urllib import request

# ret=requests.get('http://maoyan.com/board')
headers={
    'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'

}
ret=request.Request('http://maoyan.com/board',headers=headers)
resp=request.urlopen(ret)
print(resp,type(resp))
print(resp.read().decode('utf-8'))

這里不用requests 模塊是因為在請求的過程中返回了403的錯誤
猜想可能的原因是:網址的反爬蟲機制發現了來自pycharm的請求;
所以可以用urllib(Python自帶的模塊)提供的request模塊
寫簡單的爬蟲都需要什么
結果如下:
寫簡單的爬蟲都需要什么

C 如何從B-b中獲取的文字數據中提取出自己想要的數據呢
a 分析數據的相同點
寫簡單的爬蟲都需要什么
寫簡單的爬蟲都需要什么

b 利用正則表達式與re模塊

'<div class="item_t">(?:.*?)src="(?P<png>.*?)"(?:.*?)<span class="price">(?P<name>.*?)</span>(?:.*?)'
        '<a  class="img_album_btn">(?P<place>.*?)</a>', re.S)
'<div class="item_t">  # 匹配開始的標志
(?:.*?)      # 匹配任意的字符,但用?取消了分組優先顯示和貪婪匹配
src="(?P<png>.*?)"    # 要獲取的數據優先顯示,并?P<名字>命名了
(?:.*?)
<span class="price">
(?P<name>.*?)
</span>
(?:.*?)
''<a  class="img_album_btn">
(?P<place>.*?)
</a>'
,re.S      # 聲明 . 可以匹配任意的字符
)

倆個實例:
1爬取簡單的文字信息:https://blog.51cto.com/13747953/2321800
2爬取圖片: https://blog.51cto.com/13747953/2321803
(程序猿很無聊多多指教交流)

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女