溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么使用python爬取知乎熱榜Top50數據

發布時間:2021-09-27 10:42:36 來源:億速云 閱讀:247 作者:小新 欄目:開發技術

這篇文章將為大家詳細講解有關怎么使用python爬取知乎熱榜Top50數據,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

1、導入第三方庫

import urllib.request,urllib.error  #請求網頁
from bs4 import BeautifulSoup  # 解析數據
import sqlite3  # 導入數據庫
import re # 正則表達式
import time # 獲取當前時間

2、程序的主函數

def main():
    # 聲明爬取網頁
    baseurl = "https://www.zhihu.com/hot"
    # 爬取網頁
    datalist = getData(baseurl)
    #保存數據
    dbname = time.strftime("%Y-%m-%d", time.localtime()) # 
    dbpath = "zhihuTop50  " + dbname
    saveData(datalist,dbpath)

3、正則表達式匹配數據

#正則表達式
findlink = re.compile(r'<a class="css-hi1lih" href="(.*?)" rel="external nofollow"  rel="external nofollow" ') #問題鏈接
findid = re.compile(r'<div class="css-blkmyu">(.*?)</div>') #問題排名
findtitle = re.compile(r'<h2 class="css-3yucnr">(.*?)</h2>') #問題標題
findintroduce = re.compile(r'<div class="css-1o6sw4j">(.*?)</div>') #簡要介紹
findscore = re.compile(r'<div class="css-1iqwfle">(.*?)</div>') #熱門評分
findimg = re.compile(r'<img class="css-uw6cz9" src="(.*?)"/>') #文章配圖

4、程序運行結果

怎么使用python爬取知乎熱榜Top50數據

怎么使用python爬取知乎熱榜Top50數據

5、程序源代碼

import urllib.request,urllib.error
from bs4 import BeautifulSoup
import sqlite3
import re
import time

def main():
    # 聲明爬取網頁
    baseurl = "https://www.zhihu.com/hot"
    # 爬取網頁
    datalist = getData(baseurl)
    #保存數據
    dbname = time.strftime("%Y-%m-%d", time.localtime())
    dbpath = "zhihuTop50  " + dbname
    saveData(datalist,dbpath)
    print()
#正則表達式
findlink = re.compile(r'<a class="css-hi1lih" href="(.*?)" rel="external nofollow"  rel="external nofollow" ') #問題鏈接
findid = re.compile(r'<div class="css-blkmyu">(.*?)</div>') #問題排名
findtitle = re.compile(r'<h2 class="css-3yucnr">(.*?)</h2>') #問題標題
findintroduce = re.compile(r'<div class="css-1o6sw4j">(.*?)</div>') #簡要介紹
findscore = re.compile(r'<div class="css-1iqwfle">(.*?)</div>') #熱門評分
findimg = re.compile(r'<img class="css-uw6cz9" src="(.*?)"/>') #文章配圖

def getData(baseurl):
    datalist = []
    html = askURL(baseurl)
    # print(html)

    soup = BeautifulSoup(html,'html.parser')
    for item in soup.find_all('a',class_="css-hi1lih"):
        # print(item)
        data = []
        item = str(item)

        Id = re.findall(findid,item)
        if(len(Id) == 0):
            Id = re.findall(r'<div class="css-mm8qdi">(.*?)</div>',item)[0]
        else: Id = Id[0]
        data.append(Id)
        # print(Id)

        Link = re.findall(findlink,item)[0]
        data.append(Link)
        # print(Link)

        Title = re.findall(findtitle,item)[0]
        data.append(Title)
        # print(Title)

        Introduce = re.findall(findintroduce,item)
        if(len(Introduce) == 0):
            Introduce = " "
        else:Introduce = Introduce[0]
        data.append(Introduce)
        # print(Introduce)

        Score = re.findall(findscore,item)[0]
        data.append(Score)
        # print(Score)

        Img = re.findall(findimg,item)
        if (len(Img) == 0):
            Img = " "
        else: Img = Img[0]
        data.append(Img)
        # print(Img)
        datalist.append(data)
    return datalist
def askURL(baseurl):
    # 設置請求頭
    head = {
        # "User-Agent": "Mozilla/5.0 (Windows NT 10.0;Win64;x64) AppleWebKit/537.36(KHTML, likeGecko) Chrome/80.0.3987.163Safari/537.36"
        "User-Agent": "Mozilla / 5.0(iPhone;CPUiPhoneOS13_2_3likeMacOSX) AppleWebKit / 605.1.15(KHTML, likeGecko) Version / 13.0.3Mobile / 15E148Safari / 604.1"
    }
    request = urllib.request.Request(baseurl, headers=head)
    html = ""
    try:
        response = urllib.request.urlopen(request)
        html = response.read().decode("utf-8")
        # print(html)
    except urllib.error.URLError as e:
        if hasattr(e, "code"):
            print(e.code)
        if hasattr(e, "reason"):
            print(e.reason)
    return html
    print()
def saveData(datalist,dbpath):
    init_db(dbpath)
    conn = sqlite3.connect(dbpath)
    cur = conn.cursor()

    for data in datalist:
        sql = '''
        insert into Top50(
        id,info_link,title,introduce,score,img)
        values("%s","%s","%s","%s","%s","%s")'''%(data[0],data[1],data[2],data[3],data[4],data[5])
        print(sql)
        cur.execute(sql)
        conn.commit()
    cur.close()
    conn.close()
def init_db(dbpath):
    sql = '''
    create table Top50
    (
    id integer primary key autoincrement,
    info_link text,
    title text,
    introduce text,
    score text,
    img text
    )
    '''
    conn = sqlite3.connect(dbpath)
    cursor = conn.cursor()
    cursor.execute(sql)
    conn.commit()
    conn.close()

if __name__ =="__main__":
    main()

關于“怎么使用python爬取知乎熱榜Top50數據”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女