爬取整個頁面的數據,并進行有效的提取信息,注釋都有就不廢話了:
public class Reptile {
public static void main(String[] args) {
String url1=""; //傳入你所要爬取的頁面地址
InputStream is=null; //創建輸入流用于讀取流
BufferedReader br=null; //包裝流,加快讀取速度
StringBuffer html=new StringBuffer(); //用來保存讀取頁面的數據.
String temp=""; //創建臨時字符串用于保存每一次讀的一行數據,然后html調用append方法寫入temp;
try {
URL url2 = new URL(url1); //獲取URL;
is = url2.openStream(); //打開流,準備開始讀取數據;
br= new BufferedReader(new InputStreamReader(is)); //將流包裝成字符流,調用br.readLine()可以提高讀取效率,每次讀取一行;
while ((temp = br.readLine()) != null) {//讀取數據,調用br.readLine()方法每次讀取一行數據,并賦值給temp,如果沒數據則值==null,跳出循環;
html.append(temp); //將temp的值追加給html,這里注意的時String跟StringBuffere的區別前者不是可變的后者是可變的;
}
//System.out.println(html); //打印出爬取頁面的全部代碼;
if(is!=null) //接下來是關閉流,防止資源的浪費;
{
is.close();
is=null;
}
Document doc=Jsoup.parse(html.toString()); //通過Jsoup解析頁面,生成一個document對象;
Elements elements=doc.getElementsByClass("XX");//通過class的名字得到(即XX),一個數組對象Elements里面有我們想要的數據,至于這個div的值呢你打開瀏覽器按下F12就知道了;
for (Element element:elements) {
System.out.println(element.text()); //打印出每一個節點的信息;你可以選擇性的保留你想要的數據,一般都是獲取個固定的索引;
}
} catch (MalformedURLException e) {
// TODO Auto-generated catch block
e.printStackTrace();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
上一張自己爬取的圖片,并用fusioncharts生成報表(一般抓取的是int類型的數據的話,生成報表可以很直觀)

以上這篇JAVA超級簡單的爬蟲實例講解就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持億速云。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。