那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

成為Python高手必須懂的爬蟲原理

5RJg_mcuworld ? 來源:fqj ? 2019-05-20 17:29 ? 次閱讀

互聯網是由一個個站點和網絡設備組成的大網,我們通過瀏覽器訪問站點,站點把HTML、JS、CSS代碼返回給瀏覽器,這些代碼經過瀏覽器解析、渲染,將豐富多彩的網頁呈現我們眼前。

一、爬蟲是什么?

如果我們把互聯網比作一張大的蜘蛛網,數據便是存放于蜘蛛網的各個節點,而爬蟲就是一只小蜘蛛,沿著網絡抓取自己的獵物(數據)爬蟲指的是:向網站發起請求,獲取資源后分析并提取有用數據的程序。

從技術層面來說就是 通過程序模擬瀏覽器請求站點的行為,把站點返回的HTML代碼/JSON數據/二進制數據(圖片、視頻) 爬到本地,進而提取自己需要的數據,存放起來使用;

二、爬蟲的基本流程

用戶獲取網絡數據的方式:

方式1:瀏覽器提交請求--->下載網頁代碼--->解析成頁面

方式2:模擬瀏覽器發送請求(獲取網頁代碼)->提取有用的數據->存放于數據庫或文件中

爬蟲要做的就是方式2。

成為Python高手必須懂的爬蟲原理

1、發起請求

使用http庫向目標站點發起請求,即發送一個Request

Request包含:請求頭、請求體等

Request模塊缺陷:不能執行JS 和CSS 代碼

2、獲取響應內容

如果服務器能正常響應,則會得到一個Response

Response包含:html,json,圖片,視頻等

3、解析內容

解析html數據:正則表達式(RE模塊),第三方解析庫如Beautifulsoup,pyquery等

解析json數據:json模塊

解析二進制數據:以wb的方式寫入文件

4、保存數據

數據庫(MySQL,Mongdb、Redis)

文件

三、http協議 請求與響應

成為Python高手必須懂的爬蟲原理

Request:用戶將自己的信息通過瀏覽器(socket client)發送給服務器(socket server)

Response:服務器接收請求,分析用戶發來的請求信息,然后返回數據(返回的數據中可能包含其他鏈接,如:圖片,js,css等)

ps:瀏覽器在接收Response后,會解析其內容來顯示給用戶,而爬蟲程序在模擬瀏覽器發送請求然后接收Response后,是要提取其中的有用數據。

四、 request

1、請求方式:

常見的請求方式:GET / POST

2、請求的URL

url全球統一資源定位符,用來定義互聯網上一個唯一的資源 例如:一張圖片、一個文件、一段視頻都可以用url唯一確定

url編碼

https://www.baidu.com/s?wd=圖片

圖片會被編碼(看示例代碼)

網頁的加載過程是:

加載一個網頁,通常都是先加載document文檔,

在解析document文檔的時候,遇到鏈接,則針對超鏈接發起下載圖片的請求

3、請求頭

User-agent:請求頭中如果沒有user-agent客戶端配置,服務端可能將你當做一個非法用戶host;

cookies:cookie用來保存登錄信息

注意:一般做爬蟲都會加上請求頭

成為Python高手必須懂的爬蟲原理

成為Python高手必須懂的爬蟲原理

成為Python高手必須懂的爬蟲原理

請求頭需要注意的參數

(1)Referrer:訪問源至哪里來(一些大型網站,會通過Referrer 做防盜鏈策略;所有爬蟲也要注意模擬)

(2)User-Agent:訪問的瀏覽器(要加上否則會被當成爬蟲程序)

(3)cookie:請求頭注意攜帶

4、請求體

如果是get方式,請求體沒有內容 (get請求的請求體放在 url后面參數中,直接能看到)如果是post方式,請求體是format data

ps:

1、登錄窗口,文件上傳等,信息都會被附加到請求體內

2、登錄,輸入錯誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁面通常會跳轉,無法捕捉到post

五、 響應Response

1、響應狀態碼

200:代表成功

301:代表跳轉

404:文件不存在

403:無權限訪問

502:服務器錯誤

2、respone header

響應頭需要注意的參數:

(1)Set-Cookie:BDSVRTM=0; path=/:可能有多個,是來告訴瀏覽器,把cookie保存下來

(2)Content-Location:服務端響應頭中包含Location返回瀏覽器之后,瀏覽器就會重新訪問另一個頁面

3、preview就是網頁源代碼

JSO數據

如網頁html,圖片

二進制數據等

六、總結

1、總結爬蟲流程:

爬取--->解析--->存儲

2、爬蟲所需工具:

請求庫:requests,selenium(可以驅動瀏覽器解析渲染CSS和JS,但有性能劣勢(有用沒用的網頁都會加載);)解析庫:正則,beautifulsoup,pyquery存儲庫:文件,MySQL,Mongodb,Redis

基于搜狗微信搜索的微信公眾號爬蟲接口,可以擴展成基于搜狗搜索的爬蟲,返回結果是列表,每一項均是公眾號具體信息字典。

DouBanSpider [2]- 豆瓣讀書爬蟲。可以爬下豆瓣讀書標簽下的所有圖書,按評分排名依次存儲,存儲到Excel中,可方便大家篩選搜羅,比如篩選評價人數>1000的高分書籍;可依據不同的主題存儲到Excel不同的Sheet ,采用User Agent偽裝為瀏覽器進行爬取,并加入隨機延時來更好的模仿瀏覽器行為,避免爬蟲被封。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 互聯網
    +關注

    關注

    54

    文章

    11186

    瀏覽量

    103869
  • python
    +關注

    關注

    56

    文章

    4807

    瀏覽量

    85040

原文標題:想成為Python高手,必須看這篇爬蟲原理介紹!(附29個爬蟲項目)

文章出處:【微信號:mcuworld,微信公眾號:嵌入式資訊精選】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    Python數據爬蟲學習內容

    ,利用爬蟲,我們可以解決部分數據問題,那么,如何學習Python數據爬蟲能?1.學習Python基礎知識并實現基本的爬蟲過程一般獲取數據的過
    發表于 05-09 17:25

    Python爬蟲與Web開發庫盤點

    beautifulsoup4、urllib2、lxml和requests是學習Python爬蟲必備的庫,必須要掌握,當然有的同學說爬網頁不是也可以用正則表達式嗎,確實可以但是會很不方便,因為bs4和lxml都有便捷
    發表于 05-10 15:21

    0基礎入門Python爬蟲實戰課

    學習資料良莠不齊爬蟲是一門實踐性的技能,沒有實戰的課程都是騙人的!所以這節Python爬蟲實戰課,將幫到你!課程從0基礎入門開始,受眾人群廣泛:如畢業大學生、轉行人群、對Python
    發表于 07-25 09:28

    Python爬蟲簡介與軟件配置

    Python爬蟲練習一、爬蟲簡介1. 介紹2. 軟件配置二、爬取南陽理工OJ題目三、爬取學校信息通知四、總結五、參考一、爬蟲簡介1. 介紹網絡爬蟲
    發表于 01-11 06:32

    python網絡爬蟲概述

    的數據,從而識別出某用戶是否為水軍學習爬蟲前的技術準備(1). Python基礎語言: 基礎語法、運算符、數據類型、流程控制、函數、對象 模塊、文件操作、多線程、網絡編程 … 等(2). W3C標準
    發表于 03-21 16:51

    詳細用Python寫網絡爬蟲

    詳細用Python寫網絡爬蟲
    發表于 09-07 08:40 ?32次下載
    詳細用<b class='flag-5'>Python</b>寫網絡<b class='flag-5'>爬蟲</b>

    完全自學指南Python爬蟲BeautifulSoup詳解

    完全自學指南Python爬蟲BeautifulSoup詳解
    發表于 09-07 08:55 ?39次下載
    完全自學指南<b class='flag-5'>Python</b><b class='flag-5'>爬蟲</b>BeautifulSoup詳解

    WebSpider——多個python爬蟲項目下載

    此文檔包含多個python爬蟲項目
    發表于 03-26 09:29 ?3次下載

    python爬蟲入門教程之python爬蟲視頻教程分布式爬蟲打造搜索引擎

    本文檔的主要內容詳細介紹的是python爬蟲入門教程之python爬蟲視頻教程分布式爬蟲打造搜索引擎
    發表于 08-28 15:32 ?29次下載

    python爬蟲框架有哪些

    本視頻主要詳細介紹了python爬蟲框架有哪些,分別是Django、CherryPy、Web2py、TurboGears、Pylons、Grab、BeautifulSoup、Cola。
    的頭像 發表于 03-22 16:13 ?6857次閱讀

    Python爬蟲:使用哪種協議的代理IP最佳?

    網絡大數據要抓取信息,大多需要經過python爬蟲工作,爬蟲能夠幫助我們將頁面的信息抓取下來。
    的頭像 發表于 06-28 16:25 ?1999次閱讀

    python實現簡單爬蟲的資料說明

    本文檔的主要內容詳細介紹的是python實現簡單爬蟲的資料說明。
    發表于 11-02 17:53 ?21次下載
    <b class='flag-5'>python</b>實現簡單<b class='flag-5'>爬蟲</b>的資料說明

    Python寫網絡爬蟲

    Python寫網絡爬蟲的方法說明。
    發表于 06-01 11:55 ?21次下載

    利用Python編寫簡單網絡爬蟲實例

    利用 Python編寫簡單網絡爬蟲實例2 實驗環境python版本:3.3.5(2.7下報錯
    發表于 02-24 11:05 ?14次下載

    如何解決Python爬蟲中文亂碼問題?Python爬蟲中文亂碼的解決方法

    如何解決Python爬蟲中文亂碼問題?Python爬蟲中文亂碼的解決方法 在Python爬蟲過程
    的頭像 發表于 01-12 15:11 ?2552次閱讀
    泽州县| 皇冠投注网址| 澳门百家乐游戏皇冠网| 百家乐官网投注杀手| 36棋牌的深海捕鱼| 百家乐太阳城 | 百家乐娱乐城注册| 百家乐官网路单| 至尊百家| 澳门百家乐论坛| 现场百家乐平台源码| 百家乐官网遥控洗牌器| 东丰县| 大发888 xp缺少 casino| 百家乐透视牌靴| 百家乐官网如何赚洗码| 带百家乐官网的时时彩平台| 银泰娱乐城| 大发888在线娱乐城二十一点| 百家乐破解方法技巧| 百家乐官网筹码套装100片| 百家乐官网隔一数打投注法| 金盛国际| 大发888 casino组件下载| 百家乐发脾机| 百家乐太阳城小郭| 木棉百家乐官网的玩法技巧和规则 | bet365 体育在线uo| 百家乐正网| 百家乐十赌九诈| 百家乐最保险的方法| 明陞百家乐官网娱乐城| 澳门百家乐官网游戏说明书| 梁河县| 博彩策略| 水果机技巧规律| 百家乐真人博彩的玩法技巧和规则 | 百家乐赌博合作| 百家乐之对子的技巧| 百家乐官网庄闲桌| 青州市|