gmnon.cn-疯狂蹂躏欧美一区二区精品,欧美精品久久久久a,高清在线视频日韩欧美,日韩免费av一区二区

站長資訊網
最全最豐富的資訊網站

基于Python通過cookie對某芯片網站信息的獲取

芯片大家都不陌生。在當今疫情下,顯卡,車機的芯片產量銳減影響了不少人的購物需求(反正你也買不到),也讓不少人重新認識了半導體行業。閑來無事,我們可以獲取一下T網站的芯片庫存和芯片信息。

一、列表頁請求分析

進入頁面,就能看到我們需求的信息了。

但是,在頁面請求完成之前,有一點點不對勁,就是頁面的各個部份請求的速度是不一樣的:

所以啊,需要的數據,大概率不是簡單的get請求,所以要進一步去看,特意在開發者模式—Fetch/XHR選項卡中有一個請求,返回值正好是我們需要的內容:

基于Python通過cookie對某芯片網站信息的獲取

程序員必備接口測試調試工具:立即使用
Apipost = Postman + Swagger + Mock + Jmeter
Api設計、調試、文檔、自動化測試工具
后端、前端、測試,同時在線協作,內容實時同步

這一條鏈接返回了所有的數據,無需翻頁,下面開始請求鏈接。

二、列表頁請求

根據上面的鏈接,直接get請求,分析json即可,上代碼:

基于Python通過cookie對某芯片網站信息的獲取

 def getItemList():        url = "https://www.xx.com.cn/selectiontool/paramdata/family/3658/results?lang=cn&output=json"        headers = {            'authority': 'www.xx.com.cn',            "accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",        }        res = getRes(url,headers,'','','GET')//自己寫的請求方法        nodes = res.json()['ParametricResults']        for node in nodes:            data = {}            data["itemName"] = node["o3"] #名稱            data["inventory"] = node["p3318"] #庫存            data["price"] = node["p1130"]['multipair1']['l'] #價格            data["infoUrl"] = f"https://www.xx.com.cn/product/cn/{node['o1']}"#詳情URL
登錄后復制

分析上面的json,可知 o3 是商品名,p3318是庫存,p1130里面的內容有一個帶單位的價格,o1是型號,可湊出詳情鏈接,下面是請求結果:

基于Python通過cookie對某芯片網站信息的獲取

三、詳情頁分析

終于拿到詳情頁鏈接了,該獲取剩下的內容了。

打開開發者模式,沒有額外的請求,只有一個包含內容的get請求。

基于Python通過cookie對某芯片網站信息的獲取

那直接請求不就得了,上代碼:

def getItemInfo(url):       logger.info(f'正在請求詳情url-{url}')       headers = {           'authority': 'www.xx.com.cn',           'accept': "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",           'user-agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",           'referer':'https://www.xx.com.cn/product/cn/THS4541-DIE',           }        res = getRes(url, headers,'', '', 'GET')//自己寫的請求方法        content = res.content.decode('utf-8')
登錄后復制

但是發現,請求的詳情頁,跟開發者模式的預覽怎么不太一樣?

基于Python通過cookie對某芯片網站信息的獲取

我這里的第一反應就覺得,完了,這個需要cookie。

繼續分析,清屏開發者模式,清除cookie,再次訪問詳情鏈接,在All選項卡中,可以發現:

基于Python通過cookie對某芯片網站信息的獲取

本以為該請求一次的詳情頁鏈接請求了兩次,兩次中間還有一個xhr請求。

預覽第一次請求,可以發現跟剛才本地請求的內容相差無幾:

基于Python通過cookie對某芯片網站信息的獲取

所以問題出在第二次的請求,進一步分析:

查看第二次的get請求,與第一次的請求相差了一堆cookie

基于Python通過cookie對某芯片網站信息的獲取

簡化cookie,發現這些cookie最關鍵的參數是ak_bmsc這一部分,而這一部分參數,就來自上一個xhr請求中的響應頭set-cookie中:

基于Python通過cookie對某芯片網站信息的獲取

分析這個xhr請求,請求鏈接

這是個post請求,先從payload參數下手:

基于Python通過cookie對某芯片網站信息的獲取

這個bm-verify參數,是不是有些眼熟?這就是第一次的get請求返回的內容嗎,下面還有一個pow參數:

基于Python通過cookie對某芯片網站信息的獲取

"pow":j,這個j參數就在上面,聲明了i和兩個拼接的數字字符串轉成int之后相加之后的結果:

基于Python通過cookie對某芯片網站信息的獲取

通過這一系列請求,返回了最終get請求所需要的cookie,講的比較瑣碎,上代碼:

 #詳情需要cookie    def getVerify(url):        infourl = url        headers = {            'authority': 'www.xx.com.cn',            "accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",        }        proxies = getApiIp()//取代理        if proxies:            #無cookie訪問詳情頁拿參數bm-verify,pow            res = getRes(infourl,headers,proxies,'','GET')            if res:                #拿第一次請求的ak_bmsc                cookie = re.findall("ak_bmsc=.*?;",res.headers['set-cookie'])[0]                #拿bm-verify                verifys = re.findall('"bm-verify": "(.*?)"', res.text)[0]                #合并字符串轉int相加取pow                a = re.findall('var i = (d+);',res.text)[0]                b = re.findall('Number("(.*?)");',res.text)[0]                b = int(b.replace('" + "',''))                pow = int(a)+b                post_data = {                    'bm-verify': verifys,                    'pow':pow                }                #轉json                post_data = json.dumps(post_data)                if verifys:                    logger.info('第一次參數獲取完畢')                    return post_data,proxies,cookie                else:                    print('verify獲取異常')            else:                print('verify請求出錯')         # 第二次帶參數訪問驗證鏈接    def getCookie(url):        post_headers = {            "authority": "www.xx.com.cn",            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.71 Safari/537.36",            "accept": "*/*",            "content-type": "application/json",            "origin": "https://www.xx.com.cn",            "referer":url,        }        post_data,proxies,c_cookie = getVerify(url)        post_headers['Cookie'] = c_cookie        posturl = "https://www.xx.com.cn/_sec/verify?provider=interstitial"        check = getRes(posturl,post_headers,proxies,post_data,'POST')        if check:        #從請求頭拿到ak_bmsc cookie            cookie = check.headers['Set-Cookie']            cookie = re.findall("ak_bmsc=.*?;",cookie)[0]            if cookie:                logger.info('Cookie獲取完畢')                return cookie,proxies            else:                print('cookie獲取異常')        else:            print('cookie請求出錯')
登錄后復制

簡單的概括一下詳情頁的請求流程:

第一次請求,取得所需參數bm-verify,pow,cookie,提供給下一次的post請求(getVerify方法)

第二次請求,根據已知條件進行post請求,并獲取響應頭cookie的ak_bmsc(getCookie)

切記,在整個獲取cookie的三次請求過程中,第二、三兩次請求都需要伴隨著上一次請求的ak_bmsc作為cookie傳遞,第二次請求需要第一次的ak_bmsc,最終請求需要第二次的ak_bmsc。

四、詳情頁請求

 def getItemInfo(url):        logger.info(f'正在請求詳情url-{url}')        cookie,proxies = getCookie(url)        headers = {            'authority': 'www.xx.com.cn',            'accept': "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",            'user-agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",            'referer':'https://www.xx.com.cn/product/cn/THS4541-DIE',            'cookie':cookie        }        res = getRes(url, headers,proxies, '', 'GET')        content = res.content.decode('utf-8')        print(content)        exit()        sel = Selector(text=content)        Parameters = sel.xpath('//ti-tab-panel[@tab-title="參數"]/ti-view-more/div').extract_first()        Features = sel.xpath('//ti-tab-panel[@tab-title="特性"]/ti-view-more/div').extract_first()        Description = sel.xpath('//ti-tab-panel[@tab-title="描述"]/ti-view-more').extract_first()        if Parameters and Features and Description:            return Parameters,Features,Description
登錄后復制

通過上一步cookie的獲取,帶著cookie再次訪問詳情鏈接,就可以順利的獲取內容并可以使用xpath進行解析,獲取需要的內容。

五、代理設置

T網站詳情頁帶cookie請求有100多次,如果用本地代理一直去請求,會有IP封鎖的可能性出現,導致無法正常獲取。所以,需要高效請求的話,優質穩定的代理IP必不可少,我這里使用的ipidea代理請求的T網站,數據很快就訪問出來了。

地址:http://www.ipidea.net/?utm-source=csdn&utm-keyword=?wb ,首次可以白嫖流量哦。本次使用的api獲取,代碼如下:

 # api獲取ip    def getApiIp():        # 獲取且僅獲取一個ip        api_url = 'http://tiqu.ipidea.io:81/abroad?num=1&type=2&lb=1&sb=0&flow=1?ions=&port=1'        res = requests.get(api_url, timeout=5)        try:            if res.status_code == 200:                api_data = res.json()['data'][0]                proxies = {                    'http': 'http://{}:{}'.format(api_data['ip'], api_data['port']),                    'https': 'http://{}:{}'.format(api_data['ip'], api_data['port']),                }                print(proxies)                return proxies            else:                print('獲取失敗')        except:            print('獲取失敗')
登錄后復制

六、代碼匯總

 # coding=utf-8    import requests    from scrapy import Selector    import re    import json    from loguru import logger         # api獲取ip    def getApiIp():        # 獲取且僅獲取一個ip        api_url = '獲取代理地址'        res = requests.get(api_url, timeout=5)        try:            if res.status_code == 200:                api_data = res.json()['data'][0]                proxies = {                    'http': 'http://{}:{}'.format(api_data['ip'], api_data['port']),                    'https': 'http://{}:{}'.format(api_data['ip'], api_data['port']),                }                print(proxies)                return proxies            else:                print('獲取失敗')        except:            print('獲取失敗')         def getItemList():        url = "https://www.xx.com.cn/selectiontool/paramdata/family/3658/results?lang=cn&output=json"        headers = {            'authority': 'www.xx.com.cn',            "accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",        }        proxies = getApiIp()        if proxies:            # res = requests.get(url, headers=headers, proxies=proxies)            res = getRes(url,headers,proxies,'','GET')            nodes = res.json()['ParametricResults']            for node in nodes:                data = {}                data["itemName"] = node["o3"] #名稱                data["inventory"] = node["p3318"] #庫存                data["price"] = node["p1130"]['multipair1']['l'] #價格                data["infoUrl"] = f"https://www.ti.com.cn/product/cn/{node['o1']}"#詳情URL                Parameters, Features, Description = getItemInfo(data["infoUrl"])                data['Parameters'] = Parameters                data['Features'] = Features                data['Description'] = Description                print(data)         #詳情需要cookie    def getVerify(url):        infourl = url        headers = {            'authority': 'www.xx.com.cn',            "accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",        }        proxies = getApiIp()        if proxies:            #訪問詳情頁拿參數bm-verify,pow            res = getRes(infourl,headers,proxies,'','GET')            if res:                #拿第一次請求的ak_bmsc                cookie = re.findall("ak_bmsc=.*?;",res.headers['set-cookie'])[0]                #拿bm-verify                verifys = re.findall('"bm-verify": "(.*?)"', res.text)[0]                #字符串轉int相加取pow                a = re.findall('var i = (d+);',res.text)[0]                b = re.findall('Number("(.*?)");',res.text)[0]                b = int(b.replace('" + "',''))                pow = int(a)+b                post_data = {                    'bm-verify': verifys,                    'pow':pow                }                #轉json                post_data = json.dumps(post_data)                if verifys:                    logger.info('第一次參數獲取完畢')                    return post_data,proxies,cookie                else:                    print('verify獲取異常')            else:                print('verify請求出錯')         # 第二次帶參數訪問驗證鏈接    def getCookie(url):        post_headers = {            "authority": "www.xx.com.cn",            "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.71 Safari/537.36",            "accept": "*/*",            "content-type": "application/json",            "origin": "https://www.xx.com.cn",            "referer":url,        }        post_data,proxies,c_cookie = getVerify(url)        post_headers['Cookie'] = c_cookie        posturl = "https://www.xx.com.cn/_sec/verify?provider=interstitial"        check = getRes(posturl,post_headers,proxies,post_data,'POST')        if check:        #從請求頭拿到ak_bmsc cookie            cookie = check.headers['Set-Cookie']            cookie = re.findall("ak_bmsc=.*?;",cookie)[0]            if cookie:                logger.info('Cookie獲取完畢')                return cookie,proxies            else:                print('cookie獲取異常')        else:            print('cookie請求出錯')         def getItemInfo(url):        logger.info(f'正在請求詳情url-{url}')        cookie,proxies = getCookie(url)        headers = {            'authority': 'www.xx.com.cn',            'accept': "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9",            'user-agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36",            'referer':'https://www.xx.com.cn/product/cn/THS4541-DIE',            'cookie':cookie        }        res = getRes(url, headers,proxies, '', 'GET')        content = res.content.decode('utf-8')        sel = Selector(text=content)        Parameters = sel.xpath('//ti-tab-panel[@tab-title="參數"]/ti-view-more/div').extract_first()        Features = sel.xpath('//ti-tab-panel[@tab-title="特性"]/ti-view-more/div').extract_first()        Description = sel.xpath('//ti-tab-panel[@tab-title="描述"]/ti-view-more').extract_first()        if Parameters and Features and Description:            return Parameters,Features,Description         #專門發送請求的方法,代理請求三次,三次失敗返回錯誤    def getRes(url,headers,proxies,post_data,method):        if proxies:            for i in range(3):                try:                    # 傳代理的post請求                    if method == 'POST':                        res = requests.post(url,headers=headers,data=post_data,proxies=proxies)                    # 傳代理的get請求                    else:                        res = requests.get(url, headers=headers,proxies=proxies)                    if res:                        return res                except:                    print(f'第{i}次請求出錯')                else:                    return None        else:            for i in range(3):                proxies = getApiIp()                try:                    # 請求代理的post請求                    if method == 'POST':                        res = requests.post(url, headers=headers, data=post_data, proxies=proxies)                    # 請求代理的get請求                    else:                        res = requests.get(url, headers=headers, proxies=proxies)                    if res:                        return res                except:                    print(f"第{i}次請求出錯")                else:                    return None         if __name__ == '__main__':       getItemList()
登錄后復制

基于Python通過cookie對某芯片網站信息的獲取

通過上述步驟,已經能獲取所需內容。

總結

整個T網站的數據獲取,難點就在詳情頁的cookie,(其實也不是很難,只不過cookie太長比較費眼)理順了整個請求流程,剩下的就是請求的過程。穩定高效的IP代理會讓你事半功倍,通過api獲取可變的代理也不易被網站封禁,從而更好地獲取數據。簡化cookie的時候使用合適的請求工具會更方便,比如postman,burp。

這次的整個流程到此結束,講的比較啰嗦,若有錯誤或者更好的方法請大佬指正!

贊(0)
分享到: 更多 (0)
?
網站地圖   滬ICP備18035694號-2    滬公網安備31011702889846號
gmnon.cn-疯狂蹂躏欧美一区二区精品,欧美精品久久久久a,高清在线视频日韩欧美,日韩免费av一区二区
污色网站在线观看| 无码毛片aaa在线| 九一免费在线观看| 九色在线视频观看| 色中文字幕在线观看| 成人一级片网站| 国产在线拍揄自揄拍无码| 国产精品少妇在线视频| 可以在线看黄的网站| www.xxx亚洲| www.浪潮av.com| 18视频在线观看娇喘| 中文字幕网av| 日本精品一区二区三区四区 | www精品久久| 天堂v在线视频| 亚洲欧美日韩三级| 国产成人av影视| 91精品91久久久中77777老牛| 国产av熟女一区二区三区| 国产在线视频三区| 亚洲一区二区三区四区五区| 北条麻妃av高潮尖叫在线观看| 国内精品在线观看视频| 欧美一级爱爱视频| 激情成人开心网| 欧美日韩dvd| 日韩国产小视频| av久久久久久| 国产精品无码电影在线观看| 欧美一级黄色录像片| 日本高清xxxx| 亚洲色图都市激情| 国产精品69久久久| 免费无遮挡无码永久视频| 国产精品999视频| 鲁一鲁一鲁一鲁一色| 玩弄中年熟妇正在播放| 波多野结衣50连登视频| 国产一线二线三线在线观看| 538任你躁在线精品免费| 亚洲一级免费在线观看| 制服丝袜中文字幕第一页| 亚洲第一天堂久久| 热久久最新地址| 乱人伦xxxx国语对白| 国产又黄又猛视频| 欧美成人手机在线视频| 国产成人永久免费视频| 红桃av在线播放| 日本黄色的视频| 欧美少妇一区二区三区| 成人免费观看视频在线观看| 污视频网站观看| 久久天天东北熟女毛茸茸| 97成人在线观看视频| 国产色视频在线播放| 欧美性受黑人性爽| 国模无码视频一区二区三区| 日韩一级理论片| 中文字幕色呦呦| 国产xxxxx在线观看| 交换做爰国语对白| 欧美日韩在线中文| 女女同性女同一区二区三区按摩| 黄网站欧美内射| 亚洲精品视频三区| 18禁男女爽爽爽午夜网站免费| 成人高清在线观看视频| 欧美极品欧美精品欧美图片| 麻豆中文字幕在线观看| 午夜免费一区二区| 欧美一级视频免费看| 成人黄色一级大片| 欧美日韩在线视频一区二区三区| 亚洲免费视频播放| 亚洲色图38p| 999在线观看视频| 日本黄色a视频| 99视频在线视频| 久色视频在线播放| 日韩video| 亚洲一区二区中文字幕在线观看| 男人亚洲天堂网| 日本a视频在线观看| 日韩精品久久一区二区| www.午夜色| 亚洲精品中文字幕乱码无线| 免费观看成人网| 免费看国产曰批40分钟| 99re6这里有精品热视频| 狠狠干狠狠操视频| 日本不卡一区二区在线观看| 亚洲黄色a v| 欧美婷婷精品激情| 中文字幕无码不卡免费视频| 精品一区二区中文字幕| 337p粉嫩大胆噜噜噜鲁| 国产二区视频在线播放| 男人天堂1024| 漂亮人妻被中出中文字幕| 99热在线这里只有精品| 欧洲av无码放荡人妇网站| 99久久久无码国产精品6| 欧美日韩黄色一级片| 欧美一级黄色片视频| 亚洲人成色77777| 日韩在线xxx| 午夜dv内射一区二区| 红桃视频 国产| 潘金莲一级淫片aaaaa免费看| 日本丰满大乳奶| 日韩亚洲欧美视频| 北条麻妃在线视频观看| 又色又爽又高潮免费视频国产| 成年人小视频网站| 91看片破解版| 国产一级做a爰片久久毛片男| 国产手机免费视频| 能在线观看的av网站| 天天色天天综合网| 97av中文字幕| 黑森林福利视频导航| 亚洲另类第一页| av网站手机在线观看| 免费在线观看日韩视频| www.午夜av| 精品久久久久久久久久中文字幕| mm1313亚洲国产精品无码试看| 亚洲av无日韩毛片久久| 69sex久久精品国产麻豆| 日韩精品一区二区三区色欲av| 红桃视频 国产| 五十路熟女丰满大屁股| 日本人69视频| 凹凸国产熟女精品视频| 操bbb操bbb| 免费看黄色一级大片| 91免费版看片| 手机av在线网| 女人和拘做爰正片视频| 9999在线观看| 日本精品免费在线观看| 麻豆一区二区三区在线观看| 亚洲三级视频网站| 天天综合天天添夜夜添狠狠添| 欧美图片激情小说| 国产老熟妇精品观看| 能看的毛片网站| 黄色成人免费看| 超碰97在线看| 一区二区三区视频网| 国产资源在线视频| 丰满女人性猛交| www.se五月| 天天干天天爽天天射| 欧美三级午夜理伦三级| 丰满少妇久久久| 亚洲国产一二三精品无码| 狠狠操狠狠干视频| 日本中文字幕高清| 日本精品一区在线观看| 欧美牲交a欧美牲交| 今天免费高清在线观看国语| 三级黄色片免费看| 欧美激情第一区| av亚洲天堂网| 午夜天堂在线视频| 加勒比av中文字幕| 国产高清999| 亚洲无在线观看| 欧洲美女亚洲激情| 一级一片免费播放| 久久精品一二三四| 五月天激情图片| www.av毛片| 精品国产一二三四区| 国产中文字幕在线免费观看| 又粗又黑又大的吊av| 国内自拍在线观看| 黄色片网址在线观看| 成熟老妇女视频| 日韩大片一区二区| 欧美性受黑人性爽| 欧美成人精品免费| 国产精品亚洲a| 亚洲精品www.| 四虎精品欧美一区二区免费| 欧美视频免费看欧美视频| 国产真人做爰毛片视频直播| 国产亚洲欧美在线视频| 在线免费观看视频黄| 超碰在线资源站| 97视频在线免费| 宅男噜噜噜66国产免费观看| 天天操夜夜操很很操| a级黄色小视频| 亚欧激情乱码久久久久久久久| 日韩精品在线播放视频| 男女视频网站在线观看|