当前位置 : 主页 > 编程语言 > java >

爬虫案例:自动登录抽屉新热榜

来源:互联网 收集:自由互联 发布时间:2022-06-30
爬虫案例:自动登录抽屉新热榜 写在前面 刚开始我以为抽屉是一个项目,就是类似于那种抽屉的效果,然后就在纠结还要不要学这个单元,因为我没有现成的案例拿来用,如果要用的

爬虫案例:自动登录抽屉新热榜


 写在前面

  刚开始我以为抽屉是一个项目,就是类似于那种抽屉的效果,然后就在纠结还要不要学这个单元,因为我没有现成的案例拿来用,如果要用的话还要自己写很费时间,但是不想混过去,心里有个心事不舒服,就想去网上down一个,结果就找到了抽屉...

    在对网站进行爬取的时候,一定要伪装成浏览器!!!

      在对网站进行爬取的时候,一定要伪装成浏览器!!!

        在对网站进行爬取的时候,一定要伪装成浏览器!!!


​​https://dig.chouti.com/​​


   爬虫案例:自动登录抽屉新热榜_ajax

编前思考

 1、首先我们要考虑抽屉网站是通过 form 还是 ajax 提交登录的。

  form :当点击提交按钮时页面会全部刷新。

  ajax:当点击提交按钮时页面不会刷新。

  OK,抽屉网站使用的是ajax提交,不会刷新。

 2、编写代码登录抽屉官网

  首先对网站提交进行分析。

   爬虫案例:自动登录抽屉新热榜_firefox_02

# __author : "王佳伟"
# date : 2019-01-16

import requests

# 提交的参数
post_data = {
"phone": '86'+'15668318888',
'password': '123',
'oneMonth': 1 # 一个月内免登陆
}

# 一定要添加浏览器,不然可能会遇到网络防火墙
headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:58.0) Gecko/20100101 Firefox/58.0'}

response = requests.post(
url='https://dig.chouti.com/login',
# 伪装成浏览器
headers =headers,
data=post_data,
)

print(response.text)
# 获取cookie
cookie_dic = response.cookies.get_dict()
print(cookie_dic)

  爬虫案例:自动登录抽屉新热榜_firefox_03

   ···· 注意:注册账号,填写正确的手机号和密码会登陆成功!

   爬虫案例:自动登录抽屉新热榜_firefox_04

 登录抽屉,获取设置页

   抽屉做了一件对于爬取的用户来说很烦,但是对于网站的安全性来说确实很棒的一件事!!!

  抽屉网比较特别,一般的网站在登陆的时候会返回一个cookies,以后再次登陆的时候只要带着这个cookies去登陆就可以,但是抽屉网得特别之处在于登陆后返回给用户得cookies是没用得,这是抽屉网做出来混淆视听得一种做法。

  我们第一次打开抽屉网得时候,用get请求发送,这时候其实抽屉网会返回一个cookies。

import requests

# 一定要添加浏览器,不然可能会遇到网络防火墙
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:58.0) Gecko/20100101 Firefox/58.0'}

r1 = requests.get(
url='http://dig.chouti.com/',
headers = headers
)
# 获取第一次进入主页得到的cookie
r1_cookie_dic = r1.cookies.get_dict()
print(r1_cookie_dic)

爬虫案例:自动登录抽屉新热榜_ajax_05

  然后在此页面进行登陆的时候,发送post请求,其实就是对get请求返回得cookies进行授权,登陆名和密码登陆成功,也就是授权cookies,然后就可以用这个cookies进行自动登陆或者点赞设置等。

  注意的是,发送post请求得时候其实也会返回一个cookies,但是这个cookies是无用得,所以正确得cookies应该是第一次拿到得cookies才可以正确登陆。但是大多数网站不是这样的,只有抽屉是这样!!

具体代码

# __author : "王佳伟"
# date : 2019-01-16

import requests

# 一定要添加浏览器,不然可能会遇到网络防火墙
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64; rv:58.0) Gecko/20100101 Firefox/58.0'}

# 第一次去抽屉拿到需要授权的cookies
r1 = requests.get(
url='http://dig.chouti.com/',
headers=headers
)

# 获取第一次进入主页得到的cookie
r1_cookie_dic = r1.cookies.get_dict()
print(r1_cookie_dic)

# 登录的提交参数
post_data = {
"phone": '86' + '你抽屉官网注册的手机号',
'password': '你的抽屉官网密码',
'oneMonth': 1 # 一个月内免登陆
}

# 第二次登录抽屉
response = requests.post(
url='https://dig.chouti.com/login',
# 为了模拟浏览器得行为,每次都要带着请求头去这样这样不会容易被发现是爬虫。
headers=headers,
data=post_data,
# 第二次登陆发送post请求时,应该将第一次得cookies带过去授权,所以要带着cookies。
cookies=r1_cookie_dic
)
print(response.text)
# 获取第二次登录返回的cookie,尽管有返回,但是第二次返回的这个cookie没有用
cookie_dic = response.cookies.get_dict()
print(cookie_dic)

# 进入个人设置页面
response = requests.get(
url='https://dig.chouti.com/profile',
# 模拟浏览器
headers=headers,
# 提交cookie(一般网站使用下面这句代码就行,抽屉不行)
# cookies=cookie_dic,
# 抽屉官网有点淘气,阴了我们一下,将授权好的第一次的cookies带进去访问
cookies={'gpsd': r1_cookie_dic.get('gpsd')}
)
# 输出返回的页面
print(response.text)

   爬虫案例:自动登录抽屉新热榜_官网_06

 

【版权声明】本博文著作权归作者所有,任何形式的转载都请联系作者获取授权并注明出处!

【重要说明】本文为本人的学习记录,论点和观点仅代表个人而不代表当时技术的真理,目的是自我学习和有幸成为可以向他人分享的经验,因此有错误会虚心接受改正,但不代表此刻博文无误!

【Gitee地址】秦浩铖:​​https://gitee.com/wjw1014​​


网友评论