1. 南猫Home
  2. 折腾日记

python利用session来模拟登录进行爬虫抓取

很多网站内容在抓取时需要进行登录,不登录则无法获取到内容,这时就需要session来模拟进行登录的过程,有人会问使用cookie不行吗,当然不行,cookie只能在本地环境下使用,也就是你浏览器登录之后抓取cookie写入,然后再在本地运行脚本才能使用,当你放到服务器之后这个cookie就相当于失效的。

session模拟登录

header = {
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'}
    data = {
        "email": "",
        "passwd": "",
    }
    # 通过session模拟登录,每次请求带着session
    url1 = 'https:///auth/login'
    sess = requests.Session()
    f = sess.post(url1, data=data, headers=header)

上面代码可以看到 通过header定义了访问所需的ua标示

然后通过data定义登录需要填写的信息。

url1定义了登录地址(因为某些问题隐藏,可以在我开源的teelebot-invitecode的项目里查看)

sess来定义 reuests模块的Session方法

最后通过f = sess.post(url1, data=data, headers=header)来进行post提交数据,这时requests会自动对你的cookie进行操作,后面的抓取页面等操作直接使用sess.get进行操作即可,注意用的什么变量post的就要使用什么变量进行get操作,因为cookie只会绑定在这个变量里面

1

原创文章,作者:南猫,如若转载,请注明出处:https://southcat.net/2555/


不妨点个广告再走嘛

Leave a Reply

Your email address will not be published. Required fields are marked *