python利用session来模拟登录进行爬虫抓取

很多网站内容在抓取时需要进行登录,不登录则无法获取到内容,这时就需要session来模拟进行登录的过程,有人会问使用cookie不行吗,当然不行,cookie只能在本地环境下使用,也就是你浏览器登录之后抓取cookie写入,然后再在本地运行脚本才能使用,当你放到服务器之后这个cookie就相当于失效的。

session模拟登录

header = {
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'}
    data = {
        "email": "",
        "passwd": "",
    }
    # 通过session模拟登录,每次请求带着session
    url1 = 'https:///auth/login'
    sess = requests.Session()
    f = sess.post(url1, data=data, headers=header)

上面代码可以看到 通过header定义了访问所需的ua标示

然后通过data定义登录需要填写的信息。

url1定义了登录地址(因为某些问题隐藏,可以在我开源的teelebot-invitecode的项目里查看)

sess来定义 reuests模块的Session方法

最后通过f = sess.post(url1, data=data, headers=header)来进行post提交数据,这时requests会自动对你的cookie进行操作,后面的抓取页面等操作直接使用sess.get进行操作即可,注意用的什么变量post的就要使用什么变量进行get操作,因为cookie只会绑定在这个变量里面

1

给TA打赏
共{{data.count}}人
人已打赏
折腾日记

如何利用teelebot机器人框架快速开发telegram机器人

2020-5-27 22:18:49

折腾日记

调整swap内存使用优先级优先使用swap

2020-6-11 18:07:01

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索