后端开发|Python教程
python模拟登录,模拟登录百度,百度贴吧等级
后端开发-Python教程
hxj.data 源码,vscode c开发,ubuntu hybla,tomcat6.0.29,vb如何连接sqlite,悬浮电量插件,前端小项目用什么框架,python爬虫表单登录网页,php开发实战光盘,seo服务明细,免费做手机网站,winform 网页源码,凡科制作模板下载lzw
复制代码 代码如下:
asp源码在线编辑,ubuntu的uboot详解,现在Tomcat都用得少吗,爬虫滚动分页,php语言跟什么语言相似,seo引擎优lzw
# -*- coding: utf8 -*-
\
Created on -12-19
@author: good-temper
\
import urllib2
import urllib
import cookielib
import re
import bs4
URL_BAIDU_INDEX = u/;
#/v2/api/?getapi&class=login&tpl=mn&tangram=true 也可以用这个
URL_BAIDU_TOKEN = /v2/api/?getapi&tpl=pp&apiver=v3&class=login;
URL_BAIDU_LOGIN = /v2/api/?login;
zip php源码,用VS打开vscode工程,平板系统ubuntu,tomcat启动82秒,算法爬虫项目,php判断数组下标,老铁博客上海seo优化,仿花椒直播网站模板,会员html模板lzw
#设置用户名、密码
username = \;
password = \;
#设置cookie,这里cookiejar可自动管理,无需手动指定
cj = cookielib.CookieJar();
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj));
urllib2.install_opener(opener);
reqReturn = urllib2.urlopen(URL_BAIDU_INDEX);
#获取token,
tokenReturn = urllib2.urlopen(URL_BAIDU_TOKEN);
matchVal = re.search(u\"token" : "(?P.*?)",tokenReturn.read());
tokenVal = matchVal.group( okenVal);
#构造登录请求参数,该请求数据是通过抓包获得,对应/v2/api/?login请求
postData = {
username : username,
password : password,
u : /,
pl : pp,
oken : tokenVal,
staticpage : /static/passpc-account/html/v3Jump.html,
isPhone : false,
charset : UTF-8,
callback : parent.bd__pcbs__ra48vi
};
postData = urllib.urlencode(postData);
#发送登录请求
loginRequest = urllib2.Request(URL_BAIDU_LOGIN,postData);
loginRequest.add_header(Accept, ext/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8);
loginRequest.add_header(Accept-Encoding,gzip,deflate,sdch);
loginRequest.add_header(Accept-Language,zh-CN,zh;q=0.8);
loginRequest.add_header(User-Agent,Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/28.0.1500.72 Safari/537.36);
loginRequest.add_header(Content-Type,application/x-www-form-urlencoded);
sendPost = urllib2.urlopen(loginRequest);
#查看贴吧个人主页 ,测试是否登陆成功,由于cookie自动管理,这里处理起来方便很多
#/home/main?un=XXXX&fr=index 这个是贴吧个人主页,各项信息都可以在此找到链接
teibaUrl = /f/like/mylike?v=1387441831248
content = urllib2.urlopen(teibaUrl).read();
content = content.decode(gbk).encode(utf8);
print content;
#解析数据,用的BeautifulSoup4,感觉没有jsoup用的爽
soup = bs4.BeautifulSoup(content);
list = soup.findAll( r);
list = list[1:len(list)];
careTeibalist = [];
print 贴吧链接\t吧名\t等级;
for elem in list:
soup1 = bs4.BeautifulSoup(str(elem));
print /+soup1.find(a)[href]+\ +soup1.find(a)[ itle]+\ +soup1.find(a,{class,like_badge})[ itle];