1500字范文,内容丰富有趣,写作好帮手!
1500字范文 > 使用 MitmProxy 自动抓取微信公众号阅读数 点赞和再看数据

使用 MitmProxy 自动抓取微信公众号阅读数 点赞和再看数据

时间:2019-09-10 03:21:08

相关推荐

使用 MitmProxy 自动抓取微信公众号阅读数 点赞和再看数据

文 |某某白米饭

来源:Python 技术「ID: pythonall」

某天接到一个需要抓取某某微信公众的所有历史文章的阅读数、点赞和再看数据的需求。

为了解放双手,就用 Python 代码撸一个,选择 MitmProxy 代理作为抓包工具,因为它可以使用 Python 代码监听抓取到的 url,用于自动获取 cookie 等场景。

什么是 MitmProxy

mitmproxy 是一个支持 HTTP 和 HTTPS 的抓包程序,有类似 Fiddler 的功能。

mitmproxy 还有两个关联组件。一个是 mitmdumvp,它是 mitmproxyv 的命令行接口,可以利用 Python 代码监听请求。另一个是 mitmweb,它是一个 Web 程序,可以观察 mitmproxy 抓取的请求。

安装和设置

使用 pip 安装

pipinstallmitmproxy

安装好之后,将手机端的代理 IP 设置为和 PC 的 IP 地址一样,和代理端口设置为:8080,用下面命令启动

mitmweb

将看到浏览器打开了一个http://127.0.0.1:8081/#/flows网页,这个就是 MitmProxy 的 web 控制台

在手机端浏览器输入mitm.im获取 PC 证书 和手机端的证书,都安装一下

注意:android 手机在安装证书时需要在[从存储设备安装]界面安装

阅读数、再看、点赞抓取

当安装好证书和设置好手机端 IP代理后,随便点击一篇微信公众号文章(这里使用本公众)

从图上可以看到,阅读、再看、点赞的url为https://mp .weixin. qq. com/mp/getappmsgext(提示:如果没有这个链接,可以右上角刷新文章),再看下它的request请求需要哪些东西

只需要一个文章 url、user-agent、cookie 和 body这四个基本的数据,别看下面body里面有二三十个数据其实都是吓唬人的,只需要其中7个,分别是 __biz, mid, idx,sn 这四个参数是获取公众号文章内容的基石,可以在文章 url 处获得。其他三个参数的数据是固定的分别是 is_only_read = 1,is_temp_url = 0,appmsg_type = 9。getappmsgext 请求中的 appmsg_token 是一个有时效性的参数。

分析完链接后就可以写代码了

#articles.pyimporthtmlimportrequestsimportutilsfromurllib.parseimporturlsplitclassArticles(object):"""文章信息"""def__init__(self,appmsg_token,cookie):#具有时效性self.appmsg_token=appmsg_tokenself.headers={"User-Agent":"Mozilla/5.0AppleWebKit/537.36(KHTML,likeGecko)Version/4.0Chrome/57.0.2987.132MQQBrowser/6.2Mobile","Cookie":cookie}self.data={"is_only_read":"1","is_temp_url":"0","appmsg_type":"9",}defread_like_nums(self,article_url):"""获取数据"""appmsgstat=self.get_appmsgext(article_url)["appmsgstat"]returnappmsgstat["read_num"],appmsgstat["old_like_num"],appmsgstat["like_num"]defget_params(self,article_url):"""获取到文章url上的请求参数:paramarticle_url:文章url:return:"""#url转义处理article_url=html.unescape(article_url)"""获取文章链接的参数"""url_params=utils.str_to_dict(urlsplit(article_url).query,"&","=")returnurl_paramsdefget_appmsgext(self,article_url):"""请求阅读数:paramarticle_url:文章url:return:"""url_params=self.get_params(article_url)appmsgext_url="https://mp. /mp/getappmsgext?appmsg_token={}&x5=0".format(self.appmsg_token)self.data.update(url_params)appmsgext_json=requests.post(appmsgext_url,headers=self.headers,data=self.data).json()if"appmsgstat"notinappmsgext_json.keys():raiseException(appmsgext_json)returnappmsgext_jsonif__name__=='__main__':info=Articles('1068_XQoMoGGBYG8Tf8k23jfdBr2H_LNekAAlDDUe2aG13TN2fer8xOSMyrLV6s-yWESt8qg5I2fJr1r9n5Y5','rewardsn=;wxtokenkey=777;wxuin=1681274216;devicetype=android-29;version=27001037;lang=zh_CN;pass_ticket=H9Osk2CMhrlH34mQ3w2PLv/RAVoiDxweAdyGh/Woa1qwGy2jGATJ6hhg7syTQ9nk;wap_sid2=COjq2KEGEnBPTHRVOHlYV2U4dnRqaWZqRXBqaWl3Xy1saXVWYllIVjAzdlM1VkNDNHgxeWpHOG9pckdkREMwTFEwYmNWMl9FZWtRU3pRRnhDS0pyV1BaZUVMWXN1ZWN0WnZ6aHFXdVBnbVhTY21BYnBSUXNCQUFBMLLAjfgFOA1AAQ==')a,b,c=info.read_like_nums('http://mp. /s?__biz=MzU1NDk2MzQyNg==&mid=2247486254&idx=1&sn=c3a47f4bf72b1ca85c99190597e0c190&chksm=fbdad3a3ccad5ab55f6ef1f4d5b8f97887b4a344c67f9186d5802a209693de582aac6429a91c&scene=27#wechat_redirect')print(a,b,c)

示例结果

#阅读数点赞数再看数15612318

动态获取 cookie 和 appmsg_token

appmsg_token 是一个具有时效性的参数,和 cookie 一样是需要改变的,当这两个参数过期时就需要从抓包工具(MitmProxy 中)ctrl+C,ctrl+V到代码中,很是麻烦。

MitmProxy 可以使用命令行接口 mitmdumvp 运行 Python 代码监听抓取的链接,如果抓到了https://mp. /mp/getappmsgext就保存在本地文件并退出抓包

mitmdump 命令

#-s运行的python脚本,-w将截取的内容保持到文件mitmdump-swrite_cookie.py-woutfilemp./mp/getappmsgext

监听脚本

#coding:utf-8#write_cookie.pyimporturllibimportsysfrommitmproxyimporthttp#command:mitmdump-swrite_cookie.py-woutfilemp./mp/getappmsgextclassWriterCookie:"""mitmproxy的监听脚本,写入cookie和url到文件"""def__init__(self,outfile:str)->None:self.f=open(outfile,"w")defresponse(self,flow:http.HTTPFlow)->None:"""完整的response响应:paramflow:flow实例,"""#获取urlurl=urllib.parse.unquote(flow.request.url)#将url和cookie写入文件if"mp. /mp/getappmsgext"inurl:self.f.write(url+'\n')self.f.write(str(flow.request.cookies))self.f.close()#退出exit()#第四个命令中的参数addons=[WriterCookie(sys.argv[4])]

监听脚本写好之后,再来写启动命令和解析 url,cookie 文件的模块

#read_cookie.pyimportreimportosclassReadCookie(object):"""启动write_cookie.py和解析cookie文件,"""def__init__(self,outfile):self.outfile=outfiledefparse_cookie(self):"""解析cookie:return:appmsg_token,biz,cookie_str·"""f=open(self.outfile)lines=f.readlines()appmsg_token_string=re.findall("appmsg_token.+?&",lines[0])biz_string=re.findall('__biz.+?&',lines[0])appmsg_token=appmsg_token_string[0].split("=")[1][:-1]biz=biz_string[0].split("__biz=")[1][:-1]cookie_str=';'.join(lines[1][15:-2].split('],[')).replace('\'','').replace(',','=')returnappmsg_token,biz,cookie_strdefwrite_cookie(self):"""启动 write_cookie。py:return:"""#当前文件路径path=os.path.split(os.path.realpath(__file__))[0]#mitmdump-s执行脚本-w保存到文件本命令command="mitmdump-s{}/write_cookie.py-w{}mp./mp/getappmsgext".format(path,self.outfile)os.system(command)if__name__=='__main__':rc=ReadCookie('cookie.txt')rc.write_cookie()appmsg_token,biz,cookie_str=rc.parse_cookie()print("appmsg_token:"+appmsg_token,"\nbiz:"+biz,"\ncookie:"+cookie_str)

示例结果

cookie.txt 文件内容解析后

appmsg_token:1068_av3JWyDn2XCS2fwFj3ICCnwArRb2kU4Y5Y5m9Z9NkWoCOszl3a-YHFfBkAguUlYQJi2dWo83AQT4FsNKbiz:MzU1NDk2MzQyNg==cookie:rewardsn=; wxtokenkey=777;wxuin=1681274216;devicetype=android-29;version=27001037;lang=zh_CN;pass_ticket=H9Osk2CMhrlH34mQ3w2PLv/RAVoiDxweAdyGh/Woa1qwGy2jGATJ6hhg7syTQ9nk;wap_sid2=COjq2KEGEnBPTHRVOHlYV2U4dnRqaWZqRXBqaWktTHpUSEJnTTdhU0hVZTEtZXpZZEY4a3lNY29zc0VZeEFvLS01YmJRRnQ5eFRmR2dOY29nUWdKSTRVWG13WE1obGs1blhQcVh0V18tRnBSRnVlc1VhOHNCQUFBMPeIjfgFOA1AAQ==

ReadCookie 模块可以自动获取到 appmsg_token 和 cookie,将它们当作参数一样传递到 Articles 模块中,就能解放双手再也不要复制黏贴 appmsg_token 和 cookie 了,只要在 appmsg_token 过期时刷新一下公众号文章就可以了,省心又省时

批量抓取

在公众号历史消息界面将屏幕向上滑动,每次都可以加载 10 条历史消息,盲猜这个翻页就是批量抓取的请求链接,用 MitmProxy 的 WEBUI 界面在 Response 面板查找一下,找到一个是 https://mp. /mp/profile_ext?action=getmsg&__biz=MzU1NDk2MzQyNg==&f=json&offset=10&count=10... 的链接,它的响应返回值中有多个文章标题,再看这个链接上有 offset=10&count=10 参数,一看就是翻页偏移量和每页显示的条数,就它了

在链接中比较重要的参数有:__biz、offset、pass_ticket、appmsg_token ,这些数据都可以在 cookie 和 appmsg_token 中得到。

#utils.py#工具模块,将字符串变成字典defstr_to_dict(s,join_symbol="\n",split_symbol=":"):s_list=s.split(join_symbol)data=dict()foritemins_list:item=item.strip()ifitem:k,v=item.split(split_symbol,1)data[k]=v.strip()returndata

#coding:utf-8#wxCrawler.pyimportosimportrequestsimportjsonimporturllib3importutilsclassWxCrawler(object):"""翻页内容抓取"""urllib3.disable_warnings()def__init__(self,appmsg_token,biz,cookie,begin_page_index=0,end_page_index=100):#起始页数self.begin_page_index=begin_page_index#结束页数self.end_page_index=end_page_index#抓了多少条了self.num=1self.appmsg_token=appmsg_tokenself.biz=bizself.headers={"User-Agent":"Mozilla/5.0AppleWebKit/537.36(KHTML,likeGecko)Version/4.0Chrome/57.0.2987.132MQQBrowser/6.2Mobile","Cookie":cookie}self.cookie=cookiedefarticle_list(self,context):articles=json.loads(context).get('general_msg_list')returnjson.loads(articles)defrun(self):#翻页地址page_url="https://mp. /mp/profile_ext?action=getmsg&__biz={}&f=json&offset={}&count=10&is_ok=1&scene=&uin=777&key=777&pass_ticket={}&wxtoken=&appmsg_token="+self.appmsg_token+"&x5=0f=json"#将cookie字典化wx_dict=utils.str_to_dict(self.cookie,join_symbol=';',split_symbol='=')#请求地址response=requests.get(page_url.format(self.biz,self.begin_page_index*10,wx_dict['pass_ticket']),headers=self.headers,verify=False)#将文章列表字典化articles=self.article_list(response.text)forainarticles['list']:#公众号中主条if'app_msg_ext_info'ina.keys()and''!=a.get('app_msg_ext_info').get('content_url',''):print(str(self.num)+"条",a.get('app_msg_ext_info').get('title'),a.get('app_msg_ext_info').get('content_url'))#公众号中副条if'app_msg_ext_info'ina.keys():formina.get('app_msg_ext_info').get('multi_app_msg_item_list',[]):print(str(self.num)+"条",m.get('title'),a.get('content_url'))self.num=self.num+1self.is_exit_or_continue()#递归调用self.run()defis_exit_or_continue(self):self.begin_page_index=self.begin_page_index+1ifself.begin_page_index>self.end_page_index:os.exit()

最后用自动化cookie启动程序后刷新公众号文章

#coding:utf-8#main.pyfromread_cookieimportReadCookiefromwxCrawlerimportWxCrawler"""程序启动类"""ssif__name__=='__main__':cookie=ReadCookie('E:/python/cookie.txt')cookie.write_cookie()appmsg_token,biz,cookie_str=cookie.parse_cookie()wx=WxCrawler(appmsg_token,biz,cookie_str)wx.run()

示例结果

总结

虽然本文可能有那么一点点一点点的标题党,并没有完全的自动抓取数据,还需要人为的刷新一下公众号文章。希望小伙伴们不要介意哈。如果需要抓取微信文章,推荐参考本公众号的【第 129 天:爬取微信公众号文章内容】。

PS:公号内回复「Python」即可进入Python 新手学习交流群,一起100天计划!

老规矩,兄弟们还记得么,右下角的 “在看” 点一下,如果感觉文章内容不错的话,记得分享朋友圈让更多的人知道!

代码获取方式

识别文末二维码,回复:07

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。