代码拉取完成,页面将自动刷新
'''
美团爬虫
'''
import requests
import execjs
from config import *
from urllib.parse import urlencode
def get_token( href ):
js = open('./_token.js',mode='r',encoding='utf-8').read()
cxt = execjs.compile( js )
_token = cxt.call("get_token",href)
return _token
def get_index( city = "沈阳"):
#获取_token
params = {
"cityName":city,
"cateId":"2",
"areaId":"0",
"sort":"",
"dinnerCountAttrId":"",
"page":"2",
"userId":"",
"uuid":"80e8b04b-0cfa-44aa-94b4-cb153148391e",
"platform":"1",
"partner":"126",
"originUrl":"https://hf.meituan.com/meishi/c17/",
"riskLevel":"1",
"optimusCode":"10"
}
href = ""
for k,v in params.items():
href += ( k+"&"+v)
href_data = domain["url"] + href
_token = get_token( href_data )
params["_token"] = _token
url = domain["url"] + urlencode( params )
r = requests.get( url = url ,headers=header )
if r.status_code == 200:
print( r.text )
def parse_index( html ):
pass
if __name__ == '__main__':
get_index()
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。