求图片pixiv id怎么填

请问这张图的画师是谁,顺便求下pixiv id_百度知道
请问这张图的画师是谁,顺便求下pixiv id
//f.com/zhidao/wh%3D450%2C600/sign=87bf47db95fedc7e37b1a/38dbb6fd307d922bd40735fa35ae.baidu.jpg" esrc="http.hiphotos.hiphotos://f://f.com/zhidao/wh%3D600%2C800/sign=d42123fcac014ca4b2e30/38dbb6fd307d922bd40735fa35ae.baidu.jpg" target="_blank" title="点击查看大图" class="ikqb_img_alink"><img class="ikqb_img" src="/zhidao/pic/item/38dbb6fd307d922bd40735fa35ae.baidu.<a href="http&nbsp
提问者采纳
画师397@ついった
麻烦给采纳
抱歉不知为何我找不到……
作品已经被删了
提问者评价
太给力了,你的回答完美的解决了我的问题!
其他类似问题
为您推荐:
pixiv的相关知识
其他2条回答
画师离开P站或者换号图片已删除
日本动漫。。
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁求图片原图跟p站ID_百度知道
求图片原图跟p站ID
//b://b.baidu.jpg" target="_blank" title="点击查看大图" class="ikqb_img_alink"><img class="ikqb_img" src="/zhidao/wh%3D450%2C600/sign=d42ae1d0418ad/abb57adab44aede0f8://b.hiphotos.baidu.jpg" esrc="/zhidao/wh%3D600%2C800/sign=124c823c8444ebf86d246c39e9c9fb12/abb57adab44aede0f8.hiphotos谷歌搜图跟saucenao都死活打不开简直了./zhidao/pic/item/abb57adab44aede0f8.<a href="http
提问者采纳
P站画师RunaMen作品 [HTF拟人化]Pixiv ID: Member: RunaMenP站原图已删
唔..谷歌搜图能搜出来么?
用sauce搜的·
嗯..想拜托帮忙用一下谷歌识图w
找到的只有一堆头像··
提问者评价
来自团队:
其他类似问题
为您推荐:
其他1条回答
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁求该图片p站画师名或id_百度知道
求该图片p站画师名或id
jpg" target="_blank" title="点击查看大图" class="ikqb_img_alink"><img class="ikqb_img" src="<img class="ikqb_img" src="http.hiphotos:&&nbsp.hiphotos.baidu://b.hiphotos这张图片在P站上已经被删除原Pixiv&nbsp.net/member?id=52338/zhidao/wh%3D450%2C600/sign=e736dcaec224f4a20a959ad7c4
有点小失望
提问者评价
太给力了,你的回答完美解决了我的问题!
其他类似问题
为您推荐:
画师的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁python爬虫学习--pixiv爬虫(2)--国际排行榜的图片爬取
之前用面向过程的形式写了一下pixiv爬虫的登录...觉得还是面向对象好一些...那就先把登录过程重写一下...class Pixiv_Spider:
def __init__(self):
self.p_id = &#39;&#39;
self.p_pw = &#39;&#39;
def Login(self):
#处理登录所需要的请求信息
p_login_url = &#39;https://www.pixiv.net/login.php&#39;
#登录所要post的信息
&#39;mode&#39;:&#39;login&#39;,
&#39;skip&#39;:1
data[&#39;pixiv_id&#39;] = self.p_id
#传入登录id以及password
data[&#39;pass&#39;] = self.p_pw
p_login_data = urllib.urlencode(data)
p_login_header = {
&#39;accept-language&#39;:&#39;zh-cn,q=0.8&#39;,
&#39;referer&#39;:&#39;https://www.pixiv.net/login.php?return_to=0&#39;,
&#39;user-agent&#39;:&#39;mozilla/5.0 (windows nt 10.0; win64; x64; rv:45.0) gecko/ firefox/45.0&#39;
request = urllib2.Request(
url = p_login_url,
data = p_login_data,
headers = p_login_header
cookie_file = &#39;cookie.txt&#39;
#生成cookie
cookie = cookielib.MozillaCookieJar(cookie_file)
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
response = opener.open(request)
cookie.save(ignore_discard = True,ignore_expires = True)
except urllib2.URLError,e:
if hasattr(e,&reason&):
print &登录失败???&,e.reasonps = Pixiv_Spider()ps.p_id = raw_input(&#39;请输入你的pixiv id:&#39;)ps.p_pw = raw_input(&#39;请输入你的pixiv密码:&#39;)ps.Login()登录完成后就可以进行我们想要图片批量爬取了...首先需要写一个方法利用一下前面登录的cookie...def Cookie_Login(self):
#读取之前登陆生成的cookie
cookie_login = cookielib.MozillaCookieJar()
cookie_login.load(&#39;cookie.txt&#39;,ignore_discard = True,ignore_expires = True)
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie_login))
return opener为了以后的需要...我们在这里写一个选项菜单...方便以后添加更多的功能...def Choice_Pixiv(self,opener):
#选择要跳转到的页面
if (self.p_choice == &#39;1&#39;):
p_page = opener.open(self.p_international_url)
#p_international_url = &#39;http://www.pixiv.net/ranking_area.php?type=detail&no=6&#39;
p_international = p_page.read().decode(&#39;utf-8&#39;)
#利用cookie登录后的页面
except urllib2.URLError,e:
if hasattr(e,&reason&):
print &连接错误:&,e.reason这个时候就可以写今天的主体了国际榜的方法了...这次需要一个非常厉害的东西 BeautifulSoup...它可以帮助我们在这里进一步提取html中的关键细节def Pixiv_International(self,opener,p_international,dl_dir):
soup = BeautifulSoup(p_international)
for i in range(1,101):&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #已知pixiv国际榜的排名为100名,用for循环来完成&#160;&#160;&#160;
get_information = str(soup.find(id=i))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #通过bs处理html将我们所需要的信息大体提取出来在pixiv的国际榜中有单张上传的图片,多张上传的图片,还有一中漫画&#26684;式和动图先来看一下他们在页面代码中是什么样子单张图片:&a class=&work _work & href=&member_illust.php?mode=medium&illust_id=&& href中的就是我们正常浏览作品时的url的一部分so...将它提取出来... result_url = re.pile(&#39;&.*?work/s_work/s&.*?href=&(.*?)&&&#39;,re.S),get_information)多张图片:动图:漫画多图:同理还是提取出中间的href...result_multiple = re.pile(&#39;&a.*?work/s_work/smultiple/s.*?href=&(.*?)&&&#39;,re.S),get_information)
#多图result_video = re.pile(&#39;&a.*?work/s_work/sugoku-illust/s.*?href=&(.*?)&&&#39;,re.S),get_information)
#动图result_manga_multiple = re.pile(&#39;&a.*?work/s_work/smanga/smultiple/s.*?href=&(.*?)&&&#39;,re.S),get_information)
#漫画多图在当我们用re.search搜索不到的时候,他就会返回一个None...利用这一点我们就可以判断图片模式了由于功力不足...我无法抓取动图...所以放弃动图...其他的单图,多图和漫画多图在后面处理的时候不一样...所以这样写if result_video == None:
#判断是否是动图
if result_manga_multiple == None:
#判断是否为manga
if result_multiple == None:
#判断是否为多图
p_url = &#39;http://www.pixiv.net/&#39; + result_url.group(1)
p_url = &#39;http://www.pixiv.net/&#39; + result_multiple.group(1)
p_url = &#39;http://www.pixiv.net/&#39; + result_manga_multiple.group(1)else:
print &诶呀!这是张动图...无能为力啊...╮(╯▽╰)╭&这下子我们就能拥有浏览这些图片的url了...但是这个时候我们输出一下会发现有些和我们想象中的不一样啊(╯‵□′)╯︵┴─┴http://www.pixiv.net/member_illust.php?mode=medium&illust_id=http://www.pixiv.net/member_illust.php?mode=medium&illust_id=经过仔细对比发现是url中间的&在前面的处理中被转义成&了...我们再写一个工具类来帮助我们将他转换回来...class Tools:
remove = re.compile(&#39;&#39;)
def removesomething(self,x):
x = re.sub(self.remove,&&,x)
return x.strip()通过re.compile找出多出来的,再用re.sub赋空字符就可以了...想要调用这个类,在爬虫类Pixiv_Spider的__init__中增加这条代码就可以了def __init__(self):
self.tool = Tools()经过一番折腾现在的代码变成这样了if result_video == None:
if result_manga_multiple == None:
#判断是否为manga
if result_multiple == None:
#判断是否为多图
print &报告!前方发现单张张图片...&
p_url = self.tool.removesomething(&#39;http://www.pixiv.net/&#39; + result_url.group(1))
print &报告!前方发现多张图片...&
&#160;p_url = self.tool.removesomething(&#39;http://www.pixiv.net/&#39; + result_multiple.group(1))
print &报告!前方发现多张图片...&
p_url = self.tool.removesomething(&#39;http://www.pixiv.net/&#39; + result_manga_multiple.group(1))else:
print &诶呀!前方这是张动图...无能为力啊...╮(╯▽╰)╭&光url提取出来还不够,我还想保存这些图片的信息:标题,p站id,作者等等...再来看一下刚刚的html...标题:p站id:作者:再写一个方法将这些信息打印到屏幕上并将它们以文件形式保存...def Download_Data(self,i,get_information,p_url):
#通过使用正则表达式再处理一遍经过bs处理的html代码,找到需要的信息(url,title,user)
result_title = re.pile(&#39;&a href=&.*?&(.*?)&/a&&#39;,re.S),get_information)
result_id = re.pile(&#39;&a class.*?illust_id=(.*?)&&&#39;,re.S),get_information)
result_user = re.pile(&#39;&span class.*?&(.*?)&/span&&#39;,re.S),get_information)
p_rank = str(i)
#在屏幕上输出信息
print &RANK #& + p_rank
p_id = result_id.group(1)
print &Pixiv ID:& + p_id
p_title = result_title.group(1)
print &Title:& + p_title
p_user = result_user.group(1)
print &User:& + p_user
file_data = open(&#39;E:/pixivdata/&#39; + dl_dir + &#39;/pixiv_&#39; + p_id + &#39;.txt&#39;,&#39;w&#39;)
#创建信息文件
massage = [
&#39;rank:&#39; + p_rank +&#39;/n&#39;,
&#39;id:&#39; + p_id + &#39;/n&#39;,
&#39;title:&#39; + p_title + &#39;/n&#39;,
&#39;user:&#39; + p_user + &#39;/n&#39;,
&#39;url:&#39; + p_url
file_data.writelines(massage)
file_data.close()
print &pixiv信息保存成功&
#将信息以txt格式保存下来&#160;
return p_id墨迹了这么长时间,收集了足够的信息...现在可以写下载的部分了...先看下网页...单张图片:多张图片(漫画和普通多图):经过观察我们发现多图的界面可以看到一共有多少张图片...这样子我们就可以先将多图的图片数提取出来...soup = BeautifulSoup(opener.open(p_url))result_pic_more = re.pile(&#39;&/li&&li&.*?/s(.*?)P&/li&&#39;,re.S),str(soup.find_all(&ul&,class_=&meta&)))print &报告!发现图片& + result_pic_more.group(1) + &张...&点开多图...跳转到另一个页面...通过查看网页代码发现他指向了这样一个url...点进去发现这里就是我们想要的原图,后面的page控制了图片在多图中的顺序http://www.pixiv.net/member_illust.php?mode=manga_big&illust_id=&page=0除了page以外...这个url和我们刚刚爬到的url还是有点区别...那就在Tools()里给它构造出一个一样的http://www.pixiv.net/member_illust.php?mode=medium&illust_id=make_m = re.compile(&#39;mode=medium&#39;)def make_big_url(self,x):
x = re.sub(self.make_m,&mode=manga_big&,x)
return x.strip()于是通过现有信息来进行爬取for j in range(0,int(result_pic_more.group(1))):
make_url = self.tool.make_big_url(p_url)+&#39;&page=&#39;+str(j)
m_soup = BeautifulSoup(opener.open(make_url))
real_url = re.pile(&#39;&img.*?src=&(.*?)&/&&#39;,re.S),str(m_soup.find_all(&img&)
print &#39;成功找到大图链接(ˉ﹃ˉ).../n&#39; + real_url.group(1)
#下载图片并保存
d_url = opener.open(make-url)&#160;
file_pic = open(&#39;E:/pixivdata/pixiv_&#39; + p_id + &#39;_&#39; + str(j) + &#39;.jpg&#39;,&#39;wb&#39;)
file_pic.write(d_url.read)
file_pic.close()但是到程序到这里就会报错...找来找去发现在当访问原图的url的时候浏览器会向服务器发送一个请求头...这个请求头与之前的请求头有区别的是它多了一个参数Referer...如果在只访问原图url的时候...浏览器(我们的程序)并不会发送带Referer的请求头...服务器收到这个请求头但是不会回应...于是就悲催了...403那么我们就给他一个Referer...def Download_Request(self,opener,make_url,real_url):
p_download_header = {
&#39;Accept-Language&#39;:&#39;zh-CN,q=0.8&#39;,
&#39;User-Agent&#39;:&#39;Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:45.0) Gecko/ Firefox/45.0&#39;
p_download_header[&#39;Referer&#39;] = make_url
#将referer加入header,没有referer会显示403
download_request = urllib2.Request(
url = real_url.group(1),
headers = p_download_header
decode_url = opener.open(download_request)
return decode_url.read()不光是这里...细心的人可以发现我们提交的Referer和浏览器上看到的有点区别我们还是在刚刚的Tools()里再写一个方法处理它rmbig = re.compile(&#39;_big&#39;)def removebig(self,x):
x = re.sub(self.rmbig,&&,x)
return x.strip()p_download_header[&#39;Referer&#39;] = self.tool.removebig(make_url)这下可以成功抓取多张图片了...不过我在这里再给程序添加个小功能...就是将图片按照服务器上的文件&#26684;式进行保存...在Tool()中添加下面的方法...def Pic_Type(self,real_url):
#区分图片分辨率
p_type = re.pile(&#39;png&#39;,re.S),real_url)
if p_type == None:
self.pic_type = &#39;jpg&#39;
return self.pic_type
self.pic_type = &#39;png&#39;
return self.pic_type这样我们多图下载的功能就完成了for j in range(0,int(result_pic_more.group(1))):
make_url = p_url+&#39;&page=&#39;+str(j)
#生成多张的url
m_soup = BeautifulSoup(opener.open(make_url))
real_url = re.pile(&#39;&img.*?src=&(.*?)&/&&#39;,re.S),str(m_soup.find_all(&img&)))
p_type = self.tool.Pic_Type(real_url.group(1))
print &#39;成功找到大图链接(ˉ﹃ˉ).../n&#39; + real_url.group(1)#下载图片并保存
file_pic = open(&#39;E:/pixivdata/pixiv_&#39; + p_id + &#39;_&#39; + str(j) + &#39;.&#39; + p_type,&#39;wb&#39;)
file_pic.write(self.Download_Request(opener,make_url,real_url))
file_pic.close()
print &#39;成功下载到本地(/≧▽≦)/...&#39;点开单图...使其最大化...用查看网页代码...找到了单张图片大图的url...http://i4.pixiv.net/img-original/img//16/00/01/.png和多图的差不多soup = BeautifulSoup(opener.open(p_url))real_url = re.pile(&#39;.*?data-src=&(.*?)&&#39;,re.S),str(soup.find_all(&img&,class_=&original-image&)))print &#39;成功找到大图链接(ˉ﹃ˉ).../n&#39; + real_url.group(1)p_type = self.tool.Pic_Type(real_url.group(1))file_pic = open(&#39;E:/pixivdata/&#39; + dl_dir + &#39;/pixiv_&#39; + p_id + &#39;.&#39; + p_type,&#39;wb&#39;)
file_pic.write(self.Download_Request(opener,make_url,real_url))file_pic.close()print &#39;成功下载到本地(/≧▽≦)/...&#39;整理一下...下载的方法就写好了...def Download_Pic(self,p_num,i,opener,p_url,p_id,dl_dir):
if p_num == &#39;1&#39;:&#160;&#160;&#160; soup = BeautifulSoup(opener.open(p_url))&#160;&#160;&#160; real_url = re.pile(&#39;.*?data-src=&(.*?)&&#39;,re.S),str(soup.find_all(&img&,class_=&original-image&)))&#160;&#160;&#160; print &#39;成功找到大图链接(ˉ﹃ˉ).../n&#39; + real_url.group(1)&#160;&#160;&#160; p_type = self.tool.Pic_Type(real_url.group(1))&#160;&#160;&#160; file_pic = open(&#39;E:/pixivdata/&#39; + dl_dir + &#39;/pixiv_&#39; + p_id + &#39;.&#39; + p_type,&#39;wb&#39;)
file_pic.write(self.Download_Request(opener,p_url,real_url))&#160;&#160;&#160; file_pic.close()&#160;&#160;&#160; print &#39;成功下载到本地(/≧▽≦)/...&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#160;&#160;
if p_num == &#39;more&#39;:
soup = BeautifulSoup(opener.open(p_url))&#160;&#160;&#160; result_pic_more = re.pile(&#39;&/li&&li&.*?/s(.*?)P&/li&&#39;,re.S),str(soup.find_all(&ul&,class_=&meta&)))&#160;&#160;&#160; print &发现图片& + result_pic_more.group(1) + &张...⊙▽⊙&&#160;&#160;&#160; for j in range(0,int(result_pic_more.group(1))):
make_url = self.tool.make_big_url(p_url)+&#39;&page=&#39;+str(j)&#160;&#160;&#160;&#160;&#160; #生成多张的url
m_soup = BeautifulSoup(opener.open(make_url))
real_url = re.pile(&#39;&img.*?src=&(.*?)&/&&#39;,re.S),str(m_soup.find_all(&img&)))
p_type = self.tool.Pic_Type(real_url.group(1))
print &#39;成功找到大图链接(ˉ﹃ˉ).../n&#39; + real_url.group(1)&#160;&#160;&#160;&#160; #下载图片并保存
file_pic = open(&#39;E:/pixivdata/&#39; + dl_dir + &#39;/pixiv_&#39; + p_id + &#39;_&#39; + str(j) + &#39;.&#39; + p_type,&#39;wb&#39;) &#160;
file_pic.write(self.Download_Request(opener,make_url,real_url))
file_pic.close()&#160;&#160;&#160;&#160;&#160; print &#39;成功下载到本地(/≧▽≦)/...&#39;写了这么多我们整理下就是我们想要的小程序了#coding:UTF-8__author__ = &#39;monburan&#39;__version__ = &#39;0.10 only_international&#39;import osimport reimport urllibimport urllib2import cookielibfrom urllib2 import urlopenfrom bs4 import BeautifulSoupclass Tools:&#160;&#160;&#160; remove = re.compile(&#39;&#39;)&#160;&#160;&#160; rmbig = re.compile(&#39;_big&#39;)&#160;&#160;&#160; make_m = re.compile(&#39;mode=medium&#39;)&#160;&#160; &#160;&#160;&#160;&#160; def removebig(self,x):&#160;&#160;&#160;&#160;&#160;&#160;&#160; x = re.sub(self.rmbig,&&,x)&#160;&#160;&#160;&#160;&#160;&#160;&#160; return x.strip()&#160;&#160;&#160; def removesomething(self,x):&#160;&#160;&#160;&#160;&#160;&#160;&#160; x = re.sub(self.remove,&&,x)&#160;&#160;&#160;&#160;&#160;&#160;&#160; return x.strip()&#160;&#160;&#160; def make_big_url(self,x):&#160;&#160;&#160;&#160;&#160;&#160;&#160; x = re.sub(self.make_m,&mode=manga_big&,x)&#160;&#160;&#160;&#160;&#160;&#160;&#160; return x.strip()&#160;&#160;&#160; def Pic_Type(self,real_url):&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #区分图片分辨率&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_type = re.pile(&#39;png&#39;,re.S),real_url)&#160;&#160;&#160;&#160;&#160;&#160;&#160; if p_type == None:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.pic_type = &#39;jpg&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; return self.pic_type&#160;&#160;&#160;&#160;&#160;&#160;&#160; else:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.pic_type = &#39;png&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; return self.pic_typeclass Pixiv_Spider:&#160;&#160;&#160; def __init__(self):&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.tool = Tools()&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.p_id = &#39;&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.p_pw = &#39;&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.p_choice = &#39;&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.dl_dir = &#39;&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.pic_type = &#39;&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.p_international_url = &#39;http://www.pixiv.net/ranking_area.php?type=detail&no=6&#39;&#160;&#160;&#160;&#160; #国际排行榜url&#160;&#160;&#160; def Login(self):&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #处理登录所需要的请求信息&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_login_url = &#39;https://www.pixiv.net/login.php&#39;&#160;&#160;&#160;&#160;&#160;&#160; &#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; data = {&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #登录所要post的信息&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#39;mode&#39;:&#39;login&#39;,&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#39;skip&#39;:1&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; }&#160;&#160;&#160;&#160;&#160;&#160;&#160; data[&#39;pixiv_id&#39;] = self.p_id&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #传入登录id以及password&#160;&#160;&#160;&#160;&#160;&#160;&#160; data[&#39;pass&#39;] = self.p_pw&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_login_data = urllib.urlencode(data)&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_login_header = {&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #头信息&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#39;accept-language&#39;:&#39;zh-cn,q=0.8&#39;,&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#39;referer&#39;:&#39;https://www.pixiv.net/login.php?return_to=0&#39;,&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#39;user-agent&#39;:&#39;mozilla/5.0 (windows nt 10.0; win64; x64; rv:45.0) gecko/ firefox/45.0&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; }&#160;&#160;&#160;&#160;&#160;&#160;&#160; request = urllib2.Request(&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; url = p_login_url,&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; data = p_login_data,&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; headers = p_login_header&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; )&#160;&#160;&#160;&#160;&#160;&#160;&#160; try:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; cookie_file = &#39;cookie.txt&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #生成cookie&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; cookie = cookielib.MozillaCookieJar(cookie_file)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; response = opener.open(request)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #登录&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; cookie.save(ignore_discard = True,ignore_expires = True)&#160;&#160;&#160;&#160;&#160;&#160;&#160; except urllib2.URLError,e:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; if hasattr(e,&reason&):&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &登录失败???&,e.reason&#160;&#160; &#160;&#160;&#160;&#160; def Download_Request(self,opener,make_url,real_url):&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_download_header = {&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #头信息&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#39;Accept-Language&#39;:&#39;zh-CN,q=0.8&#39;,&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#39;User-Agent&#39;:&#39;Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:45.0) Gecko/ Firefox/45.0&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; }&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_download_header[&#39;Referer&#39;] = self.tool.removebig(make_url)&#160;&#160;&#160;&#160;&#160;&#160;&#160; #将处理过的referer加入header,没有referer会显示403&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; download_request = urllib2.Request(&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; url = real_url.group(1),&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; headers = p_download_header&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; ) &#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; decode_url = opener.open(download_request)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; return decode_url.read()&#160;&#160;&#160; def Cookie_Login(self):&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #读取之前登陆生成的cookie&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; cookie_login = cookielib.MozillaCookieJar()&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; cookie_login.load(&#39;cookie.txt&#39;,ignore_discard = True,ignore_expires = True)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie_login))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; return opener&#160;&#160;&#160; def Choice_Pixiv(self,opener):&#160;&#160;&#160;&#160; #选择要跳转到的页面&#160;&#160;&#160;&#160;&#160;&#160;&#160; if (self.p_choice == &#39;1&#39;):&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; try:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_page = opener.open(self.p_international_url)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_international = p_page.read().decode(&#39;utf-8&#39;)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; dl_dir = &#39;international&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.Pixiv_International(opener,p_international,dl_dir)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; except urllib2.URLError,e:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; if hasattr(e,&reason&):&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &连接错误:&,e.reason&#160;&#160;&#160; def Pixiv_International(self,opener,p_international,dl_dir):&#160;&#160;&#160;&#160;&#160;&#160;&#160; soup = BeautifulSoup(p_international)&#160;&#160;&#160;&#160;&#160;&#160;&#160; os.mkdir(r&#39;E:/pixivdata/&#39; + dl_dir + &#39;/&#39;)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #生成文件夹&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &生成&+dl_dir+&目录成功!&&#160;&#160;&#160;&#160;&#160;&#160;&#160; for i in range(1,101):&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #已知pixiv国际榜的排名为100名,用for循环来完成&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; get_information = str(soup.find(id=i))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #通过bs处理html将我们所需要的信息大体提取出来&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; result_url = re.pile(&#39;&.*?work/s_work/s&.*?href=&(.*?)&&&#39;,re.S),get_information)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; result_multiple = re.pile(&#39;&a.*?work/s_work/smultiple/s.*?href=&(.*?)&&&#39;,re.S),get_information)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; result_video = re.pile(&#39;&a.*?work/s_work/sugoku-illust/s.*?href=&(.*?)&&&#39;,re.S),get_information)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; result_manga_multiple = re.pile(&#39;&a.*?work/s_work/smanga/smultiple/s.*?href=&(.*?)&&&#39;,re.S),get_information)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; if result_video == None:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; if result_manga_multiple == None:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #判断是否为manga&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; if result_multiple == None:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #判断是否为多图&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_num = &#39;1&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_url = self.tool.removesomething(&#39;http://www.pixiv.net/&#39; + result_url.group(1))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &报告!前方发现单张图片...&&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_id = self.Download_Data(i,get_information,p_url,opener,dl_dir)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.Download_Pic(p_num,i,opener,p_url,p_id,dl_dir)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; else:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_num = &#39;more&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_url = self.tool.removesomething(&#39;http://www.pixiv.net/&#39; + result_multiple.group(1))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &报告!前方发现多张图片...&&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_id = self.Download_Data(i,get_information,p_url,opener,dl_dir)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.Download_Pic(p_num,i,opener,p_url,p_id,dl_dir)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; else:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_num = &#39;more&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_url = self.tool.removesomething(&#39;http://www.pixiv.net/&#39; + result_manga_multiple.group(1))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &报告!前方发现多张漫画...&&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_id = self.Download_Data(i,get_information,p_url,opener,dl_dir)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.Download_Pic(p_num,i,opener,p_url,p_id,dl_dir)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; else:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &报告!前方这是张动图...无能为力啊...╮(╯▽╰)╭&&#160;&#160;&#160; def Download_Data(self,i,get_information,p_url,opener,dl_dir):&#160;&#160;&#160;&#160;&#160;&#160;&#160; #通过使用正则表达式再处理一遍经过bs处理的html代码,找到需要的信息(url,title,user)&#160;&#160;&#160;&#160;&#160;&#160;&#160; result_title = re.pile(&#39;&a href=&.*?&(.*?)&/a&&#39;,re.S),get_information)&#160;&#160;&#160;&#160;&#160;&#160;&#160; result_id = re.pile(&#39;&a class.*?illust_id=(.*?)&&&#39;,re.S),get_information) &#160;&#160;&#160;&#160;&#160;&#160;&#160; result_user = re.pile(&#39;&span class.*?&(.*?)&/span&&#39;,re.S),get_information)&#160;&#160;&#160;&#160;&#160;&#160; &#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_rank = str(i)&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_id = result_id.group(1)&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_title = result_title.group(1)&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_user = result_user.group(1)&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &RANK #& + p_rank + &/nPixiv ID:& + p_id + &/nTitle:& + p_title +&/nUser:& + p_user&#160;&#160;&#160;&#160;&#160;&#160;&#160; file_data = open(&#39;E:/pixivdata/&#39; + dl_dir + &#39;/pixiv_&#39; + p_id + &#39;.txt&#39;,&#39;w&#39;)&#160;&#160;&#160;&#160; #创建信息文件&#160;&#160;&#160;&#160;&#160;&#160;&#160; massage = [&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #保存信息&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#39;rank:&#39; + p_rank +&#39;/n&#39;,&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#39;id:&#39; + p_id + &#39;/n&#39;,&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#39;title:&#39; + p_title + &#39;/n&#39;,&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#39;user:&#39; + p_user + &#39;/n&#39;,&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#39;url:&#39; + p_url&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; ]&#160;&#160;&#160;&#160;&#160;&#160;&#160; file_data.writelines(massage)&#160;&#160;&#160;&#160;&#160;&#160;&#160; file_data.close()&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &报告!pixiv信息保存成功...&&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; #将信息以txt格式保存下来&#160;&#160;&#160;&#160;&#160;&#160;&#160; return p_id&#160;&#160;&#160; def Download_Pic(self,p_num,i,opener,p_url,p_id,dl_dir):&#160;&#160;&#160;&#160;&#160;&#160;&#160; if p_num == &#39;1&#39;:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; soup = BeautifulSoup(opener.open(p_url))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; real_url = re.pile(&#39;.*?data-src=&(.*?)&&#39;,re.S),str(soup.find_all(&img&,class_=&original-image&)))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &#39;成功找到大图链接(ˉ﹃ˉ).../n&#39; + real_url.group(1)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_type = self.tool.Pic_Type(real_url.group(1))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; file_pic = open(&#39;E:/pixivdata/&#39; + dl_dir + &#39;/pixiv_&#39; + p_id + &#39;.&#39; + p_type,&#39;wb&#39;)&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; file_pic.write(self.Download_Request(opener,p_url,real_url))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; file_pic.close()&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &#39;成功下载到本地(/≧▽≦)/...&#39;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; &#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; if p_num == &#39;more&#39;:&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; soup = BeautifulSoup(opener.open(p_url))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; result_pic_more = re.pile(&#39;&/li&&li&.*?/s(.*?)P&/li&&#39;,re.S),str(soup.find_all(&ul&,class_=&meta&)))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &发现图片& + result_pic_more.group(1) + &张...⊙▽⊙&&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; for j in range(0,int(result_pic_more.group(1))):&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; make_url = self.tool.make_big_url(p_url)+&#39;&page=&#39;+str(j)&#160;&#160;&#160;&#160;&#160;&#160;&#160; #生成多张的url&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; m_soup = BeautifulSoup(opener.open(make_url))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; real_url = re.pile(&#39;&img.*?src=&(.*?)&/&&#39;,re.S),str(m_soup.find_all(&img&)))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; p_type = self.tool.Pic_Type(real_url.group(1))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &#39;成功找到大图链接(ˉ﹃ˉ).../n&#39; + real_url.group(1)&#160;&#160;&#160;&#160; #下载图片并保存&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; file_pic = open(&#39;E:/pixivdata/&#39; + dl_dir + &#39;/pixiv_&#39; + p_id + &#39;_&#39; + str(j) + &#39;.&#39; + p_type,&#39;wb&#39;) &#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; file_pic.write(self.Download_Request(opener,make_url,real_url))&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; file_pic.close()&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160;&#160; print &#39;成功下载到本地(/≧▽≦)/...&#39;&#160;&#160;&#160;&#160;&#160;&#160; &#160;&#160;&#160;&#160; def Program_Start(self):&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.Login()&#160;&#160;&#160;&#160;&#160;&#160;&#160; opener = self.Cookie_Login()&#160;&#160;&#160;&#160;&#160;&#160;&#160; self.Choice_Pixiv(opener)ps = Pixiv_Spider()ps.p_id = raw_input(&#39;请输入你的pixiv id:&#39;)ps.p_pw = raw_input(&#39;请输入你的pixiv密码:&#39;)print (&#39;1.进入国际排行榜)ps.p_choice = raw_input()ps.Program_Start()来看一下运行的结果吧(今天刚好前三名分别是多图,单图,和动图)
最新教程周点击榜
微信扫一扫

我要回帖

更多关于 pixiv id是什么 的文章

 

随机推荐