请问这张图的画师是谁,顺便求下pixiv id_百度知道
请问这张图的画师是谁,顺便求下pixiv id
//f.com/zhidao/wh%3D450%2C600/sign=87bf47db95fedc7e37b1a/38dbb6fd307d922bd40735fa35ae.baidu.jpg" esrc="http.hiphotos.hiphotos://f://f.com/zhidao/wh%3D600%2C800/sign=d42123fcac014ca4b2e30/38dbb6fd307d922bd40735fa35ae.baidu.jpg" target="_blank" title="点击查看大图" class="ikqb_img_alink"><img class="ikqb_img" src="/zhidao/pic/item/38dbb6fd307d922bd40735fa35ae.baidu.<a href="http 
提问者采纳
画师397@ついった
麻烦给采纳
抱歉不知为何我找不到……
作品已经被删了
提问者评价
太给力了,你的回答完美的解决了我的问题!
其他类似问题
为您推荐:
pixiv的相关知识
其他2条回答
画师离开P站或者换号图片已删除
日本动漫。。
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁求图片原图跟p站ID_百度知道
求图片原图跟p站ID
//b://b.baidu.jpg" target="_blank" title="点击查看大图" class="ikqb_img_alink"><img class="ikqb_img" src="/zhidao/wh%3D450%2C600/sign=d42ae1d0418ad/abb57adab44aede0f8://b.hiphotos.baidu.jpg" esrc="/zhidao/wh%3D600%2C800/sign=124c823c8444ebf86d246c39e9c9fb12/abb57adab44aede0f8.hiphotos谷歌搜图跟saucenao都死活打不开简直了./zhidao/pic/item/abb57adab44aede0f8.<a href="http
提问者采纳
P站画师RunaMen作品 [HTF拟人化]Pixiv ID: Member: RunaMenP站原图已删
唔..谷歌搜图能搜出来么?
用sauce搜的·
嗯..想拜托帮忙用一下谷歌识图w
找到的只有一堆头像··
提问者评价
来自团队:
其他类似问题
为您推荐:
其他1条回答
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁求该图片p站画师名或id_百度知道
求该图片p站画师名或id
jpg" target="_blank" title="点击查看大图" class="ikqb_img_alink"><img class="ikqb_img" src="<img class="ikqb_img" src="http.hiphotos:& .hiphotos.baidu://b.hiphotos这张图片在P站上已经被删除原Pixiv .net/member?id=52338/zhidao/wh%3D450%2C600/sign=e736dcaec224f4a20a959ad7c4
有点小失望
提问者评价
太给力了,你的回答完美解决了我的问题!
其他类似问题
为您推荐:
画师的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁python爬虫学习--pixiv爬虫(2)--国际排行榜的图片爬取
之前用面向过程的形式写了一下pixiv爬虫的登录...觉得还是面向对象好一些...那就先把登录过程重写一下...class Pixiv_Spider:
def __init__(self):
self.p_id = ''
self.p_pw = ''
def Login(self):
#处理登录所需要的请求信息
p_login_url = 'https://www.pixiv.net/login.php'
#登录所要post的信息
'mode':'login',
'skip':1
data['pixiv_id'] = self.p_id
#传入登录id以及password
data['pass'] = self.p_pw
p_login_data = urllib.urlencode(data)
p_login_header = {
'accept-language':'zh-cn,q=0.8',
'referer':'https://www.pixiv.net/login.php?return_to=0',
'user-agent':'mozilla/5.0 (windows nt 10.0; win64; x64; rv:45.0) gecko/ firefox/45.0'
request = urllib2.Request(
url = p_login_url,
data = p_login_data,
headers = p_login_header
cookie_file = 'cookie.txt'
#生成cookie
cookie = cookielib.MozillaCookieJar(cookie_file)
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
response = opener.open(request)
cookie.save(ignore_discard = True,ignore_expires = True)
except urllib2.URLError,e:
if hasattr(e,&reason&):
print &登录失败???&,e.reasonps = Pixiv_Spider()ps.p_id = raw_input('请输入你的pixiv id:')ps.p_pw = raw_input('请输入你的pixiv密码:')ps.Login()登录完成后就可以进行我们想要图片批量爬取了...首先需要写一个方法利用一下前面登录的cookie...def Cookie_Login(self):
#读取之前登陆生成的cookie
cookie_login = cookielib.MozillaCookieJar()
cookie_login.load('cookie.txt',ignore_discard = True,ignore_expires = True)
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie_login))
return opener为了以后的需要...我们在这里写一个选项菜单...方便以后添加更多的功能...def Choice_Pixiv(self,opener):
#选择要跳转到的页面
if (self.p_choice == '1'):
p_page = opener.open(self.p_international_url)
#p_international_url = 'http://www.pixiv.net/ranking_area.php?type=detail&no=6'
p_international = p_page.read().decode('utf-8')
#利用cookie登录后的页面
except urllib2.URLError,e:
if hasattr(e,&reason&):
print &连接错误:&,e.reason这个时候就可以写今天的主体了国际榜的方法了...这次需要一个非常厉害的东西 BeautifulSoup...它可以帮助我们在这里进一步提取html中的关键细节def Pixiv_International(self,opener,p_international,dl_dir):
soup = BeautifulSoup(p_international)
for i in range(1,101):                    #已知pixiv国际榜的排名为100名,用for循环来完成   
get_information = str(soup.find(id=i))          #通过bs处理html将我们所需要的信息大体提取出来在pixiv的国际榜中有单张上传的图片,多张上传的图片,还有一中漫画格式和动图先来看一下他们在页面代码中是什么样子单张图片:&a class=&work _work & href=&member_illust.php?mode=medium&illust_id=&& href中的就是我们正常浏览作品时的url的一部分so...将它提取出来... result_url = re.pile('&.*?work/s_work/s&.*?href=&(.*?)&&',re.S),get_information)多张图片:动图:漫画多图:同理还是提取出中间的href...result_multiple = re.pile('&a.*?work/s_work/smultiple/s.*?href=&(.*?)&&',re.S),get_information)
#多图result_video = re.pile('&a.*?work/s_work/sugoku-illust/s.*?href=&(.*?)&&',re.S),get_information)
#动图result_manga_multiple = re.pile('&a.*?work/s_work/smanga/smultiple/s.*?href=&(.*?)&&',re.S),get_information)
#漫画多图在当我们用re.search搜索不到的时候,他就会返回一个None...利用这一点我们就可以判断图片模式了由于功力不足...我无法抓取动图...所以放弃动图...其他的单图,多图和漫画多图在后面处理的时候不一样...所以这样写if result_video == None:
#判断是否是动图
if result_manga_multiple == None:
#判断是否为manga
if result_multiple == None:
#判断是否为多图
p_url = 'http://www.pixiv.net/' + result_url.group(1)
p_url = 'http://www.pixiv.net/' + result_multiple.group(1)
p_url = 'http://www.pixiv.net/' + result_manga_multiple.group(1)else:
print &诶呀!这是张动图...无能为力啊...╮(╯▽╰)╭&这下子我们就能拥有浏览这些图片的url了...但是这个时候我们输出一下会发现有些和我们想象中的不一样啊(╯‵□′)╯︵┴─┴http://www.pixiv.net/member_illust.php?mode=medium&illust_id=http://www.pixiv.net/member_illust.php?mode=medium&illust_id=经过仔细对比发现是url中间的&在前面的处理中被转义成&了...我们再写一个工具类来帮助我们将他转换回来...class Tools:
remove = re.compile('')
def removesomething(self,x):
x = re.sub(self.remove,&&,x)
return x.strip()通过re.compile找出多出来的,再用re.sub赋空字符就可以了...想要调用这个类,在爬虫类Pixiv_Spider的__init__中增加这条代码就可以了def __init__(self):
self.tool = Tools()经过一番折腾现在的代码变成这样了if result_video == None:
if result_manga_multiple == None:
#判断是否为manga
if result_multiple == None:
#判断是否为多图
print &报告!前方发现单张张图片...&
p_url = self.tool.removesomething('http://www.pixiv.net/' + result_url.group(1))
print &报告!前方发现多张图片...&
 p_url = self.tool.removesomething('http://www.pixiv.net/' + result_multiple.group(1))
print &报告!前方发现多张图片...&
p_url = self.tool.removesomething('http://www.pixiv.net/' + result_manga_multiple.group(1))else:
print &诶呀!前方这是张动图...无能为力啊...╮(╯▽╰)╭&光url提取出来还不够,我还想保存这些图片的信息:标题,p站id,作者等等...再来看一下刚刚的html...标题:p站id:作者:再写一个方法将这些信息打印到屏幕上并将它们以文件形式保存...def Download_Data(self,i,get_information,p_url):
#通过使用正则表达式再处理一遍经过bs处理的html代码,找到需要的信息(url,title,user)
result_title = re.pile('&a href=&.*?&(.*?)&/a&',re.S),get_information)
result_id = re.pile('&a class.*?illust_id=(.*?)&&',re.S),get_information)
result_user = re.pile('&span class.*?&(.*?)&/span&',re.S),get_information)
p_rank = str(i)
#在屏幕上输出信息
print &RANK #& + p_rank
p_id = result_id.group(1)
print &Pixiv ID:& + p_id
p_title = result_title.group(1)
print &Title:& + p_title
p_user = result_user.group(1)
print &User:& + p_user
file_data = open('E:/pixivdata/' + dl_dir + '/pixiv_' + p_id + '.txt','w')
#创建信息文件
massage = [
'rank:' + p_rank +'/n',
'id:' + p_id + '/n',
'title:' + p_title + '/n',
'user:' + p_user + '/n',
'url:' + p_url
file_data.writelines(massage)
file_data.close()
print &pixiv信息保存成功&
#将信息以txt格式保存下来 
return p_id墨迹了这么长时间,收集了足够的信息...现在可以写下载的部分了...先看下网页...单张图片:多张图片(漫画和普通多图):经过观察我们发现多图的界面可以看到一共有多少张图片...这样子我们就可以先将多图的图片数提取出来...soup = BeautifulSoup(opener.open(p_url))result_pic_more = re.pile('&/li&&li&.*?/s(.*?)P&/li&',re.S),str(soup.find_all(&ul&,class_=&meta&)))print &报告!发现图片& + result_pic_more.group(1) + &张...&点开多图...跳转到另一个页面...通过查看网页代码发现他指向了这样一个url...点进去发现这里就是我们想要的原图,后面的page控制了图片在多图中的顺序http://www.pixiv.net/member_illust.php?mode=manga_big&illust_id=&page=0除了page以外...这个url和我们刚刚爬到的url还是有点区别...那就在Tools()里给它构造出一个一样的http://www.pixiv.net/member_illust.php?mode=medium&illust_id=make_m = re.compile('mode=medium')def make_big_url(self,x):
x = re.sub(self.make_m,&mode=manga_big&,x)
return x.strip()于是通过现有信息来进行爬取for j in range(0,int(result_pic_more.group(1))):
make_url = self.tool.make_big_url(p_url)+'&page='+str(j)
m_soup = BeautifulSoup(opener.open(make_url))
real_url = re.pile('&img.*?src=&(.*?)&/&',re.S),str(m_soup.find_all(&img&)
print '成功找到大图链接(ˉ﹃ˉ).../n' + real_url.group(1)
#下载图片并保存
d_url = opener.open(make-url) 
file_pic = open('E:/pixivdata/pixiv_' + p_id + '_' + str(j) + '.jpg','wb')
file_pic.write(d_url.read)
file_pic.close()但是到程序到这里就会报错...找来找去发现在当访问原图的url的时候浏览器会向服务器发送一个请求头...这个请求头与之前的请求头有区别的是它多了一个参数Referer...如果在只访问原图url的时候...浏览器(我们的程序)并不会发送带Referer的请求头...服务器收到这个请求头但是不会回应...于是就悲催了...403那么我们就给他一个Referer...def Download_Request(self,opener,make_url,real_url):
p_download_header = {
'Accept-Language':'zh-CN,q=0.8',
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:45.0) Gecko/ Firefox/45.0'
p_download_header['Referer'] = make_url
#将referer加入header,没有referer会显示403
download_request = urllib2.Request(
url = real_url.group(1),
headers = p_download_header
decode_url = opener.open(download_request)
return decode_url.read()不光是这里...细心的人可以发现我们提交的Referer和浏览器上看到的有点区别我们还是在刚刚的Tools()里再写一个方法处理它rmbig = re.compile('_big')def removebig(self,x):
x = re.sub(self.rmbig,&&,x)
return x.strip()p_download_header['Referer'] = self.tool.removebig(make_url)这下可以成功抓取多张图片了...不过我在这里再给程序添加个小功能...就是将图片按照服务器上的文件格式进行保存...在Tool()中添加下面的方法...def Pic_Type(self,real_url):
#区分图片分辨率
p_type = re.pile('png',re.S),real_url)
if p_type == None:
self.pic_type = 'jpg'
return self.pic_type
self.pic_type = 'png'
return self.pic_type这样我们多图下载的功能就完成了for j in range(0,int(result_pic_more.group(1))):
make_url = p_url+'&page='+str(j)
#生成多张的url
m_soup = BeautifulSoup(opener.open(make_url))
real_url = re.pile('&img.*?src=&(.*?)&/&',re.S),str(m_soup.find_all(&img&)))
p_type = self.tool.Pic_Type(real_url.group(1))
print '成功找到大图链接(ˉ﹃ˉ).../n' + real_url.group(1)#下载图片并保存
file_pic = open('E:/pixivdata/pixiv_' + p_id + '_' + str(j) + '.' + p_type,'wb')
file_pic.write(self.Download_Request(opener,make_url,real_url))
file_pic.close()
print '成功下载到本地(/≧▽≦)/...'点开单图...使其最大化...用查看网页代码...找到了单张图片大图的url...http://i4.pixiv.net/img-original/img//16/00/01/.png和多图的差不多soup = BeautifulSoup(opener.open(p_url))real_url = re.pile('.*?data-src=&(.*?)&',re.S),str(soup.find_all(&img&,class_=&original-image&)))print '成功找到大图链接(ˉ﹃ˉ).../n' + real_url.group(1)p_type = self.tool.Pic_Type(real_url.group(1))file_pic = open('E:/pixivdata/' + dl_dir + '/pixiv_' + p_id + '.' + p_type,'wb')
file_pic.write(self.Download_Request(opener,make_url,real_url))file_pic.close()print '成功下载到本地(/≧▽≦)/...'整理一下...下载的方法就写好了...def Download_Pic(self,p_num,i,opener,p_url,p_id,dl_dir):
if p_num == '1':    soup = BeautifulSoup(opener.open(p_url))    real_url = re.pile('.*?data-src=&(.*?)&',re.S),str(soup.find_all(&img&,class_=&original-image&)))    print '成功找到大图链接(ˉ﹃ˉ).../n' + real_url.group(1)    p_type = self.tool.Pic_Type(real_url.group(1))    file_pic = open('E:/pixivdata/' + dl_dir + '/pixiv_' + p_id + '.' + p_type,'wb')
file_pic.write(self.Download_Request(opener,p_url,real_url))    file_pic.close()    print '成功下载到本地(/≧▽≦)/...'             
if p_num == 'more':
soup = BeautifulSoup(opener.open(p_url))    result_pic_more = re.pile('&/li&&li&.*?/s(.*?)P&/li&',re.S),str(soup.find_all(&ul&,class_=&meta&)))    print &发现图片& + result_pic_more.group(1) + &张...⊙▽⊙&    for j in range(0,int(result_pic_more.group(1))):
make_url = self.tool.make_big_url(p_url)+'&page='+str(j)      #生成多张的url
m_soup = BeautifulSoup(opener.open(make_url))
real_url = re.pile('&img.*?src=&(.*?)&/&',re.S),str(m_soup.find_all(&img&)))
p_type = self.tool.Pic_Type(real_url.group(1))
print '成功找到大图链接(ˉ﹃ˉ).../n' + real_url.group(1)     #下载图片并保存
file_pic = open('E:/pixivdata/' + dl_dir + '/pixiv_' + p_id + '_' + str(j) + '.' + p_type,'wb')  
file_pic.write(self.Download_Request(opener,make_url,real_url))
file_pic.close()      print '成功下载到本地(/≧▽≦)/...'写了这么多我们整理下就是我们想要的小程序了#coding:UTF-8__author__ = 'monburan'__version__ = '0.10 only_international'import osimport reimport urllibimport urllib2import cookielibfrom urllib2 import urlopenfrom bs4 import BeautifulSoupclass Tools:    remove = re.compile('')    rmbig = re.compile('_big')    make_m = re.compile('mode=medium')        def removebig(self,x):        x = re.sub(self.rmbig,&&,x)        return x.strip()    def removesomething(self,x):        x = re.sub(self.remove,&&,x)        return x.strip()    def make_big_url(self,x):        x = re.sub(self.make_m,&mode=manga_big&,x)        return x.strip()    def Pic_Type(self,real_url):                    #区分图片分辨率        p_type = re.pile('png',re.S),real_url)        if p_type == None:            self.pic_type = 'jpg'            return self.pic_type        else:            self.pic_type = 'png'            return self.pic_typeclass Pixiv_Spider:    def __init__(self):        self.tool = Tools()        self.p_id = ''        self.p_pw = ''        self.p_choice = ''        self.dl_dir = ''        self.pic_type = ''        self.p_international_url = 'http://www.pixiv.net/ranking_area.php?type=detail&no=6'     #国际排行榜url    def Login(self):                        #处理登录所需要的请求信息        p_login_url = 'https://www.pixiv.net/login.php'                data = {                                    #登录所要post的信息                'mode':'login',                'skip':1                }        data['pixiv_id'] = self.p_id                #传入登录id以及password        data['pass'] = self.p_pw        p_login_data = urllib.urlencode(data)        p_login_header = {                          #头信息                'accept-language':'zh-cn,q=0.8',                'referer':'https://www.pixiv.net/login.php?return_to=0',                'user-agent':'mozilla/5.0 (windows nt 10.0; win64; x64; rv:45.0) gecko/ firefox/45.0'                }        request = urllib2.Request(                url = p_login_url,                data = p_login_data,                headers = p_login_header                )        try:            cookie_file = 'cookie.txt'                  #生成cookie            cookie = cookielib.MozillaCookieJar(cookie_file)            opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))                     response = opener.open(request)             #登录            cookie.save(ignore_discard = True,ignore_expires = True)        except urllib2.URLError,e:            if hasattr(e,&reason&):                print &登录失败???&,e.reason        def Download_Request(self,opener,make_url,real_url):            p_download_header = {                          #头信息                'Accept-Language':'zh-CN,q=0.8',                'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:45.0) Gecko/ Firefox/45.0'            }            p_download_header['Referer'] = self.tool.removebig(make_url)        #将处理过的referer加入header,没有referer会显示403                            download_request = urllib2.Request(                url = real_url.group(1),                headers = p_download_header                )             decode_url = opener.open(download_request)            return decode_url.read()    def Cookie_Login(self):                         #读取之前登陆生成的cookie            cookie_login = cookielib.MozillaCookieJar()            cookie_login.load('cookie.txt',ignore_discard = True,ignore_expires = True)            opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie_login))            return opener    def Choice_Pixiv(self,opener):     #选择要跳转到的页面        if (self.p_choice == '1'):            try:                p_page = opener.open(self.p_international_url)                p_international = p_page.read().decode('utf-8')                dl_dir = 'international'                self.Pixiv_International(opener,p_international,dl_dir)            except urllib2.URLError,e:                if hasattr(e,&reason&):                    print &连接错误:&,e.reason    def Pixiv_International(self,opener,p_international,dl_dir):        soup = BeautifulSoup(p_international)        os.mkdir(r'E:/pixivdata/' + dl_dir + '/')          #生成文件夹        print &生成&+dl_dir+&目录成功!&        for i in range(1,101):                              #已知pixiv国际榜的排名为100名,用for循环来完成            get_information = str(soup.find(id=i))          #通过bs处理html将我们所需要的信息大体提取出来            result_url = re.pile('&.*?work/s_work/s&.*?href=&(.*?)&&',re.S),get_information)            result_multiple = re.pile('&a.*?work/s_work/smultiple/s.*?href=&(.*?)&&',re.S),get_information)            result_video = re.pile('&a.*?work/s_work/sugoku-illust/s.*?href=&(.*?)&&',re.S),get_information)            result_manga_multiple = re.pile('&a.*?work/s_work/smanga/smultiple/s.*?href=&(.*?)&&',re.S),get_information)                        if result_video == None:                if result_manga_multiple == None:                   #判断是否为manga                    if result_multiple == None:                     #判断是否为多图                        p_num = '1'                        p_url = self.tool.removesomething('http://www.pixiv.net/' + result_url.group(1))                        print &报告!前方发现单张图片...&                        p_id = self.Download_Data(i,get_information,p_url,opener,dl_dir)                        self.Download_Pic(p_num,i,opener,p_url,p_id,dl_dir)                    else:                        p_num = 'more'                        p_url = self.tool.removesomething('http://www.pixiv.net/' + result_multiple.group(1))                        print &报告!前方发现多张图片...&                        p_id = self.Download_Data(i,get_information,p_url,opener,dl_dir)                        self.Download_Pic(p_num,i,opener,p_url,p_id,dl_dir)                else:                    p_num = 'more'                    p_url = self.tool.removesomething('http://www.pixiv.net/' + result_manga_multiple.group(1))                    print &报告!前方发现多张漫画...&                    p_id = self.Download_Data(i,get_information,p_url,opener,dl_dir)                    self.Download_Pic(p_num,i,opener,p_url,p_id,dl_dir)            else:                print &报告!前方这是张动图...无能为力啊...╮(╯▽╰)╭&    def Download_Data(self,i,get_information,p_url,opener,dl_dir):        #通过使用正则表达式再处理一遍经过bs处理的html代码,找到需要的信息(url,title,user)        result_title = re.pile('&a href=&.*?&(.*?)&/a&',re.S),get_information)        result_id = re.pile('&a class.*?illust_id=(.*?)&&',re.S),get_information)         result_user = re.pile('&span class.*?&(.*?)&/span&',re.S),get_information)                p_rank = str(i)        p_id = result_id.group(1)        p_title = result_title.group(1)        p_user = result_user.group(1)        print &RANK #& + p_rank + &/nPixiv ID:& + p_id + &/nTitle:& + p_title +&/nUser:& + p_user        file_data = open('E:/pixivdata/' + dl_dir + '/pixiv_' + p_id + '.txt','w')     #创建信息文件        massage = [                         #保存信息            'rank:' + p_rank +'/n',            'id:' + p_id + '/n',            'title:' + p_title + '/n',            'user:' + p_user + '/n',            'url:' + p_url            ]        file_data.writelines(massage)        file_data.close()        print &报告!pixiv信息保存成功...&           #将信息以txt格式保存下来        return p_id    def Download_Pic(self,p_num,i,opener,p_url,p_id,dl_dir):        if p_num == '1':            soup = BeautifulSoup(opener.open(p_url))            real_url = re.pile('.*?data-src=&(.*?)&',re.S),str(soup.find_all(&img&,class_=&original-image&)))            print '成功找到大图链接(ˉ﹃ˉ).../n' + real_url.group(1)            p_type = self.tool.Pic_Type(real_url.group(1))            file_pic = open('E:/pixivdata/' + dl_dir + '/pixiv_' + p_id + '.' + p_type,'wb')                            file_pic.write(self.Download_Request(opener,p_url,real_url))            file_pic.close()            print '成功下载到本地(/≧▽≦)/...'                    if p_num == 'more':            soup = BeautifulSoup(opener.open(p_url))            result_pic_more = re.pile('&/li&&li&.*?/s(.*?)P&/li&',re.S),str(soup.find_all(&ul&,class_=&meta&)))            print &发现图片& + result_pic_more.group(1) + &张...⊙▽⊙&            for j in range(0,int(result_pic_more.group(1))):                make_url = self.tool.make_big_url(p_url)+'&page='+str(j)        #生成多张的url                m_soup = BeautifulSoup(opener.open(make_url))                real_url = re.pile('&img.*?src=&(.*?)&/&',re.S),str(m_soup.find_all(&img&)))                p_type = self.tool.Pic_Type(real_url.group(1))                print '成功找到大图链接(ˉ﹃ˉ).../n' + real_url.group(1)     #下载图片并保存                file_pic = open('E:/pixivdata/' + dl_dir + '/pixiv_' + p_id + '_' + str(j) + '.' + p_type,'wb')                  file_pic.write(self.Download_Request(opener,make_url,real_url))                file_pic.close()                print '成功下载到本地(/≧▽≦)/...'            def Program_Start(self):        self.Login()        opener = self.Cookie_Login()        self.Choice_Pixiv(opener)ps = Pixiv_Spider()ps.p_id = raw_input('请输入你的pixiv id:')ps.p_pw = raw_input('请输入你的pixiv密码:')print ('1.进入国际排行榜)ps.p_choice = raw_input()ps.Program_Start()来看一下运行的结果吧(今天刚好前三名分别是多图,单图,和动图)
最新教程周点击榜
微信扫一扫