python扫描proxy并获取可用代理ip的实例

发布时间 - 2026-01-11 02:40:16    点击率:

今天咱写一个挺实用的工具,就是扫描并获取可用的proxy

首先呢,我先百度找了一个网站:http://www.xicidaili.com 作为例子

这个网站里公布了许多的国内外可用的代理的ip和端口

我们还是按照老样子进行分析,就先把所有国内的proxy扫一遍吧

点开国内部分进行审查发现,国内proxy和目录为以下url:

http://www.xicidaili.com/nn/x

这个x差不多两千多页,那么看来又要线程处理了。。。

老样子,我们尝试是否能直接以最简单的requests.get()获取内容

返回503,那么我们加一个简单的headers

返回200,成咯

好了我们先进行网页内容分析并获取想要的内容

我们发现,包含ip信息的内容在<tr>标签内,于是我们就能很方便的用bs进行获取标签内容

但是我们随之又发现,ip、端口、协议的内容分别在提取的<tr>标签的第2,3,6三个<td>标签内

于是我们开始尝试编写,一下为编写思路:

  处理页面的时候,是先提取tr标签,再将tr标签中的td标签提取

  所以运用了两次bs操作,并且第二次使用bs操作时需要进行str处理

  因为我们获得tr之后,我们需要其中的2,3,6号的东西,

  但是当我们用一个for循环输出的i并不能进行组的操作

  所以我们干脆分别对每一个td的soup进行第二次操作之后直接提取2,3,6

  提取之后,直接加上.string提取内容即可

r = requests.get(url = url,headers = headers)

 soup = bs(r.content,"html.parser")
 data = soup.find_all(name = 'tr',attrs = {'class':re.compile('|[^odd]')})

 for i in data:

  soup = bs(str(i),'html.parser')
  data2 = soup.find_all(name = 'td')
  ip = str(data2[1].string)
  port = str(data2[2].string)
  types = str(data2[5].string).lower() 

  proxy = {}
  proxy[types] = '%s:%s'%(ip,port)

这样,我们每次循环都能生成对应的proxy字典,以便我们接下来验证ip可用性所使用

字典这儿有个注意点,我们有一个将types变为小写的操作,因为在get方法中的proxies中写入的协议名称应为小写,而网页抓取的是大写的内容,所以进行了一个大小写转换

那么验证ip可用性的思路呢

很简单,我们使用get,加上我们的代理,请求网站:

http://1212.ip138.com/ic.asp

这是一个神奇的网站,能返回你的外网ip是什么

url = 'http://1212.ip138.com/ic.asp'
r = requests.get(url = url,proxies = proxy,timeout = 6)

这里我们需要加上timeout去除掉那些等待时间过长的代理,我设置为6秒

我们以一个ip进行尝试,并且分析返回的页面

返回的内容如下:

<html>

<head>

<meta xxxxxxxxxxxxxxxxxx>

<title> 您的IP地址 </title>

</head>

<body style="margin:0px"><center>您的IP是:[xxx.xxx.xxx.xxx] 来自:xxxxxxxx</center></body></html>

那么我们只需要提取出网页内[]的内容即可

如果我们的代理可用,就会返回代理的ip

(这里会出现返回的地址还是我们本机的外网ip的情况,虽然我也不是很清楚,但是我把这种情况排除,应该还是代理不可用)

那么我们就能进行一个判断,如果返回的ip和proxy字典中的ip相同,则认为这个ip是可用的代理,并将其写入文件

我们的思路就是这样,最后进行queue和threading线程的处理即可

上代码:

#coding=utf-8

import requests
import re
from bs4 import BeautifulSoup as bs
import Queue
import threading 

class proxyPick(threading.Thread):
 def __init__(self,queue):
  threading.Thread.__init__(self)
  self._queue = queue

 def run(self):
  while not self._queue.empty():
   url = self._queue.get()

   proxy_spider(url)

def proxy_spider(url):
 headers = {
   .......
  }

 r = requests.get(url = url,headers = headers)
 soup = bs(r.content,"html.parser")
 data = soup.find_all(name = 'tr',attrs = {'class':re.compile('|[^odd]')})

 for i in data:

  soup = bs(str(i),'html.parser')
  data2 = soup.find_all(name = 'td')
  ip = str(data2[1].string)
  port = str(data2[2].string)
  types = str(data2[5].string).lower() 


  proxy = {}
  proxy[types] = '%s:%s'%(ip,port)
  try:
   proxy_check(proxy,ip)
  except Exception,e:
   print e
   pass

def proxy_check(proxy,ip):
 url = 'http://1212.ip138.com/ic.asp'
 r = requests.get(url = url,proxies = proxy,timeout = 6)

 f = open('E:/url/ip_proxy.txt','a+')

 soup = bs(r.text,'html.parser')
 data = soup.find_all(name = 'center')
 for i in data:
  a = re.findall(r'\[(.*?)\]',i.string)
  if a[0] == ip:
   #print proxy
   f.write('%s'%proxy+'\n')
   print 'write down'
   
 f.close()

#proxy_spider()

def main():
 queue = Queue.Queue()
 for i in range(1,2288):
  queue.put('http://www.xicidaili.com/nn/'+str(i))

 threads = []
 thread_count = 10

 for i in range(thread_count):
  spider = proxyPick(queue)
  threads.append(spider)

 for i in threads:
  i.start()

 for i in threads:
  i.join()

 print "It's down,sir!"

if __name__ == '__main__':
 main()

这样我们就能把网站上所提供的能用的代理ip全部写入文件ip_proxy.txt文件中了

以上这篇python扫描proxy并获取可用代理ip的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。


# python扫描proxy  # Python扫描IP段查看指定端口是否开放的方法  # Python实现扫描局域网活动ip(扫描在线电脑)  # python局域网ip扫描示例分享  # Python实现TCP/IP协议下的端口转发及重定向示例  # python实现一个简单的ping工具方法  # Python获取网段内ping通IP的方法  # 在Python中调用Ping命令  # 批量IP的方法  # Python实现的IP端口扫描工具类示例  # 您的  # 就能  # 可用性  # 给大家  # 老样子  # 的是  # 我也  # 就会  # 好了  # 国内  # 有个  # 都能  # 两次  # 不是很  # 我把  # 一遍  # 这是一个  # 希望能  # 很简单  # 又要 


相关栏目: 【 网站优化151355 】 【 网络推广146373 】 【 网络技术251813 】 【 AI营销90571


相关推荐: 中国移动官方网站首页入口 中国移动官网网页登录  如何制作新型网站程序文件,新型止水鱼鳞网要拆除吗?  使用spring连接及操作mongodb3.0实例  悟空识字怎么关闭自动续费_悟空识字取消会员自动扣费步骤  Laravel如何使用Service Container和依赖注入?(代码示例)  laravel怎么为API路由添加签名中间件保护_laravel API路由签名中间件保护方法  canvas 画布在主流浏览器中的尺寸限制详细介绍  Python文件操作最佳实践_稳定性说明【指导】  Laravel怎么配置自定义表前缀_Laravel数据库迁移与Eloquent表名映射【步骤】  Laravel如何实现模型的全局作用域?(Global Scope示例)  昵图网官方站入口 昵图网素材图库官网入口  Laravel如何记录日志_Laravel Logging系统配置与自定义日志通道  Laravel N+1查询问题如何解决_Eloquent预加载(Eager Loading)优化数据库查询  弹幕视频网站制作教程下载,弹幕视频网站是什么意思?  logo在线制作免费网站在线制作好吗,DW网页制作时,如何在网页标题前加上logo?  韩国网站服务器搭建指南:VPS选购、域名解析与DNS配置推荐  php嵌入式断网后怎么恢复_php检测网络重连并恢复硬件控制【操作】  Windows家庭版如何开启组策略(gpedit.msc)?(安装方法)  头像制作网站在线观看,除了站酷,还有哪些比较好的设计网站?  Laravel如何发送邮件_Laravel Mailables构建与发送邮件的简明教程  如何获取上海专业网站定制建站电话?  Python3.6正式版新特性预览  EditPlus中的正则表达式 实战(1)  javascript中数组(Array)对象和字符串(String)对象的常用方法总结  Laravel的.env文件有什么用_Laravel环境变量配置与管理详解  详解Nginx + Tomcat 反向代理 负载均衡 集群 部署指南  如何选择PHP开源工具快速搭建网站?  ,在苏州找工作,上哪个网站比较好?  猪八戒网站制作视频,开发一个猪八戒网站,大约需要多少?或者自己请程序员,需要什么程序员,多少程序员能完成?  Laravel如何设置自定义的日志文件名_Laravel根据日期或用户ID生成动态日志【技巧】  Laravel队列任务超时怎么办_Laravel Queue Timeout设置详解  HTML5段落标签p和br怎么选_文本排版常用标签对比【解答】  JavaScript数据类型有哪些_如何准确判断一个变量的类型  Laravel怎么导出Excel文件_Laravel Excel插件使用教程  Win11怎么设置默认图片查看器_Windows11照片应用关联设置  Linux系统命令中tree命令详解  JavaScript如何实现音频处理_Web Audio API如何工作?  php结合redis实现高并发下的抢购、秒杀功能的实例  原生JS实现图片轮播切换效果  Laravel如何实现多语言支持_Laravel本地化与国际化(i18n)配置教程  Laravel如何优化应用性能?(缓存和优化命令)  Win10如何卸载预装Edge扩展_Win10卸载Edge扩展教程【方法】  Laravel怎么实现前端Toast弹窗提示_Laravel Session闪存数据Flash传递给前端【方法】  使用C语言编写圣诞表白程序  开心动漫网站制作软件下载,十分开心动画为何停播?  西安专业网站制作公司有哪些,陕西省建行官方网站?  Laravel怎么上传文件_Laravel图片上传及存储配置  使用PHP下载CSS文件中的所有图片【几行代码即可实现】  Python自然语言搜索引擎项目教程_倒排索引查询优化案例  香港服务器选型指南:免备案配置与高效建站方案解析