FOFA爬虫大法——API的简单利用 爬虫f12
yuyutoo 2024-10-25 19:21 4 浏览 0 评论
FOFA是一款网络空间搜索引擎,它通过进行网络空间测绘,帮助研究人员或者企业迅速进行网络资产匹配,例如进行漏洞影响范围分析、应用分布统计、应用流行度等。
何为API?如果你在百度百科上搜索,你会得到如下结果:
API(Application Programming Interface,应用程序编程接口)是一些预先定义的函数,目的是提供应用程序与开发人员基于某软件或硬件得以访问一组例程的能力,而又无需访问源码,或理解内部工作机制的细节。
那么通俗一点来说,API是什么呢?从技术角度来说,API指的是应用程序编程接口。很多大型企业都会为自己的客户建立应用程序编程接口,或供内部使用。
今天i春秋针对爬虫FOFA里面的数据进行统计分析,即API的简单利用,希望对大家有所帮助,本文阅读用时约5分钟。
环境
描述环境为文章中所用到的所有技术以及中间件并非全部安装,可根据使用的规模进行调整使用。
语言:python2.7(必须)
模块:requests(必须)
操作系统:MacOS 10.13.4(非必须)
分布式消息队列管理:Celery(最后一节安装)
日志记录:logging(必须)
中间价:Redis(最后一节安装)/MySQL(必须)
数据库操作:pymysql(必须)/DBUtils(必须)
安装环境
# 安装requests pip isntall requests # 安装celery Mac pip install celery # 安装celery Windows pip isntall celery=3.1.25 # 安装 pymysql pip install pymysql # 安装logging pip install logging # 安装 DBUtils 数据库连接池 pip install DBUtils
注:Windows安装Celery时最好安装3.1.25版本,不然可能会有意想不到的惊喜。
FOFA API
文档:https://fofa.so/api
请求:https://fofa.so/api/v1/search/all
请求方式:GET
请求参数:
响应:
数据库设计
设计数据库存放FOFA爬虫数据,方便统计查询。
SQL语句
DROP TABLE IF EXISTS `fofa_spider`; CREATE TABLE `fofa_spider` ( `id` INT (11) NOT NULL AUTO_INCREMENT, `host` VARCHAR (255) NOT NULL, `ip` VARCHAR (255) NOT NULL, `port` VARCHAR (255) DEFAULT NULL, `protocol` VARCHAR (255) NOT NULL, `country_name` VARCHAR (255) DEFAULT NULL, `region_name` VARCHAR (255) DEFAULT NULL, `city_name` VARCHAR (255) DEFAULT NULL, `fofa_sql` text NOT NULL, `create_date` DATETIME NOT NULL, `update_date` DATETIME NOT NULL, PRIMARY KEY (`id`) ) ENGINE = INNODB DEFAULT CHARSET = utf8mb4;
数据库SQL文件:https://github.com/0nise/scripts/blob/master/fofa_spider.sql
小试牛刀
本节主要讲解可适用与一般的FOFA爬虫,如果需要大批量数据爬虫请您接着往下看。
环境
语言:python2.7
中间件:MySQL
第三方包:pymysql/requests/
场景:小规模爬虫/一般爬虫
通过查看FOFA API可以得知请求地址和参数,开局一句话功能全靠编。
请求中心
在发送大量的http请求时最好使用统一的HTTP请求中心,方便控制,代码重复利用,提高效率。
session = requests.session() # 请求头 headers = { 'Upgrade-Insecure-Requests': '1', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.110 Safari/537.36' } ''' 请求中心,控制程序所有HTTP请求,如果请求发生错误进行尝试再次连接 @param url 请求连接 home.php?mod=space&uid=126298 请求响应结果 ''' def fofa_requests(url): rs_content = '' while True: try: rs = session.get(api_url, verify=False,headers=headers) rs_text = rs.text results = json.loads(rs_text) total_size = results['size'] error = results if results['error'] and 'None' not in results['error']: info = u'fofa 错误:'+results['error']+u' 休眠30s' logging.error(info) time.sleep(30) else: rs_content = results except Exception as e: logging.error(u'fofa 错误:'+str(e.message)+u' 休眠30s') traceback.print_exc() time.sleep(30) return rs_content
数据库存储
有了统一的请求中心接下来就该编写入库代码,将爬虫结果存入数据库中。
''' 批量数据存入数据库 @param results @param page_no 当前页数 @param page_total 总页数 ''' def batch_insert_db(results,page_no,page_total,fofa_sql): try: Z = [] for result in results: a = (str(result[0]),str(result[1]),str(result[2]),str(result[3]),str(result[4]),str(result[5]),str(result[6]),pymysql.escape_string(fofa_sql)) Z.append(a) sql = "INSERT IGNORE INTO fofa_spider(id,host,ip,port,protocol,country_name,region_name,city_name,fofa_sql,create_date,update_date) VALUES(DEFAULT,%s,%s,%s,%s,%s,%s,%s,%s,NOW(),NOW())" cursor.executemany(sql, Z) connection.commit() logging.info(u'存入数据库ok,总数量为:'+str(len(Z))+u', page--> '+str(page_no)+'/'+str(page_total)) except Exception as e: logging.error(u"存入数据库错误,错误信息:"+e.message) traceback.print_exc()
核心业务代码
可以存入数据库中就该写核心的函数逻辑函数,输入参数仅为FOFA检索语句。
''' fofa 爬虫主函数 @param fofa_sql fofa查询语句 ''' def main(fofa_sql): base64_str = base64.b64encode(fofa_sql) fields_str = ','.join(fields) api_url = 'http://fofa.so/api/v1/search/all?email='+fofa_name+'&key='+fofa_key+'&fields='+fields_str+'&size='+str(page_size)+'&page='+str(page_start)+'&qbase64='+base64_str rs = fofa_requests(api_url) total_size = rs['size'] # 计算页数 page_end = total_size / page_size + 1 if total_size % page_size != 0 else total_size / page_size # 存入u 数据库 batch_insert_db(rs['results'],page_start,page_end,fofa_sql) for page_no in range(1,page_end+1): api_url = 'http://fofa.so/api/v1/search/all?email='+fofa_name+'&key='+fofa_key+'&fields='+fields_str+'&size='+str(page_size)+'&page='+str(page_no)+'&qbase64='+base64_str batch_insert_db(rs['results'],page_start,page_end,fofa_sql)
程序运行结果:
完整代码地址:
https://github.com/0nise/scripts/blob/master/fofa_spider.py
注:运行脚本之前先配置相关配置信息(数据库/FOFA信息)
进阶
问题
针对一般的数据爬虫,上述方法可以完美适应。但如果需要爬虫的是为千万级别规模的数据,上述方法就不适用了,解决方案一般有多线程/多进程/协程等。
思路
针对大规模数据爬虫,很多人想到的是多线程/多进程/协程等方案,但是这些方案的可扩展并不是很强,如果需要调整工具需要停止程序修改程序等,这里我是使用生产者和消费的思路来处理。只需要对上述的代码做轻微修改就可以完美的适应大规模数据爬虫,这里我使用redis+celery的方式来实现。
Redis
Redis是一款开源的、高性能的键-值存储(key-value store)。它常被称作是一款数据结构服务器(data structure server)。
Redis的键值可以包括字符串(strings)类型,同时它还包括哈希(hashes)、列表(lists)、集合(sets)和 有序集合(sorted sets)等数据类型。 对于这些数据类型,你可以执行原子操作。例如:对字符串进行附加操作(append);递增哈希中的值;向列表中增加元素;计算集合的交集、并集与差集等。
为了获得优异的性能,Redis采用了内存中(in-memory)数据集(dataset)的方式。同时,Redis支持数据的持久化,你可以每隔一段时间将数据集转存到磁盘上(snapshot),或者在日志尾部追加每一条操作命令(append only file,aof)。
Redis同样支持主从复制(master-slave replication),并且具有非常快速的非阻塞首次同步( non-blocking first synchronization)、网络断开自动重连等功能。同时Redis还具有其它一些特性,其中包括简单的事物支持、发布订阅 ( pub/sub)、管道(pipeline)和虚拟内存(vm)等 。
Redis具有丰富的客户端,支持现阶段流行的大多数编程语言。
celery
简介
Celery(芹菜)是一个简单、灵活且可靠的,处理大量消息的分布式系统,并且提供维护这样一个系统的必需工具。
任务队列
任务队列是一种在线程或机器间分发任务的机制。
消息队列
消息队列的输入是工作的一个单元,称为任务,独立的职程(Worker)进程持续监视队列中是否有需要处理的新任务。
Celery 用消息通信,通常使用中间人(Broker)在客户端和职程间斡旋。这个过程从客户端向队列添加消息开始,之后中间人把消息派送给职程,职程对消息进行处理。如下图所示:
Celery 系统可包含多个职程和中间人,以此获得高可用性和横向扩展能力。
架构
Celery的架构由三部分组成,消息中间件(message broker),任务执行单元(worker)和任务执行结果存储(task result store)组成。
消息中间件
Celery本身不提供消息服务,但是可以方便的和第三方提供的消息中间件集成,包括,RabbitMQ,Redis,MongoDB等,这里我先去了解RabbitMQ,Redis。
任务执行单元
Worker是Celery提供的任务执行的单元,worker并发的运行在分布式的系统节点中。
任务结果存储
Task result store用来存储Worker执行的任务的结果,Celery支持以不同方式存储任务的结果,包括Redis,MongoDB,Django ORM,AMQP等,这里我先不去看它是如何存储的,就先选用Redis来存储任务执行结果。
修改
添加celery配置信息
''' Celery ''' from celery import platforms,Celery platforms.C_FORCE_ROOT = True # Redis连接地址,如果为本机不需要做修改 broker = 'redis://127.0.0.1:6379/0' app = Celery('fofa_spider',broker=broker)
添加核心函数
''' celery 爬虫 @param api_url 爬虫URL @param fofa_sql FOFA语句 ''' @app.task def celery_spider(api_url,fofa_sql): rs = fofa_requests(api_url) batch_insert_db(rs['results'],fofa_sql)
修改业务逻辑代码
''' fofa 爬虫主函数 @param fofa_sql fofa查询语句 ''' def main(fofa_sql): base64_str = base64.b64encode(fofa_sql) fields_str = ','.join(fields) api_url = 'http://fofa.so/api/v1/search/all?email='+fofa_name+'&key='+fofa_key+'&fields='+fields_str+'&size='+str(page_size)+'&page='+str(page_start)+'&qbase64='+base64_str rs = fofa_requests(api_url) total_size = rs['size'] # 计算页数 page_end = total_size / page_size + 1 if total_size % page_size != 0 else total_size / page_size # 存入数据库 batch_insert_db(rs['results'],fofa_sql) for page_no in range(1,page_end+1): api_url = 'http://fofa.so/api/v1/search/all?email='+fofa_name+'&key='+fofa_key+'&fields='+fields_str+'&size='+str(page_size)+'&page='+str(page_no)+'&qbase64='+base64_str logging.info('send task -->'+api_url) celery_spider.delay(api_url,fofa_sql)
完整代码地址:
https://github.com/0nise/scripts/blob/master/fofa_spider_ext.py
运行
运行python fofa_spider_ext.py发送需要爬虫的任务信息
运行celery -A fofa_spider_ext worker -l info进行消费爬虫
运行成功
数据库信息
相关推荐
- 史上最全的浏览器兼容性问题和解决方案
-
微信ID:WEB_wysj(点击关注)◎◎◎◎◎◎◎◎◎一┳═┻︻▄(页底留言开放,欢迎来吐槽)●●●...
-
- 平面设计基础知识_平面设计基础知识实验收获与总结
-
CSS构造颜色,背景与图像1.使用span更好的控制文本中局部区域的文本:文本;2.使用display属性提供区块转变:display:inline(是内联的...
-
2025-02-21 16:01 yuyutoo
- 写作排版简单三步就行-工具篇_作文排版模板
-
和我们工作中日常word排版内部交流不同,这篇教程介绍的写作排版主要是用于“微信公众号、头条号”网络展示。写作展现的是我的思考,排版是让写作在网格上更好地展现。在写作上花费时间是有累积复利优势的,在排...
- 写一个2048的游戏_2048小游戏功能实现
-
1.创建HTML文件1.打开一个文本编辑器,例如Notepad++、SublimeText、VisualStudioCode等。2.将以下HTML代码复制并粘贴到文本编辑器中:html...
- 今天你穿“短袖”了吗?青岛最高23℃!接下来几天气温更刺激……
-
最近的天气暖和得让很多小伙伴们喊“热”!!! 昨天的气温到底升得有多高呢?你家有没有榜上有名?...
- CSS不规则卡片,纯CSS制作优惠券样式,CSS实现锯齿样式
-
之前也有写过CSS优惠券样式《CSS3径向渐变实现优惠券波浪造型》,这次再来温习一遍,并且将更为详细的讲解,从布局到具体样式说明,最后定义CSS变量,自定义主题颜色。布局...
- 你的自我界限够强大吗?_你的自我界限够强大吗英文
-
我的结果:A、该设立新的界限...
- 行内元素与块级元素,以及区别_行内元素和块级元素有什么区别?
-
行内元素与块级元素首先,CSS规范规定,每个元素都有display属性,确定该元素的类型,每个元素都有默认的display值,分别为块级(block)、行内(inline)。块级元素:(以下列举比较常...
-
- 让“成都速度”跑得潇潇洒洒,地上地下共享轨交繁华
-
去年的两会期间,习近平总书记在参加人大会议四川代表团审议时,对治蜀兴川提出了明确要求,指明了前行方向,并带来了“祝四川人民的生活越来越安逸”的美好祝福。又是一年...
-
2025-02-21 16:00 yuyutoo
- 今年国家综合性消防救援队伍计划招录消防员15000名
-
记者24日从应急管理部获悉,国家综合性消防救援队伍2023年消防员招录工作已正式启动。今年共计划招录消防员15000名,其中高校应届毕业生5000名、退役士兵5000名、社会青年5000名。本次招录的...
- 一起盘点最新 Chrome v133 的5大主流特性 ?
-
1.CSS的高级attr()方法CSSattr()函数是CSSLevel5中用于检索DOM元素的属性值并将其用于CSS属性值,类似于var()函数替换自定义属性值的方式。...
- 竞走团体世锦赛5月太仓举行 世界冠军杨家玉担任形象大使
-
style="text-align:center;"data-mce-style="text-align:...
- 学物理能做什么?_学物理能做什么 卢昌海
-
作者:曹则贤中国科学院物理研究所原标题:《物理学:ASourceofPowerforMan》在2006年中央电视台《对话》栏目的某期节目中,主持人问过我一个的问题:“学物理的人,如果日后不...
-
- 你不知道的关于这只眯眼兔的6个小秘密
-
在你们忙着给熊本君做表情包的时候,要知道,最先在网络上引起轰动的可是这只脸上只有两条缝的兔子——兔斯基。今年,它更是迎来了自己的10岁生日。①关于德艺双馨“老艺...
-
2025-02-21 16:00 yuyutoo
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- mybatis plus (70)
- scheduledtask (71)
- css滚动条 (60)
- java学生成绩管理系统 (59)
- 结构体数组 (69)
- databasemetadata (64)
- javastatic (68)
- jsp实用教程 (53)
- fontawesome (57)
- widget开发 (57)
- vb net教程 (62)
- hibernate 教程 (63)
- case语句 (57)
- svn连接 (74)
- directoryindex (69)
- session timeout (58)
- textbox换行 (67)
- extension_dir (64)
- linearlayout (58)
- vba高级教程 (75)
- iframe用法 (58)
- sqlparameter (59)
- trim函数 (59)
- flex布局 (63)
- contextloaderlistener (56)