Chinaunix首页 | 论坛 | 博客
  • 博客访问: 980300
  • 博文数量: 78
  • 博客积分: 1473
  • 博客等级: 上尉
  • 技术积分: 2124
  • 用 户 组: 普通用户
  • 注册时间: 2012-05-23 12:50
文章分类

全部博文(78)

文章存档

2016年(6)

2015年(2)

2014年(13)

2013年(4)

2012年(53)

分类: 网络与安全

2012-06-22 17:11:03

 

前言

从本篇博客开始我们正式接触应用剖析的内容。今天的内容很简单,主要是个人的一些想法和几个工具的简单使用

应用剖析要有全局观

分析网站不是随便点几个页面碰运气,真正的测试是不遗漏每一个细节。不遗漏细节的方式就是不要从细节入手。全局着眼摸清主干然后再深入分析。对于网站应用剖析的全局观是什么?是它的层次结构。搞懂了层次之后,我们在看各个层次的内容,文件,功能,然后再从文件入手分析扩展名,语言,表单等等等等。细节问题我们将会具体介绍。

层次结构的探测方法

1.    从网站的根目录开始,顺着各个链接一路爬行。

2.    对于隐藏的目录或界面我们只能猜测或者根据其他信息比如错误信息进行推理。

3.    对于知名系统,搜索引擎总是会给我们意外的惊喜。

网站的层次结构不代表实际主机上的文件组织结构

这一点不用我细说,只要你略微懂一些网站建设知识的话都会明白的。实际的文件组织结构是可以映射到网站层次的任何一个位置的。

虽然如此,恐怕没有哪个人在建设网站的时候愿意把这种对应关系搞得异常复杂。从管理上看简单明了总是最好的。但是如果网站简单对我们分析人员来讲也是件天大的好事。

自动化工具

在剖析中使用的最基础最强大的技术就是把整个应用程序镜像到本地副本。对于大型的web应用程序来说,手工剖析目录做爬行的话是不可想象的。许多优秀的爬行工具给了我们选择的余地。对于这些工具我之所以在全局任务来讲是因为它们有着先天的局限性。往往自动化程度越高,智能化程度越低。所以我认为它是层次剖析的最好工具(但结果不是最全面的),却不是细节剖析的首选。

1Lynx

这是最早出现的文本浏览器。是很好的url捕捉工具。关于这个软件的具体应用使用请参考其他资料。我没有用过也就不具体介绍了。

2Wget

是一款windowsUNIX下的命令行工具,可以用来下载一个站点的内容。

它的目的很简单——下载文件。不支持结果筛选等功能。总体上讲它还是很强大的。输入-help,我们可以看到它的一大堆参数。

-r参数指示程序跟踪每一个链接。这将创建一个跟踪网站的完整目录。

 

它的主要优点是可以下载应用程序的每个参数的输出。

比如对同一login.asp页面可能会被下载多次

login.asp id=012568

login.asp id=012566

login.asp id=012554

 

它还有一些高级选项如代理和http基础认证的支持。

其他的参数我暂时就不介绍了,说的再多不如你动手做做。

3Teleport Pro

是一款Windows下的图形界面程序。并提供了详细的设置选项,对于我们菜鸟来说还是比较适合的。

 

该工具有个缺点是对grep,findstr这类工具是不支持的。所以当我们具体分析我们取得的信息的时候将会很麻烦。

4Black Widow

它完全可以作为Teleport Pro的替代品。提供了一个用户搜索和搜集指定信息的界面。支持搜索工具 。它有自带的浏览器。可配置的参数也多了很多,支持把文件下载到指定目录。

5Office Explorer Pro

是我们目前使用的最优秀的软件。它支持各种认证协议,包括NTML,还有https的访问。而且有着超酷的编辑功能。

想用好这个软件看来还不是很容易呢,那就多多实践。不过目前我们只是用它做整站下载。

 

阅读(1495) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~