Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1530945
  • 博文数量: 3500
  • 博客积分: 6000
  • 博客等级: 准将
  • 技术积分: 43870
  • 用 户 组: 普通用户
  • 注册时间: 2008-05-03 20:31
文章分类

全部博文(3500)

文章存档

2008年(3500)

我的朋友

分类:

2008-05-04 20:13:32

一起学习
作者:东方一蛇 网站“我的家”() <%@ page contentType="text/html;charset=gb2312"%> <% String sCurrentLine; String sTotalString; sCurrentLine=""; sTotalString=""; java.io.InputStream l_urlStream; java.net.URL l_url = new java.net.URL(""); java.net.HttpURLConnection l_connection = (java.net.HttpURLConnection) l_url.openConnection(); l_connection.connect(); l_urlStream = l_connection.getInputStream(); java.io.BufferedReader l_reader = new java.io.BufferedReader(new java.io.InputStreamReader(l_urlStream)); while ((sCurrentLine = l_reader.readLine()) != null) { sTotalString =sCurrentLine; } out.println(sTotalString); %> 后记   虽然代码比较简单,但是,我认为根据这个,可以实现“网络爬虫”的功能,比如从页面找href连接,然后再得到那个连接,然后再“抓”,不停止地(当然可以限定层数),这样,可以实现“网页搜索”功能。 下载本文示例代码


jsp“抓”网页代码的程序jsp“抓”网页代码的程序jsp“抓”网页代码的程序jsp“抓”网页代码的程序jsp“抓”网页代码的程序jsp“抓”网页代码的程序jsp“抓”网页代码的程序jsp“抓”网页代码的程序jsp“抓”网页代码的程序jsp“抓”网页代码的程序jsp“抓”网页代码的程序jsp“抓”网页代码的程序
阅读(96) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~