PHP信息采集技术

2016-05-05 12:06:11 PHP 1137 0

本文涉及正则表达式,如果你不了解请 点这里
如需图文教程,请直接访问我的CSDN博文 PHP CURL 图灵机器人

普通的php网页爬取

手动写个类就行,依据php手册中的curl

相当于让自己的服务器把页面下载了下来,再展示给用户看。一般处理这个是需要存入缓存中的。

<?php
class CuteCrawler{
    //下载页面
    public function getContentByCurl($url){
        $ch = curl_init($url);
        curl_setopt($ch, CURLOPT_HEADER, 0);
        $content = curl_exec($ch);
        curl_close($ch);
        return $content; 
    }
    //提取出名称
    public function extractPage($page){
        $matches = array();
        //preg_match提取单个
        preg_match("/<span>名称:<\/span>([^(<br)]+)<br/", $page,$matches);
        //正则表达式匹配到的东西,从$page里面,放到$matches数组里面
        //关键字 我们匹配到的内容 <br结尾
        echo "\n";
        echo $matches[1];//正则表达式子匹配到的内容 
        //$matches[0] 将包含完整模式匹配到的文本, $matches[1]  将包含第一个捕获子组匹配到的文本,以此类推。 
        echo "\n";
    }
    public function extractLink($page){
        //匹配每个歌单的页面
        $matches = array();
        $pat="/href=\"(http:\/\/www\.kugou\.com\/yy\/special\/single\/\d+\.html)\"/";
        preg_match_all($pat, $page, $matches,PREG_PATTERN_ORDER);
        //关于preg_match_all如果不理解进入http://hlzblog.top/?type=8&id=14
        for ($i=0; $i < count($matches[0]); $i++) { 
            echo $matches[1][$i];
            //$matches[1][$i]的匹配到的几个,类似fetch与fetchAll的区别
            echo "\n";
        }
        //匹配下一页
        $matches = array();
        //根据网站对应的翻页规则,写正则
        $pat="/href=\"(http:\/\/www\.kugou\.com\/yy\/special\/single\/\d+-0-2\.html)\"/";
        for ($i=0; $i < count($matches[0]); $i++) { 
            # code...
            echo $matches[1][$i];
            echo "\n";
        }
    }
}
$url="http://www.kugou.com/yy/special/index/1-0-2.html";
$crawler = new CuteCrawler();
$content = $crawler ->getContentByCurl($url);//下载页面

如果输出

$crawler->extractPage($content);//具体过程请看类中的注释

或者输出

$crawler->extractLink($content);//具体过程请看类中的注释
值得注意的地方:

记得使用代理系统,下面是一个提供免费匿名代理的网站 http://www.proxy360.cn/default.aspx

下面介绍一个强大的采集类

它是用来模拟浏览器的功能,可以获取网页内容,网页链接,发送表单,可以用来快速开发一些采集程序和小偷程序。

官方最新Snoopy类下载

https://sourceforge.net/projects/snoopy/files/latest/download

Snoopy的一些特点:

抓取网页的内容 fetch
抓取网页的文本内容 (去除HTML标签) fetchtext
抓取网页的链接,表单 fetchlinks fetchform
支持代理主机
支持基本的用户名/密码验证
支持设置 user_agent, referer(来路), cookies 和 header content(头文件)
支持浏览器重定向,并能控制重定向深度
能把网页中的链接扩展成高质量的url(默认)
提交数据并且获取返回值
支持跟踪HTML框架
支持重定向的时候传递cookies
要求php4以上就可以了 由于本身是php一个类 无需扩支持 服务器不支持curl时候的最好选择,
Snoopy类方法及示例:
fetch($URI)
这是为了抓取网页的内容而使用的方法。
$URI参数是被抓取网页的URL地址。
抓取的结果被存储在 $this->results 中。
如果你正在抓取的是一个框架,Snoopy将会将每个框架追踪后存入数组中,然后存入 $this->results。
fetchtext($URI)
本方法类似于fetch(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中的文字内容。
fetchform($URI)
本方法类似于fetch(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中表单内容(form)。
fetchlinks($URI)
本方法类似于fetch(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中链接(link)。
默认情况下,相对链接将自动补全,转换成完整的URL。
submit($URI,$formvars)
本方法向$URL指定的链接地址发送确认表单。$formvars是一个存储表单参数的数组。
submittext($URI,$formvars)
本方法类似于submit(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回登陆后网页中的文字内容。
submitlinks($URI)
本方法类似于submit(),唯一不同的就是本方法会去除HTML标签和其他的无关数据,只返回网页中链接(link)。
默认情况下,相对链接将自动补全,转换成完整的URL。

Snoopy采集类属性: (默认值在括号里)

$host 连接的主机
$port 连接的端口
$proxy_host 使用的代理主机,如果有的话
$proxy_port 使用的代理主机端口,如果有的话
$agent 用户代理伪装 (Snoopy v0.1)
$referer 来路信息,如果有的话
$cookies cookies 如果有的话
$rawheaders 其他的头信息, 如果有的话
$maxredirs 最大重定向次数, 0=不允许 (5)
$offsiteok whether or not to allow redirects off-site. (true)
$expandlinks 是否将链接都补全为完整地址 (true)
$user 认证用户名, 如果有的话
$pass 认证用户名, 如果有的话
$accept http 接受类型 (image/gif, image/x-xbitmap, image/jpeg, image/pjpeg, */*)
$error 哪里报错, 如果有的话
$response_code 从服务器返回的响应代码
$headers 从服务器返回的头信息
$maxlength 最长返回数据长度
$read_timeout 读取操作超时 (requires PHP 4 Beta 4+) 设置为0为没有超时
$timed_out 如果一次读取操作超时了,本属性返回 true (requires PHP 4 Beta 4+)
$maxframes 允许追踪的框架最大数量
$status 抓取的http的状态
$temp_dir 网页服务器能够写入的临时文件目录 (/tmp)
$curl_path cURL binary 的目录, 如果没有cURL binary就设置为 false
案例一:获取网页内容,纯文本内容,网页链接,网页表单
<?php
include("snoopy.class.php");
$url = "http://www.hlzblog.top";   
$snoopy = new Snoopy();
//获取网页所有内容
$snoopy->fetch($url);
     //可选以下
     $snoopy->fetchtext //获取文本内容(去掉html代码)
     $snoopy->fetchlinks //获取链接
     $snoopy->fetchform  //获取表单
//打印查看
print_r($snoopy->results);
案例二:模拟登录
<?php
/*
 * 这里模拟登录163邮箱
 * @link http://mail.163.com/
 */
include("snoopy.class.php");
$snoopy = new Snoopy();
 //登陆页面的地址
$submit_url = "http://mail.163.com/";
//163邮箱登陆页面的表单对应字段是username
$submit_vars['username'] = "你自己的帐号";
//163邮箱登陆页面的表单对应字段是password
$submit_vars['password'] = "你自己的密码";
//表单提交
$snoopy->submit($submit_url, $submit_vars);
//获取表单提交后的 返回的结果
echo $snoopy->results;
    //可选以下
    $snoopy->submittext; //提交后只返回 去除html的 文本
    $snoopy->submitlinks;//提交后只返回 链接

既然已经提交的表单 那就可以做很多事情 接下来我们来伪装ip,伪装浏览器

案例三:伪装浏览器
<?php
$formvars["username"] = "lanfengye";
$formvars["pwd"] = "lanfengye";
$action = "http://www.jb51.net";
include "snoopy.php";
$snoopy = new Snoopy();
$snoopy->cookies["PHPSESSID"] = 'fc106b1918bd522cc863f36890e6fff7'; //伪装sessionid
$snoopy->agent = "(compatible; MSIE 4.01; MSN 2.5; AOL 4.0; Windows 98)"; //伪装浏览器
$snoopy->referer = "http://www.jb51.net"; //伪装来源页地址 http_referer
$snoopy->rawheaders["Pragma"] = "no-cache"; //cache 的http头信息
$snoopy->rawheaders["X_FORWARDED_FOR"] = "127.0.0.101"; //伪装ip
$snoopy->submit($action,$formvars);
echo $snoopy->results;
?>

原来我们可以伪装session 伪装浏览器 ,伪装ip, haha 可以做很多事情了。 例如 带验证码,验证ip 投票, 可以不停的投。

这里伪装ip ,其实是伪装http头, 所以一般的通过 REMOTE_ADDR 获取的ip是伪装不了,
反而那些通过http头来获取ip的(可以防止代理的那种) 就可以自己来制造ip。

关于如何验证码 ,简单说下: 首先用普通的浏览器,查看页面,找到验证码所对应的sessionid 同时记下sessionid和验证码值 接下来就用snoopy去伪造 原理----由于是同一个sessionid 所以取得的验证码和第一次输入的是一样的。

案例四:伪造更多信息

有时我们可能需要伪造更多的东西,snoopy完全为我们想到了

<?php
$snoopy->proxy_host = "http://www.jb51.net";
$snoopy->proxy_port = "8080"; //使用代理
$snoopy->maxredirs = 2; //重定向次数
$snoopy->expandlinks = true; //是否补全链接 在采集的时候经常用到
// 例如链接为 /images/taoav.gif 可改为它的全链接 <a href="http://www.jb51.net/images/taoav.gif">http://www.jb51.net/images/taoav.gif</a>
$snoopy->maxframes = 5 //允许的最大框架数
//注意抓取框架的时候 $snoopy->results 返回的是一个数组
$snoopy->error //返回报错信息
注:若无特殊说明,文章均为云天河原创,请尊重作者劳动成果,转载前请一定要注明出处