PHP使用CURL实现多线程抓取网页
PHP利用CurlFunctions可以完成各种传送文件操作,比如模拟浏览器发送GET,POST请求等等,受限于php语言本身不支持多线程,所以开发爬虫程序效率并不高,这时候往往需要借助CurlMultiFunctions它可以实现并发多线程的访问多个url地址。既然CurlMultiFunction如此强大,能否用CurlMultiFunctions来写并发多线程下载文件呢,当然可以,下面给出我的代码:
代码1:将获得的代码直接写入某个文件
<?php
$urls=array(
'http://www.sina.com.cn/',
'http://www.sohu.com/',
'http://www.163.com/'
);//设置要抓取的页面URL
$save_to='/test.txt';//把抓取的代码写入该文件
$st=fopen($save_to,"a");
$mh=curl_multi_init();
foreach($urlsas$i=>$url){
$conn[$i]=curl_init($url);
curl_setopt($conn[$i],CURLOPT_USERAGENT,"Mozilla/4.0(compatible;MSIE7.0;WindowsNT6.0)");
curl_setopt($conn[$i],CURLOPT_HEADER,0);
curl_setopt($conn[$i],CURLOPT_CONNECTTIMEOUT,60);
curl_setopt($conn[$i],CURLOPT_FILE,$st);//设置将爬取的代码写入文件
curl_multi_add_handle($mh,$conn[$i]);
}//初始化
do{
curl_multi_exec($mh,$active);
}while($active);//执行
foreach($urlsas$i=>$url){
curl_multi_remove_handle($mh,$conn[$i]);
curl_close($conn[$i]);
}//结束清理
curl_multi_close($mh);
fclose($st);
?>
代码2:将获得的代码先放入变量,再写入某个文件
<?php
$urls=array(
'http://www.sina.com.cn/',
'http://www.sohu.com/',
'http://www.163.com/'
);
$save_to='/test.txt';//把抓取的代码写入该文件
$st=fopen($save_to,"a");
$mh=curl_multi_init();
foreach($urlsas$i=>$url){
$conn[$i]=curl_init($url);
curl_setopt($conn[$i],CURLOPT_USERAGENT,"Mozilla/4.0(compatible;MSIE7.0;WindowsNT6.0)");
curl_setopt($conn[$i],CURLOPT_HEADER,0);
curl_setopt($conn[$i],CURLOPT_CONNECTTIMEOUT,60);
curl_setopt($conn[$i],CURLOPT_RETURNTRANSFER,true);//设置不将爬取代码写到浏览器,而是转化为字符串
curl_multi_add_handle($mh,$conn[$i]);
}
do{
curl_multi_exec($mh,$active);
}while($active);
foreach($urlsas$i=>$url){
$data=curl_multi_getcontent($conn[$i]);//获得爬取的代码字符串
fwrite($st,$data);//将字符串写入文件。当然,也可以不写入文件,比如存入数据库
}//获得数据变量,并写入文件
foreach($urlsas$i=>$url){
curl_multi_remove_handle($mh,$conn[$i]);
curl_close($conn[$i]);
}
curl_multi_close($mh);
fclose($st);
?>
以上所述就是本文的全部内容了,希望大家能够喜欢。