zblog调取大量数据内存不溢出的方法
想必各位开发者都遇到过这个问题,一次性调用大量的数据就会内存溢出,常见的应该是sitemap插件,当网站有大量文章的时候,生成sitemap时就会出现上图错误。
为了方便大家,本站封装好了一个函数,调用全部数据并不会出现内存溢出的情况
下面的例子是导出网站用户1的所有文章名,每次取出100个文章
set_time_limit(0);//封装好的函数function GetAllData($method, $w, $o, $limit, $callback){ global $zbp; $page = 1; do{ $p = new Pagebar('', false); $p->PageNow = $page++; $p->PageCount = $limit; $array = $zbp->$method( '*', $w, $o, array(($p->PageNow - 1) * $p->PageCount, $p->PageCount), array('pagebar' => $p), false ); $complete = !$limit || $limit * $p->PageNow >= $p->Count; $res = $callback($array, $p, $complete); if ($res === false){ break; } $zbp->posts = []; //清空zb内存中的文章缓存,防止内存溢出 }while(!$complete);}//例:导出所有用户1的文章名header("Content-Disposition:attachment;filename=posts.txt");//调用本站封装好的函数GetAllData('GetArticleList', array(array('=','log_AuthorID',1)), array('log_PostTime' => 'DESC'), 100, function($articles, $pagebar, $complete){ // $pagebar pagebar分页对象 if ($complete){ //已取出全部 }else{ //还有数据未取出 } //执行你的代码 foreach ($articles as $article) { echo iconv("UTF-8","GB2312//IGNORE", $article->Title."\n"); } ob_flush(); flush(); //结束你自己的代码 //return false; //终止,即便还有数据未取出,也不会再去取,也不会执行回调函数。如果继续执行,请不要添加此代码});
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。
仍然有问题? 我们要如何帮助您?