首页/技术/文章阅读

将所有的xml文件中的链接提取到txt文件中存放

技术 2023-05-08 33 0
由于我需要为搜狗提交做准备,直接读取xml文件容易搞乱自己的大脑,所以写了一个php文件,将所有的xml链接全部提取到txt文件中。 之前的网站已经有18条xml文件了,每个xml文件中有5000条网站的url,所以我现在需要做的是将所有的url全部存放到txt文件中,接下来的提交到搜狗只需要从txt文件中读取url就行。 说的太复杂我自己都懵,直接开始吧。

代码如下:

<?php
header('Content-Type:text/html;charset=utf-8');
if(!$_GET['xml']){
    die("data error");
}else{
$xmldata =file_get_contents($_GET['xml']);
$xmlstring = simplexml_load_string($xmldata,'SimpleXMLElement',LIBXML_NOCDATA);
$value_array = json_decode(json_encode($xmlstring),true);
$url = [];
$fp = fopen('all_siteurl.txt', 'a+');

for ($i =0;$i < count($value_array['url']);$i++){
    // echo $value_array['url'][$i]['loc']."<br/>";
    fwrite($fp, $value_array['url'][$i]['loc'] . PHP_EOL);
}
// echo '<pre>';
// print_r($url);
fclose($fp);
die('success.');
}

执行方式如下:

访问:/data/txt.php?xml=/sitemap_01.xml 执行的速度很快,5000条也就1s的时间,由于我这个是标号的,所以直接替换后面的01为02则进行下一个xml文件。一直到18结束,这样八九万的数据就全部写入到一个统一的txt文件了,也就是上面代码中的:all_siteurl.txt文件,下一篇文章读取并提交到搜狗也是这个文件。 敬请看我下一篇文章: [post id="2209"] 好了,这个就到这里了,很简单,代码都是复用性很高的,当做一个小工具使用还是挺不错的。

正文结束

流量转发的使用方法&自己使用vps进行转发流量提交网站url到搜狗引擎的方法(第六版重写代码,这次换手动)

评论区

还没有评论,来坐沙发吧。