SEO优化

首先我们先看看本站的数据吧

数据.png
这里以百度为例,说说常见的SEO的几个数据
主动推送:最为快速的提交方式,建议您将站点当天新产出链接立即通过此方式推送给百度,以保证新链接可以及时被百度收录。

sitemap:您可以定期将网站链接放到Sitemap中,然后将Sitemap提交给百度。百度会周期性的抓取检查您提交的Sitemap,对其中的链接进行处理,但收录速度慢于主动推送。

手工提交:如果您不想通过程序提交,那么可以采用此种方式,手动将链接提交给百度。

自动推送:是轻量级链接提交组件,将自动推送的JS代码放置在站点每一个页面源代码中,当页面被访问时,页面链接会自动推送给百度,有利于新页面更快被百度发现。

优化方法

基于插件的优化:我们可以根据不同的平台,安装不同的seo插件。如:DZtypecho,WP等常见的程序,下载相应的插件即可。
利用Python爬虫
我们可以利用下面代码对网站进行爬虫

import os  
import re  
import shutil  
  
REJECT_FILETYPE = 'rar,7z,css,js,jpg,jpeg,gif,bmp,png,swf,exe' 
  
def getinfo(webaddress):   
    global REJECT_FILETYPE  
    url = 'http://'+webaddress+'/'  
    print 'Getting>>>>> '+url
    websitefilepath = os.path.abspath('.')+'/'+webaddress   
    if os.path.exists(websitefilepath):   
        shutil.rmtree(websitefilepath)     
    outputfilepath = os.path.abspath('.')+'/'+'output.txt'   
    fobj = open(outputfilepath,'w+')  
    command = 'wget -r -m -nv --reject='+REJECT_FILETYPE+' -o '+outputfilepath+' '+url  
    tmp0 = os.popen(command).readlines()  
    print >> fobj,tmp0  
    allinfo = fobj.read()
    target_url = re.compile(r'\".*?\"',re.DOTALL).findall(allinfo)  
    print  target_url
    target_num = len(target_url)  
    fobj1 = open('result.txt','w')     
    for i in range(target_num):
        if len(target_url[i][1:-1])<70:   
           print >> fobj1,target_url[i][1:-1]     
        else:  
          print "NO"
    fobj.close()  
    fobj1.close()  
    if os.path.exists(outputfilepath):   
        os.remove(outputfilepath)  
   
if __name__=="__main__":  
    webaddress = raw_input("Input the Website Address(without \"http:\")>")  
    getinfo(webaddress)  
    print "Well Done."

执行完成后,后生成一个result.txt文件。

然后我们利用百度站长平台的提示语法,进行提交。
百度站长工具使用示例
参数说明:

字段 参数类型 说明
success int 成功推送的url条数
remain int 当天剩余的可推送url条数
not_same_site array 由于不是本站url而未处理的url列表

成功返回示例:

{
    "remain":4999998,
    "success":2,
    "not_same_site":[],
    "not_valid":[]
}

优化效果

最后修改:2023 年 08 月 04 日
如果觉得我的文章对你有用,请随意赞赏