阿里云主机

万维景盛

万维景盛官网
怎样使用wget命令抓取网页含css引用的背景图片?

在linux/centos系统里,wget是一个非常方便的http/ftp下载命令,可以用来作为搜索引擎快照的爬虫使用,也就是复制网站镜像。不过用它来dump比较现代的网站会有一个问题:不支持css文件,它不会自动下载、重新链接css中所指定的图片。这个问题导致的最常见的后果是dump下来的网站看不到背景图片。本文所介绍的这个脚本主要就是用来解决这个缺陷的。

这里简要介绍一下这个脚本的细节:

    第3行用于设置要下载的网站的地址。
    第10行用于将文件名转换为windows兼容的格式。windows对文件名格式的要求比unix更为苛刻一点,这里指定为windows也可以兼容unix系统。总的来说,wget的这个功能稍微弱了一点,面对一些更苛刻的系统就没有办法了。
    第13行用于忽略robots.txt。很多网站的css、js文件都是在robots.txt中被定义为spider不可访问的。
    第15、16行用于忽略某些目录和文件。因为没有了robots.txt的限制,wget可能会去访问一些不需要的东西。这里可以根据具体情况做限制。
    第19~24行下载css中链接的文件。
    第26~29行修正css中的链接。

以下是这个脚本的内容

    #!/bin/sh  
      
    ADDR="http://www.EXAMPLE.com/"  
      
    SERVER=${ADDR#http://}  
    SERVER=${SERVER%%/*}  
      
    wget /  
        --html-extension /  
        --restrict-file-names=windows /  
        --convert-links /  
        --page-requisites /  
        --execute robots=off /  
        --mirror /  
        --exclude-directories /comment/reply/,/aggregator/,/user/ /  
        --reject "aggregator*" /  
        "$ADDR"  
      
    find $SERVER -type f -name "*.css" -exec cat {} /; |  
    grep -o 'url(/[^)]*)' |  
    sort |   
    uniq |  
    sed 's/^url(/(.*/))$/http:////'$SERVER'/1/' |  
    wget --mirror --page-requisites -i -  
      
    for i in `find $SERVER -type f -name "*.css"`; do  
        PREFIX="$(echo $i | sed 's/[^//]*//g; s///$//; s////../////g')"  
        sed -i 's/url(///url('$PREFIX'/g' $i  
    done  


< 购物车 > 会员 客服 充值 工单
Top

客服热线

010-80253326

18610695105

客服QQ

请拨总机 010-80253326

咨询售后问题建议 提交工单