centos安装wget(很简单)

centos安装wget(很简单)centos安装wget(很简单)yum-yinstallwgetyum-yinstallsetupyum-yinstallperlSearchingforGCC…Thepath""isnotvalidpathtothegccbinary.Wouldyouliketochangeit?[yes]如果出现这个就表明gcc没有安装yum…

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全系列IDE稳定放心使用

centos安装wget(很简单)


yum

y install wget

yum

y install setup

yum

y install perl

Searching for GCC…
The path “” is not valid path to the gcc binary.
Would you like to change it? [yes]
如果出现这个就表明gcc没有安装

yum install gcc make
将gcc和make一起装好

CentOS wget 使用技巧


$ CentOS wget -r -np -nd http://example.com/packages/ 这条命令可以下载 http://example.com 网站上 packages 目录中的所有文件。其中,-np 的作用是不遍历父目录,-nd 表示不在本机重新创建目录结构。

$ CentOS wget-r -np -nd –accept=iso http://example.com/centos-5/i386/ 与上一条命令相似,但多加了一个 –accept=iso 选项,这指示CentOS wget仅下载 i386 目录中所有扩展名为 iso 的文件。你也可以指定多个扩展名,只需用逗号分隔即可。

$ CentOS wget -i filename.txt 此命令常用于批量下载的情形,把所有需要下载文件的地址放到 filename.txt 中,然后 CentOS wget 就会自动为你下载所有文件了。

$ CentOS wget -c http://example.com/really-big-file.iso 这里所指定的 -c 选项的作用为断点续传。

$ CentOS wget -m -k (-H) http://www.example.com/ 该命令可用来镜像一个网站,CentOS wget将对链接进行转换。如果网站中的图像是放在另外的站点,那么可以使用 -H 选项。

CentOS wget 使用指南

CentOS wget是一个从网络上自动下载文件的自由工具。它支持HTTP,HTTPS和FTP协议,可以使用HTTP代理. 所谓的自动下载是指,CentOS wget可以在用户退出系统的之后在后台执行。这意味这你可以登录系统,启动一个CentOS wget下载任务,然后退出系统,CentOS wget将在后台执行直到任务完成,相对于其它大部分浏览器在下载大量数据时需要用户一直的参与,这省去了极大的麻烦。

wget可以跟踪HTML页面上的链接依次下载来创建远程服务器的本地版本,完全重建原始站点的目录结构。这又常被称作”递归下载”。在递归下载的时候,wget遵循Robot Exclusion标准(/robots.txt). wget可以在下载的同时,将链接转换成指向本地文件,以方便离线浏览。

wget非常稳定,它在带宽很窄的情况下和不稳定网络中有很强的适应性.如果是由于网络的原因下载失败,wget会不断的尝试,直到整个文件下载完毕。如果是服务器打断下载过程,它会再次联到服务器上从停止的地方继续下载。这对从那些限定了链接时间的服务器上下载大文件非常有用。

wget的常见用法wget的使用格式

Usage
:
wget
[
OPTION
]…

[
URL
]…


wget
做站点镜像:
wget

r

p

np

k http
:
//dsec.pku.edu.cn/~usr_name/# 或者wget -m http://www.tldp.org/LDP/abs/html/在不稳定的网络上下载一个部分下载的文件,以及在空闲时段下载

wget

t
0


w
31


c http
:
//dsec.pku.edu.cn/BBC.avi -o down.log &# 或者从filelist读入要下载的文件列表

wget

t
0


w
31


c

B ftp
:
//dsec.pku.edu.cn/linuxsoft -i filelist.txt -o down.log &

上面的代码还可以用来在网络比较空闲的时段进行下载。我的用法是:在
mozilla
中将不方便当时下载的
URL
链接拷贝到内存中然后粘贴到文件
filelist
.
txt
中,在晚上要出去系统前执行上面代码的第二条。

使用代理下载
wget

Y on

p

k https
:
//sourceforge.net/projects/wvware/代理可以在环境变量或wgetrc文件中设定 # 在环境变量中设定代理export PROXY=http://211.90.168.94:8080/# 在~/.wgetrc中设定代理

http_proxy
=
http
:
//proxy.yoyodyne.com:18023/

ftp_proxy
=
http
:
//proxy.yoyodyne.com:18023/

wget各种选项分类列表启动


V
,


version
显示
wget
的版本后退出


h
,


help
打印语法帮助


b
,


background
启动后转入后台执行


e
,


execute
=
COMMAND
执行
`.wgetrc’格式的命令,wgetrc格式参见/etc/wgetrc或~/.wgetrc

记录和输入文件


o
,


output

file
=
FILE
把记录写到
FILE
文件中


a
,


append

output
=
FILE
把记录追加到
FILE
文件中


d
,


debug
打印调试输出


q
,


quiet
安静模式(没有输出)


v
,


verbose
冗长模式(这是缺省设置)


nv
,


non

verbose
关掉冗长模式,但不是安静模式


i
,


input

file
=
FILE
下载在
FILE
文件中出现的
URLs


F
,


force

html
把输入文件当作
HTML
格式文件对待


B
,


base
=
URL

URL
作为在-
F

i
参数指定的文件中出现的相对链接的前缀


sslcertfile
=
FILE
可选客户端证书


sslcertkey
=
KEYFILE
可选客户端证书的
KEYFILE


egd

file
=
FILE
指定
EGD socket
的文件名

下载


bind

address
=
ADDRESS
指定本地使用地址(主机名或
IP
,当本地有多个
IP
或名字时使用)


t
,


tries
=
NUMBER
设定最大尝试链接次数(
0

表示无限制).


O

output

document
=
FILE
把文档写到
FILE
文件中


nc
,


no

clobber
不要覆盖存在的文件或使用.
#前缀


c
,


continue

接着下载没下载完的文件


progress
=
TYPE
设定进程条标记


N
,


timestamping
不要重新下载文件除非比本地文件新


S
,


server

response
打印服务器的回应


spider
不下载任何东西


T
,


timeout
=
SECONDS
设定响应超时的秒数


w
,


wait
=
SECONDS
两次尝试之间间隔
SECONDS


waitretry
=
SECONDS
在重新链接之间等待
1.
..
SECONDS


random

wait
在下载之间等待
0.
..
2
*
WAIT


Y
,


proxy
=
on
/
off
打开或关闭代理


Q
,


quota
=
NUMBER
设置下载的容量限制


limit

rate
=
RATE
限定下载输率

目录


nd

no

directories
不创建目录


x
,


force

directories
强制创建目录


nH
,


no

host

directories
不创建主机目录


P
,


directory

prefix
=
PREFIX
将文件保存到目录
PREFIX
/…


cut

dirs
=
NUMBER
忽略
NUMBER
层远程目录

HTTP 选项


http

user
=
USER
设定
HTTP
用户名为
USER
.


http

passwd
=
PASS
设定
http
密码为
PASS
.


C
,


cache
=
on
/
off
允许/不允许服务器端的数据缓存

(一般情况下允许).


E
,


html

extension
将所有
text
/
html
文档以.
html
扩展名保存


ignore

length
忽略

`Content-Length’头域

–header=STRING 在headers中插入字符串 STRING

–proxy-user=USER 设定代理的用户名为 USER

–referer=URL 在HTTP请求中包含 `
Referer
:
URL
‘头

–proxy-passwd=PASS 设定代理的密码为 PASS

-s, –save-headers 保存HTTP头到文件

-U, –user-agent=AGENT 设定代理的名称为 AGENT而不是 Wget/VERSION.

–no-http-keep-alive 关闭 HTTP活动链接 (永远链接).

–load-cookies=FILE 在开始会话前从文件 FILE中加载cookie

–cookies=off 不使用 cookies.

–save-cookies=FILE 在会话结束后将 cookies保存到 FILE文件中

FTP 选项


nr
,


dont

remove

listing
不移走

`.listing’文件

-g, –glob=on/off 打开或关闭文件名的 globbing机制

–passive-ftp 使用被动传输模式 (缺省值).

–retr-symlinks 在递归的时候,将链接指向文件(而不是目录)
–active-ftp 使用主动传输模式

递归下载


r
,


recursive
递归下载--慎用!


l
,


level
=
NUMBER
最大递归深度

(
inf


0

代表无穷).


delete

after
在现在完毕后局部删除文件


k
,


convert

links
转换非相对链接为相对链接


K
,


backup

converted
在转换文件
X
之前,将之备份为
X
.
orig


m
,


mirror
等价于


r

N

l inf

nr
.


p
,


page

requisites
下载显示
HTML
文件的所有图片

递归下载中的包含和不包含(accept/reject)


A
,


accept
=
LIST
分号分隔的被接受扩展名的列表


R
,


reject
=
LIST
分号分隔的不被接受的扩展名的列表


D
,


domains
=
LIST
分号分隔的被接受域的列表


exclude

domains
=
LIST
分号分隔的不被接受的域的列表


follow

ftp
跟踪
HTML
文档中的
FTP
链接


follow

tags
=
LIST
分号分隔的被跟踪的
HTML
标签的列表


G
,


ignore

tags
=
LIST
分号分隔的被忽略的
HTML
标签的列表


H
,


span

hosts
当递归时转到外部主机


L
,


relative
仅仅跟踪相对链接


I
,


include

directories
=
LIST
允许目录的列表


X
,


exclude

directories
=
LIST
不被包含目录的列表


np
,


no

parent
不要追溯到父目录

备注:若要停止下载,Ctrl+C。

总结:CentOS wget是一个从网络上自动下载文件的自由工具。它支持HTTP,HTTPS和FTP协议,可以使用HTTP代理. 所谓的自动下载是指,CentOS wget可以在用户退出系统的之后在后台执行。这意味这你可以登录系统,启动一个CentOS wget下载任务,然后退出系统,CentOS wget将在后台执行直到任务完成,相对于其它大部分浏览器在下载大量数据时需要用户一直的参与,这省去了极大的麻烦。


作者: 宋鎏鑫 

链接:https://www.imooc.com/article/17781?block_id=tuijian_wz

来源:慕课网
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/181101.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号