centos7下shadowsocks服务端的安装配置与自启动
注意:本文所有操作都是默认使用 root 用户,默认服务器系统为 centos7。
安装 shadowsocks
添加 epel 源
首先添加 epel 源,以保证能正确安装 shadowsocks 的各项依赖
yum install epel-release -y
# 安装完成后清理配置并重建缓存
yum clean all
yum makecache
# 更新
yum update
安装 shadowsocks 软件
首先安装 git 并用 git 下载源码
yum install git -y
# git安装完成后下载shadowsocks源码
git clone https://github.com/shadowsocks/shadowsocks-libev.git
# 改变工作目录到刚下载的源码目录
cd shadowsocks-libev
# 更新子模块
git submodule update --init --recursive
接下来安装 shadowsocks 的各种依赖
# 要注意输出的安装信息确保所有依赖正确安装,如各别依赖无法自动安装则需手动安装,一般正确更新了epel源都可以自动安装所有依赖
yum install gcc gettext autoconf libtool automake make pcre-devel asciidoc xmlto c-ares-devel libev-devel libsodium-devel mbedtls-devel -y
依赖全部成功安装后,用源码编译安装 shadowsocks
# 注意当前工作目录应为刚下载的shadowsocks-libev源码目录
./autogen.sh && ./configure && make
# make完成后进行安装
make install
用户配置
单用户配置
在任意目录下建立一个配置文件,例如在 root 目录下建立 ss_serverConfig
vim /root/ss_serverConfig
{
"server": "111.111.111.111", # 你vps的ip地址
"server_port": 8388, # shadowsocks server要使用的端口,自行设定
"local_port": 1080, # 本地端口,自行设定
"password": "barfoo!", # 密码,自行设定
"timeout": 600, # 超时毫秒数
"method": "chacha20-ietf-poly1305" # 加密方式,建议优先选chacha20-ietf-poly1305,若客户端不支持,可选aes-256-cfb
}
# 写好配置文件后运行ss-server(非libev版使用ssserver命令)
ss-server -c /root/ss_serverConfig # -c 参数是使用配置文件
多用户配置
多用户配置文件与单用户不同,我们还是在 root 下创建一个 ss_managerConfig
vim /root/ss_managerConfig
{
"server": "111.111.111.111", # 你vps的ip地址
"local_port": 1080, # 本地端口,自行设定
"timeout": 600, # 超时毫秒数
"method": "chacha20-ietf-poly1305", # 加密方式,建议优先选chacha20-ietf-poly1305,若客户端不支持,可选aes-256-cfb
"port_password": {
"8388": "barfoo1", # 端口号与密码
"8389": "barfoo2"
}
}
# 多用户配置时,应用ss-manager而不是ss-server
ss-manager -c /root/ss_managerConfig
这时我们发现不论是 ss-server 还是 ss-manager 都是前台程序,挂在前台执行,监听端口,使用 ctrl+c 停止后,服务也就停止了。有两个方法使程序运行到后台。
- 程序运行后,我们可以使用 ctrl+z 键使程序挂起到后台,使用 jobs 命令查看程序编号,若后台无其他程序一般编号为 1,再用 bg 1 命令,使程序在后台运行。
- 也可以在程序运行代码的后面加一个&符号,使程序一开始就在后台运行。
这时看起来一切都没问题了,可是当我们退出登陆我们的 vps 后,发现服务又出问题了。原因是后台运行的服务程序与登陆账户是相关的,当登陆账户退出时,通过该账户运行的后台程序也会接到退出信号。这时我们可以使用 nohup 使程序与登陆账户无关,不再接收账户退出时的退出信号。
nohup ss-server -c /root/ss_serverConfig &
# 多用户时则用ss-manager
nohup ss-manager -c /root/ss_managerConfig &
shadowsocks 开机自启动
通过上面的文章,我们已经可以使 shadowsocks 服务良好地运行了,但你一定不想每次重启服务器时都要运行一遍上面的代码。那么我们就可以使用 centos7 的 systemctl 将程序注册为一个随着开机自动启动的服务。
注意:该方法基于 centos7,不适用 centos6。
centos7 设置自启动时,应在/usr/lib/systemd/system 下新建一个.service 文件,例如 ss.service。
vim /usr/lib/systemd/system/ss.service
[Unit]
Description=shadowsocks manager # 服务的描述
After=network.target # 该服务跟在哪个服务后启动
[Service]
Type=forking # 启动时的进程行为,forking是以fork形式从父进程创建子进程,子进程创建后父进程退出
ExecStart=/root/startSS # 启动服务时执行的命令
PrivateTmp=true # 使用私有临时文件目录
[Install]
WantedBy=multi-user.target # 附挂在multi-user.target下
本来直接在 ExecStart 处填 nohup /usr/local/bin/ss-manager -c /path/to/config/file &
但是 ExecStart 指令串仅接受“指令 参数 参数…”的格式,不能接受<,>,>>,|,&等特殊字符,很多的 bash 语法也不支持。所以,要使用这些特殊的字符时,应直接写入到指令脚本里面。故用将以上命令写在一个 bash 可执行文件中,例如 startSS。
vim /root/startSS
#!/bin/bash
nohup /usr/local/bin/ss-manager -c /path/to/config/file &
# 保存文件后增加执行权限
chmod 754 startSS
所有配置文件与脚本都设置完毕,使用 systemctl 开启服务。
# 更改.service文件后,都要重载守护进程更新systemctl
systemctl daemon-reload
# 启动服务
systemctl start ss.service
# 查看服务状态,若为绿色active(running)则说明服务成功启动
systemctl status ss.service
# 设置服务开机自启动
systemctl enable ss.service
# 还可使用systemctl restart ss.service重启服务,使用systemctl stop ss.service停止服务
systemctl 相关知识详见:
linux系统systemctl配置与命令