Coolfensi推广网站头像

Coolfensi推广网站

Coolfensi推广网站专注数据驱动的互联网营销和运营,客服VX:coolfensi,客服QQ:2451468936(QQ/微信客服只做引导和站点通知,不闲聊。有站点内业务疑问以及订单问题的话,请点击【CL-在线售后客服窗口】进行会话)

  • 文章111830
  • 阅读13753084

人生倒计时

  • 今日已经过去小时
  • 这周已经过去
  • 本月已经过去
  • 今年已经过去个月
首页 最新知识 正文内容

服务器配置与应用心得(对服务器配置与管理的认识)

客服VX(coolfensi) 最新知识 2023-01-19 02:01:28 93

求一份关于网络安全配置服务器的端到端IPSEC VPN实验心得

IPSec

联系方式:微信:coolfensi
(使用浏览器扫码进入在线客服窗口)
复制联系方式

VPN端到端技术

Seclarity最近发布的网卡,集成了Peer

to

Peer的VPN功能,从而能够以一种新的方式为局域网和广域网络提供安全性。Seclarity的新产品包括以太网卡和无线局域网卡,在这些网卡中集成了IPSec

VPN的终端,从而能够让计算机和计算机之间建立起安全的IP通道。这种PC到PC(服务器)的全程加密连接,安全性更高。

要实现在网络中的端到端安全,需要用户在PC机中添加Seclarity公司的硬件产品——SiNic。而正常的运转还需要Seclarity的Central

Command

Console软件帮忙。Central

Command

Console是一个集中设置策略、分布执行的架构。在网络中需要有一个服务器运行这一软件,在这个服务器上,有该软件的图形配置界面、数据库。网络管理人员集中的在这一服务器上进行设置,相关的策略将存储在服务器的数据库中。这一方案给一些如银行这样对安全要求非常高的企业提供了安全的、易于实施的局域网方案。

推荐理由

一些对安全要求很高的用户对端到端(PC到服务器)加密的要求由来已久,而且这也将是大势所趋,特别是网络社会跨入IPv6时代以后。Seclarity的产品提供了端到端IPSec

VPN的解决方案顺应这一大方向。今天来看,用户获得Seclarity的端到端VPN方案,需要付出的代价是采用新的网卡。但是这也代表着一个趋势,未来的计算机系统,网卡需要承担更多的工作,降低对CPU的压力,就像今天很多网卡可以做到的TCP/IP的Off

load。

另一个推荐理由是,该产品是基于用户信息提供安全策略,集中配置和分发执行。这比固化在网卡中要好,更贴合实际的管理运营需要。过去WLAN的安全方案仅仅依赖在网卡上设置WEP、SSID,一方面是管理上不方便,另外一旦网卡丢失,也会带来新的安全隐患。

Seclarity端到端VPN设备

关键特性

集中的安全策略设定,提供PC到PC的端到端安全通信能力,利用网卡硬件提供安全通信特性。用户需要安装新的硬件设备。

应用领域

对局域网、广域网安全有高要求的用户。

服务器配置与应用心得(对服务器配置与管理的认识) 第1张

Windows系统的服务器配置与管理在实际应用方面的价值有哪些??急需知道,明天早上就要交作业了。

在服务器的操作系统升级为Windows Server 2003,在Web服务器的配置过程中发现了许多与Windows 2000 Server的不同之处。现将配置中应注意的问题简单总结如下:

Windows Server 2003 中Internet 信息服务(IIS) 升级为IIS 6.0,其安全性更高。默认情况下,Windows Server 2003没有安装IIS 6.0,要通过控制面板来安装。具体做法为:

1. 进入“控制面板”。

2. 双击“添加或删除程序”。

3. 单击“添加/删除 Windows 组件”。

4. 在“组件”列表框中,双击“应用程序服务器”。

5. 双击“Internet 信息服务(IIS)”。

6. 从中选择“万维网服务”及“文件传输协议(FTP)服务”。

7. 双击“万维网服务”,从中选择“Active Server Pages” 及“万维网服务”等。

安装好IIS后,接着设置Web服务器,具体做法为:

1. 在“开始”菜单中选择“管理工具→Internet信息服务(IIS)管理器”。

2. 在“Internet 信息服务(IIS)管理器”中双击“本地计算机”。

3. 右击“网站”,在弹出菜单中选择“新建→网站”,打开“网站创建向导”。

4. 依次填写“网站描述”、“IP 地址”、“端口号”、“路径”和“网站访问权限”等。最后,为了便于访问还应设置默认文档(Index.asp、Index.htm)。

上述设置和Windows 2000 Server网站设置基本相同,但此时Web服务还仅适用于静态内容,即静态页面能正常浏览,常用Active Server Pages(ASP)功能没有被启用。所以还应在“Internet 信息服务(IIS)管理器”的“ Web 服务扩展”中选择允许“Active Server Pages”。

另外,还应注意如果Web服务主目录所在分区是NTFS格式,而ASP网页有写入操作时(如用到新闻后台管理功能的),要注意设置写入及修改权限。

Greenplum集群部署和架构优化,我总结了5000字的心得

最近对离线数仓体系进行了扩容和架构改造,也算是一波三折,出了很多小插曲,有一些改进点对我们来说也是真空地带,通过对比和模拟压测总算是得到了预期的结果,这方面尤其值得一提的是郭运凯同学的敬业,很多前置的工作,优化和应用压测的工作都是他完成的。 

整体来说,整个事情的背景是因为服务器硬件过保,刚好借着过保服务器替换的机会来做集群架构的优化和改造。 

1.集群架构改造的目标

在之前也总结过目前存在的一些潜在问题,也是本次部署架构改进的目标:

1)之前 的GP segment数量设计过度 ,因为资源限制,过多考虑了功能和性能,对于集群的稳定性和资源平衡性考虑有所欠缺,在每个物理机节点上部署了10个Primary,10个Mirror,一旦1个服务器节点不可用,整个集群几乎无法支撑业务。

2)GP集群 的存储资源和性能的平衡不够 ,GP存储基于RAID-5,如果出现坏盘,磁盘重构的代价比较高,而且重构期间如果再出现坏盘,就会非常被动,而且对于离线数仓的数据质量要求较高,存储容量相对不是很大,所以在存储容量和性能的综合之上,我们选择了RAID-10。

3)集 群的异常场景的恢复需要完善, 集群在异常情况下(如服务器异常宕机,数据节点不可用,服务器后续过保实现节点滚动替换)的故障恢复场景测试不够充分,导致在一些迁移和改造中,相对底气不足,存在一些知识盲区。

4)集群版本过 低 ,功能和性能上存在改进空间。毕竟这个集群是4年前的版本,底层的PG节点的版本也比较旧了,在功能上和性能上都有一定的期望,至少能够与时俱进。

5)操作系统版本升 级 ,之前的操作系统是基于CentOS6,至少需要适配CentOS 7 。

6)集群TPCH 压测验收 ,集群在完成部署之后,需要做一次整体的TPCH压测验收,如果存在明显的问题需要不断调整配置和架构,使得达到预期的性能目标。

此外在应用层面也有一些考虑,总而言之,是希望能够解决绝大多数的痛点问题,无论是在系统层面,还是应用层面,都能上一个台阶。

2.集群规划设计的选型和思考

明确了目标,就是拆分任务来规划设计了,在规划设计方面主要有如下的几个问题:

1)Greenplum的版本选择 ,目前有两个主要的版本类别,一个是开源版(Open Source distribution)和Pivotal官方版,它们的其中一个差异就是官方版需要注册,签署协议,在此基础上还有GPCC等工具可以用,而开源版本可以实现源码编译或者rpm安装,无法配置GPCC。综合来看,我们选择了 开源版本的6.16.2 ,这其中也询问了一些行业朋友,特意选择了几个涉及稳定性bug修复的版本。

2)数据集市的技术选型 ,在数据集市的技术选型方面起初我是比较坚持基于PostgreSQL的模式,而业务侧是希望对于一些较为复杂的逻辑能够通过GP去支撑,一来二去之后,加上我咨询了一些行业朋友的意见,是可以选择基于GP的方案,于是我们就抱着试一试的方式做了压测,所以数据仓库和和数据集市会是两个不同规模体量的GP集群来支撑。

3)GP的容量规划 ,因为之前的节点设计有些过度,所以在数量上我们做了缩减,每台服务器部署12个segment节点,比如一共12台服务器,其中有10台服务器是Segment节点,每台上面部署了6个Primary,6个Mirror,另外2台部署了Master和Standby,就是即(6+6)*10+2,整体的配置情况类似下面的模式。

4)部署架构方案选型 ,部署架构想起来比较容易,但是落实起来有很多的考虑细节,起初考虑GP的Master和Standby节点如果混用还是能够节省一些资源,所以设计的数据仓库和数据集市的部署架构是这样考虑的,但是从走入部署阶段之后,很快就发现这种交叉部署的模式是不可行的,或者说有一些复杂度。

除此之外,在单个GP集群的部署架构层面,还有4类方案考虑。

  方案1 :Master,Standby和segment混合部署

  方案2 :Master,Standby和segment独立部署,整个集群的节点数会少一些

  方案3 :Segment独立部署,Master,Standby虚拟机部署

  方案4 :最小化单节点集群部署(这是数据集市最保底的方案)  

这方面存在较大的发挥空间,而且总体来说这种验证磨合的成本也相对比较高,实践给我上了一课, 越是想走捷径,越是会让你走一些弯路 ,而且有些时候的优化其实我也不知道改怎么往下走,感觉已经无路可走,所以上面这4种方案其实我们都做了相关的测试和验证。

3.集群架构的详细设计和实践

1)设计详细的部署架构图

在整体规划之上,我设计了如下的部署架构图,每个服务器节点有6个Primary,6个Mirror,服务器两两映射。

2)内核参数优化

按照官方文档的建议和具体的配置情况,我们对内核参数做了如下的配置:

vm.swappiness=10

vm.zone_reclaim_mode = 0

vm.dirty_expire_centisecs = 500

vm.dirty_writeback_centisecs = 100

vm.dirty_background_ratio = 0 # See System Memory

vm.dirty_ratio = 0

vm.dirty_background_bytes = 1610612736

vm.dirty_bytes = 4294967296

vm.min_free_kbytes = 3943084

vm.overcommit_memory=2

kernel.sem = 500 2048000 200 4096

4.集群部署步骤

1)首先是配置/etc/hosts,需要把所有节点的IP和主机名都整理出来。 

2)配置用户,很常规的步骤

groupadd  gpadmin

useradd gpadmin -g gpadmin

passwd gpadmin

3)配置sysctl.conf和资源配置

4)使用rpm模式安装

# yum install -y apr apr-util bzip2 krb5-devel  zip

# rpm -ivh open-source-greenplum-db-6.16.2-rhel7-x86_64.rpm

5)配置两个host文件,也是为了后面进行统一部署方便,在此建议先开启gpadmin的sudo权限,可以通过gpssh处理一些较为复杂的批量操作

6)通过gpssh-exkeys来打通ssh信任关系,这里需要吐槽这个ssh互信,端口还得是22,否则处理起来很麻烦,需要修改/etc/ssh/sshd_config文件

gpssh-exkeys -f hostlist

7)较为复杂的一步是打包master的Greenplum-db-6.16.2软件,然后分发到各个segment机器中,整个过程涉及文件打包,批量传输和配置,可以借助gpscp和gpssh,比如gpscp传输文件,如下的命令会传输到/tmp目录下

gpscp -f /usr/local/greenplum-db/conf/hostlist /tmp/greenplum-db-6.16.2.tar.gz =:/tmp

或者说在每台服务器上面直接rpm -ivh安装也可以。

8)Master节点需要单独配置相关的目录,而Segment节点的目录可以提前规划好,比如我们把Primary和Mirror放在不同的分区。 

mkdir -p /data1/gpdata/gpdatap1

mkdir -p /data1/gpdata/gpdatap2

mkdir -p /data2/gpdata/gpdatam1

mkdir -p /data2/gpdata/gpdatam2

9)整个过程里最关键的就是gpinitsystem_config配置了,因为Segment节点的ID配置和命名,端口区间都是根据一定的规则来动态生成的,所以对于目录的配置需要额外注意。

10)部署GP集群最关键的命令是

gpinitsystem -c gpinitsystem_config -s 【standby_hostname】

其中文件gpinitsystem_config的主要内容如下:

MASTER_HOSTNAME=xxxx

declare -a DATA_DIRECTORY=(/data1/gpdata/gpdatap1  /data1/gpdata/gpdatap2 /data1/gpdata/gpdatap3 /data1/gpdata/gpdatap4 /data1/gpdata/gpdatap5 /data1/gpdata/gpdatap6)

TRUSTED_SHELL=ssh

declare -a MIRROR_DATA_DIRECTORY=(/data2/gpdata/gpdatam1  /data2/gpdata/gpdatam2 /data2/gpdata/gpdatam3 /data2/gpdata/gpdatam4 /data2/gpdata/gpdatam5 /data2/gpdata/gpdatam6)

MACHINE_LIST_FILE=/usr/local/greenplum-db/conf/seg_hosts

整个过程大约5分钟~10分钟以内会完成,在部署过程中建议要查看后端的日志查看是否有异常,异常情况下的体验不是很好,可能会白等。

5.集群部署问题梳理

集群部署中还是有很多细节的问题,太基础的就不提了,基本上就是配置,目录权限等问题,我提另外几个:

1) 资源配置问题 ,如果/etc/security/limits.conf的资源配置不足会在安装时有如下的警告:

2) 网络问题 ,集群部署完成后可以正常操作,但是在查询数据的时候会抛出错误,比如SQL是这样的,看起来很简单:select count(*) from customer,但是会抛出如下的错误:

这个问题的主要原因还是和防火墙配置相关,其实不光需要配置INPUT的权限,还需要配置OUTPUT的权限。 

对于数据节点可以开放略大的权限,如:

入口的配置:

-A INPUT -p all -s xxxxx    -j ACCEPT

出口的配置:

-A OUTPUT -p all -s xxxxx    -j ACCEPT

3)网络配置问题 ,这个问题比较诡异的是,报错和上面是一样的,但是在排除了防火墙配置后,select count(*) from customer;这样的语句是可以执行的,但是执行的等待时间较长,比如表lineitem这表比较大,过亿的数据量,,在10个物理节点时,查询响应时间是10秒,但是4个物理节点,查询响应时间是在90秒,总体删感觉说不过去。

为了排查网络问题,使用gpcheckperf等工具也做过测试,4节点和10节点的基础配置也是相同的。

gpcheckperf -f /usr/local/greenplum-db/conf/seg_hosts -r N -d /tmp

$ cat /etc/hosts

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4

::1      localhost localhost.localdomain localhost6 localhost6.localdomain6

#127.0.0.1    test-dbs-gp-128-230

xxxxx.128.238 test-dbs-gp-svr-128-238

xxxxx.128.239 test-dbs-gp-svr-128-239

其中127.0.0.1的这个配置在segment和Master,Standby混部的情况是存在问题的,修正后就没问题了,这个关键的问题也是郭运凯同学发现的。

5.集群故障恢复的测试

集群的故障测试是本次架构设计中的重点内容,所以这一块也是跃跃欲试。

整体上我们包含两个场景,服务器宕机修复后的集群恢复和服务器不可用时的恢复方式。

第一种场景相对比较简单,就是让Segment节点重新加入集群,并且在集群层面将Primary和Mirror的角色互换,而第二种场景相对时间较长一些,主要原因是需要重构数据节点,这个代价基本就就是PG层面的数据恢复了,为了整个测试和恢复能够完整模拟,我们采用了类似的恢复方式,比如宕机修复使用了服务器重启来替代,而服务器不可用则使用了清理数据目录,类似于一台新配置机器的模式。

1)服务器宕机修复后集群恢复

select * from gp_segment_configuration where status!='u';

gprecoverseg  -o ./recov

gprecoverseg -r

select * from gp_segment_configuration where status='u'

2)服务器不可用时集群恢复

重构数据节点的过程中,总体来看网络带宽还是使用很充分的。

select * from gp_segment_configuration where status='u'

select * from gp_segment_configuration where status='u' and role!=preferred_role;

gprecoverseg -r

select * from gp_segment_configuration where status='u' and role!=preferred_role;

经过测试,重启节点到数据修复,近50G数据耗时3分钟左右

6.集群优化问题梳理

1)部署架构优化和迭代

对于优化问题,是本次测试中尤其关注,而且争议较多的部分。 

首先在做完初步选型后,数仓体系的部署相对是比较顺利的,采用的是第一套方案。

数据集市的集群部分因为节点相对较少,所以就选用了第二套方案

实际测试的过程,因为配置问题导致TPCH的结果没有达到预期。

所以这个阶段也产生了一些疑问和怀疑,一种就是折回第一种方案,但是节点数会少很多,要不就是第三种采用虚拟机的模式部署,最保底的方案则是单节点部署,当然这是最牵强的方案。

这个阶段确实很难,而在上面提到的修复了配置之后,集群好像突然开悟了一般,性能表现不错,很快就完成了100G和1T数据量的TPCH测试。

在后续的改造中,我们也尝试了第三套方案,基于虚拟机的模式,通过测试发现,远没有我们预期的那么理想,在同样的数据节点下,Master和Standby采用物理机和虚拟机,性能差异非常大,这个是出乎我们预料的。比如同样的SQL,方案3执行需要2秒,而方案2则需要80秒,这个差异我们对比了很多指标,最后我个人理解差异还是在网卡部分。

所以经过对比后,还是选择了方案2的混合部署模式。

2)SQL性能优化的分析

此外整个过程的TPCH也为集群的性能表现提供了参考。比如方案2的混合部署模式下,有一条SQL需要18秒,但是相比同类型的集群,可能就只需要2秒钟左右,这块显然是存在问题的。 

在排除了系统配置,硬件配置的差异之后,经典的解决办法还是查看执行计划。

性能较差的SQL执行计划:

# explain analyze select count(*)from customer;

QUERY PLAN   

Aggregate  (cost=0.00..431.00 rows=1 width=8) (actual time=24792.916..24792.916 rows=1 loops=1)

   -  Gather Motion 36:1  (slice1; segments: 36)  (cost=0.00..431.00 rows=1 width=1) (actual time=3.255..16489.394 rows=150000000 loops=1)

         -  Seq Scan on customer  (cost=0.00..431.00 rows=1 width=1) (actual time=0.780..1267.878 rows=4172607 loops=1)

Planning time: 4.466 ms

   (slice0)    Executor memory: 680K bytes.

   (slice1)    Executor memory: 218K bytes avg x 36 workers, 218K bytes max (seg0).

Memory used:  2457600kB

Optimizer: Pivotal Optimizer (GPORCA)

Execution time: 24832.611 ms

(9 rows)

Time: 24892.500 ms

性能较好的SQL执行计划:

# explain analyze select count(*)from customer;                            

QUERY PLAN

Aggregate  (cost=0.00..842.08 rows=1 width=8) (actual time=1519.311..1519.311 rows=1 loops=1)

   -  Gather Motion 36:1  (slice1; segments: 36)  (cost=0.00..842.08 rows=1 width=8) (actual time=634.787..1519.214 rows=36 loops=1)

         -  Aggregate  (cost=0.00..842.08 rows=1 width=8) (actual time=1473.296..1473.296 rows=1 loops=1)

               -  Seq Scan on customer  (cost=0.00..834.33 rows=4166667 width=1) (actual time=0.758..438.319 rows=4172607 loops=1)

Planning time: 5.033 ms

   (slice0)    Executor memory: 176K bytes.

   (slice1)    Executor memory: 234K bytes avg x 36 workers, 234K bytes max (seg0).

Memory used:  2457600kB

Optimizer: Pivotal Optimizer (GPORCA)

Execution time: 1543.611 ms

(10 rows)

Time: 1549.324 ms

很明显执行计划是被误导了,而误导的因素则是基于统计信息,这个问题的修复很简单:

analyze customer;

但是深究原因,则是在压测时,先是使用了100G压测,压测完之后保留了原来的表结构,直接导入了1T的数据量,导致执行计划这块没有更新。

3)集群配置优化

此外也做了一些集群配置层面的优化,比如对缓存做了调整。 

gpconfig -c statement_mem -m 2457600 -v 2457600

gpconfig -c gp_vmem_protect_limit -m 32000 -v 32000

7.集群优化数据

最后来感受下集群的性能:

1)10个物理节点,(6+6)*10+2

tpch_1t=# iming on

Timing is on.

tpch_1t=# select count(*)from customer;

   count   

-----------

150000000

(1 row)

Time: 1235.801 ms

tpch_1t=# select count(*)from lineitem;

   count    

------------

5999989709

(1 row)

Time: 10661.756 ms

2)6个物理节点,(6+6)*6

# select count(*)from customer;

   count   

-----------

 150000000

(1 row)

Time: 1346.833 ms

# select count(*)from lineitem;

   count    

------------

 5999989709

(1 row)

Time: 18145.092 ms

3)4个物理节点,(6+6)*4

# select count(*)from customer;

   count   

-----------

 150000000

(1 row)

Time: 1531.621 ms

# select count(*)from lineitem;

   count    

------------

 5999989709

(1 row)

Time: 25072.501 ms

4)TPCH在不通架构模式下的性能比对 ,有19个查询模型,有个别SQL逻辑过于复杂暂时忽略,也是郭运凯同学整理的列表。

在1T基准下的基准测试表现:

国外VPS云服务器选择攻略心得分享

你知道如何选择国外VPS吗?这里我总结了一些关于国外VPS选择攻略的心得分享,并分析了一些经常使用国外VPS的优缺点分析,帮助新手用户能够很快入门选择合适的国外VPS。

国外VPS需求的用户很多,但是大多数新手用户还是不知道怎么选择,因为国外VPS商家实在太多,而很多用户在选择这方面都很迷茫。首先是太多的博主在推荐这个好,推荐那个好,但是并没有完全说出其中关键的优缺点。因为大多数用户对于国外VPS各种基本的常识都不太清楚,所以在购买的时候就只能是碰运气了,在很多情况下就不容易买到自己心仪的国外VPS。

写这篇攻略我主要就是针对国外VPS选择比较疑惑的用户。讲解一些国外VPS选择的基本常识,然后分析现在比较火的国外VPS关键的优缺点,从而帮助需要国外VPS的用户在选择上更加的明确。

先说下国外VPS选择的一些基本常识,这个主要是我们在选择国外VPS时候的一些参考点,老手们应该都是比较熟悉的了,如果你是第一次接触国外VPS,那么就很有必要知道。

很多用户找我推荐国外VPS,一上来就说“国外VPS有什么推荐的吗?”,我回答说:“你有什么要求吗?”,用户通常会回答:“要快!要便宜!”。对于这类型的用户,我只能用下面这张图送给你:

这世界上不存在又快又便宜的国外VPS,就跟你去买电脑一样,假如你给老板说:“老板我要一台配置最好的,价格最便宜的电脑。”,这时候我猜想老板的内心活动是“MMP,滚!”世界上真正的物美价廉本身对于市场需求关系来讲就是个悖论,所以抱着这种心思选择国外VPS的用户,我只能说“小伙子你这个想法很危险啊!”

所以在选择国外VPS上,我们只能是寻求一个价格与速度的平衡点,如果你想要更快的速度,那没有办法只有下面的图送你:

如果你不在乎速度,只要能用,那么你可以选择便宜的,既然选择了便宜的,那么你就不能对他的速度或者各方面的要求期待太高。

数据中心就是我们通常所说的节点。对于国外VPS来说我们更准确的说可能是大陆之外的VPS,因为常用的数据中心包括了香港、台湾(这不是国外这也是国内!!!),其他的还有韩国、新加坡、日本(东京和大阪)、美国(洛杉矶、西雅图、达拉斯、圣何塞、亚特兰大、芝加哥、纽约)、欧洲(荷兰阿姆斯特丹、德国法兰克福、法国巴黎、英国伦敦、俄罗斯莫斯科)。

其实常用的数据中心就上面提到的这些城市,基本上你在选择上都是他们。那么应该选择哪个数据中心的好呢?

如果不是有特殊需求,只是纯粹的需要大陆之外的数据中心,那么比较建议的是选择美国的,因为美国的整体来说性价比更高,用相同的价格,美国VPS相当而言配置和速度要更好一些。

如果你有特殊的用途需求,比如很多游戏业务相关用户会选择香港VPS、台湾VPS、韩国VPS或者日本VPS。一般来说香港VPS的延迟是最低的(一般在50ms左右,日韩在100ms左右、欧美在200ms左右),但是香港VPS的缺点就是带宽太贵,所以如果你对即时网络延迟要求比较高,那么就选择香港VPS或者台湾VPS。如果你是欧美外贸或者其他需求,那么就可以选择美国VPS或者欧洲VPS。

在国外VPS的时候很多用户很关系带宽和延迟的问题,觉得只要这两个指标好了那么速度就自然快了。其实不是这样的,我只能说带宽和延迟对速度有影响,但是不能单纯就以这两个指标来判断。

首先说下带宽,在购买国外VPS的时候通常都能看到带宽10Mbps、100Mbps或者1Gbps的,但是你要知道很多时候主机商标识出来的这个带宽都是共享带宽,就是说这个带宽不是你一个人在使用,是在机房或者服务器上的所有用户一起分享的,而还有很多主机商是限制了每个用户的最大使用带宽的。所以不是说你看到主机商宣传的带宽越大,就代表速度越大,带宽大的主机商,很有可能是有更多的用户与你一起分享带宽。所以带宽只能作为我们判断一个主机商他基本能够提供的最大速度是多少,但是并不是你所能够享受到的速度,不要被夸大的宣传所蒙蔽。

延迟在很大程度上其实对速度的影响基本不大,因为全球网络延迟的差距也就是在100ms左右,这100ms在网络中的常见的应用除了在线游戏外,其他的应用基本很少会在乎这100ms的影响,比如你建网站,900ms打开网页和800ms打开网页你觉得区别大吧,100ms对于人来说基本就是感知不到的。所以不要太在乎延迟,除非你是要作为游戏等即时性要求非常高应用的服务器使用。

那么速度是什么在影响呢?从我多年使用的情况来看,目前影响速度最大的就是主机商网络的稳定性和能够分配给个人用户的带宽来决定的。所以我们尽量选择那些测评比较稳定的主机商的国外VPS产品。

国外VPS在操作系统上无非就是两种:Linux和Windows,而且更多的往往是Linux。至于选择哪种操作系统要根据你的需求来决定,不同的用途你可能就需要不同的操作系统。所以在选择国外VPS之前,最好要先确认下自己应该需要怎么样的操作系统。

国外VPS的购买都是在网上支持的,我们国内习惯了支付宝和微信支付,但是国外可能更多的信用卡和PayPal支付,当然也有不少商家是支持支付宝的,微信支付支持的就比较少。所以在选择国外VPS的时候还要看他的支付方式支持,购买支付的时候是否方便。

常被推荐的国外VPS分析

这里给大家说说那些常被博主们推荐的国外VPS现状,到底是处于一个什么样的情况。因为这里涉及到一些产品链接不方便放出来,有兴趣自己到文末原作者链接那里去查看吧。

以上就是我关于国外VPS选择的一些心得分享。因为我本身因为工作的原因使用国外VPS多年,所以也使用了几十款国外VPS,说实话这么多,也就那几款比较好用,也遇到过各种各样的坑。总结起来我的一个心得体会就是不要贪小便宜。大家有什么问题也可以留言一起讨论,我都会在第一时间及时响应,大家一起分享进步。

在Windows 2003下进行DHCP服务器的配置的心得

你好,server 2003中的DHCP服务器的配置是很简单的,首先在“添加删除程序”里面安装DHCP服务器,装好了之后,右击主机名“新建作用域”接下来输入起始结束地址等信息之后,右击作用域,选择激活作用域,此时,DHCP服务器基本架设成功,希望对你有帮助 。

linux下apache服务器的实训心得体会,2000字左右

这个也太多了吧.

Linux下的apache就是安装httpd服务而已,配置,设置访问,保护进程,修改配置文件,建立虚拟目录,配置cgi-bin,就这么多.过程很不太复杂,但是用文字来说就太麻烦了.

说实话,2000字真的太多,懒得写了.

文章目录
    搜索