阿里云和百度云腾讯云哪家好(标题可以自拟,必须含关键词西部数码)

欢迎您来到第一主机!
400 885 5778
腾讯云服务器(CVM)试用笔记,跑分、读写和性极比等
作者: 人气: 发布时间:
摘要:腾讯云公测好几天了、我的账号也通过好几天,终于苦等到 9 月 2 号降价为 ¥2.3/天了。
腾讯云公测好几天了、我的账号也通过好几天,终于苦等到 9 月 2 号降价为 ¥2.3/天了。
今天中午左右价格已经按照通知说的降下来了,所以我也就用金额买了个、放出测评。
腾讯云服务器,简称 CVM 是通过高性能服务器虚拟化的云服务器、拥有专业团队打造资源隔离、数据安全、密码安全、安全加固等多达 20 种安全防护手段。其实就是和阿里云(ECS)差不多但技术不同的 VPS。以下我就用腾讯最低配带公网 IP 的这一套餐来评测一下吧(¥69/月)!
一、购买云服务器:
有企业营业执照的可以免费获得一定量现金券、然后直接购买即可,下单后 2~3 分钟生成:
已经迫不及待了有木有呢?!接下来是小评测,跑分什么的。
二、硬盘读写、下载速度、跑分:
为了给大家一个全面的选择,准备了一些小数据给大家看、首先 CPU 使用的 E5
详细的去搜索一下 E5-2640,硬盘读写速度不错、是阿里云的 10 倍~50 倍:
这种速度算是正常的读写速度了,这里的跑分是亮点、达到了&1722.5&的跑分!
详细跑分数据如下(会看的自己参考一下):
Benchmark Run: 一& 9月 02 :54 - 17:07:04
1 CPU running 1 parallel copy of tests
Dhrystone 2 using register variables&&&&&&
lps&& (10.0 s, 7 samples)
Double-Precision Whetstone&&&&&&&&&&&&&&&&&&&& 3308.3 MWIPS (10.0 s, 7 samples)
Execl Throughput&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& 5000.6 lps&& (30.0 s, 2 samples)
File Copy 1024 bufsize 2000 maxblocks&&&&&&
KBps& (30.0 s, 2 samples)
File Copy 256 bufsize 500 maxblocks&&&&&&&&&
KBps& (30.0 s, 2 samples)
File Copy 4096 bufsize 8000 maxblocks&&&&&&
KBps& (30.0 s, 2 samples)
Pipe Throughput&&&&&&&&&&&&&&&&&&&&&&&&&&&&
lps&& (10.0 s, 7 samples)
Pipe-based Context Switching&&&&&&&&&&&&&&&&
lps&& (10.0 s, 7 samples)
Process Creation&&&&&&&&&&&&&&&&&&&&&&&&&&&&& 17683.9 lps&& (30.0 s, 2 samples)
Shell Scripts (1 concurrent)&&&&&&&&&&&&&&&&&& 5118.6 lpm&& (60.0 s, 2 samples)
Shell Scripts (8 concurrent)&&&&&&&&&&&&&&&&&&& 704.0 lpm&& (60.0 s, 2 samples)
System Call Overhead&&&&&&&&&&&&&&&&&&&&&&&
lps&& (10.0 s, 7 samples)
System Benchmarks Index Values&&&&&&&&&&&&&& BASELINE&&&&&& RESULT&&& INDEX
Dhrystone 2 using register variables&&&&&&&& && && 2645.7
Double-Precision Whetstone&&&&&&&&&&&&&&&&&&&&&& 55.0&&&&&& 3308.3&&& 601.5
Execl Throughput&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& 43.0&&&&&& 5000.6&& 1162.9
File Copy 1024 bufsize 2000 maxblocks&&&&&&&&& 3960.0&&& && 3299.9
File Copy 256 bufsize 500 maxblocks&&&&&&&&&&& 1655.0&&&& && 2304.5
File Copy 4096 bufsize 8000 maxblocks&&&&&&&&& 5800.0&&& && 4225.1
Pipe Throughput&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& 12440.0&&& && 1925.9
Pipe-based Context Switching&&&&&&&&&&&&&&&&&& 4000.0&&&& && 1074.3
Process Creation&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& 126.0&&&&& 17683.9&& 1403.5
Shell Scripts (1 concurrent)&&&&&&&&&&&&&&&&&&&& 42.4&&&&&& 5118.6&& 1207.2
Shell Scripts (8 concurrent)&&&&&&&&&&&&&&&&&&&&& 6.0&&&&&&& 704.0&& 1173.4
System Call Overhead&&&&&&&&&&&&&&&&&&&&&&&&& 15000.0&&& && 2788.0
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&========
System Benchmarks Index Score&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&& 1722.5
记得在免费资源部落,qi 自己在 linode 的 1G vps 跑分是八百多左右:
可以说腾讯云服务器性能是不错的,相信大家做网站的、最关心的应该就是带宽问题:
腾讯并没有注明带宽大小,我也问过他们的客服、答案是带宽没有限制,但是目测是 10M 带宽。
三、个人使用感想(测评):
腾讯等都是国内较大的互联网信息服务商,同时腾讯&开(chao)发(xi)&的本领也是行业顶尖的。如果说行业技术的话我相信还是阿里领先,但是阿里云 I/O 写入最高不过 5M/s 一直是让我很困扰的、官方解释是因为内容分发导致这么缓慢。
我在腾讯云服务器安装了 LNMP,同时腾讯机房位于深圳、而且没有明确的备案说明,目前端口也是开的。整个 LNMP 的安装过程(包括升级为 Tengine 和安装一些插件)共耗损了我 20 分钟左右,比阿里云至少快了一倍。
如果有人问我:给我 ¥69/月让我买腾讯云或阿里云。我会选择腾讯云,以下是对比:
阿里云 ¥69 套餐:单核 +&512M 内存 + 20G 硬盘 + 1M 带宽 = ¥69/月&&&& 腾讯云&¥69 套餐:单核 + 1G内存 + 8G 硬盘 + 未知(可能是10M)= ¥69/月
看需求吧,我就认为阿里的技术或许更成熟一点、虽然说硬盘实在不 OK。
据官方客服说明的话,这里有点东西要注意,第一个是带宽、第二个是备案问题(客服说还要一阵子)
版权申明:本站文章均来自网络,如有侵权,请联系020-,我们收到后立即删除,谢谢!
责任编辑:
网站打开速度慢的深层次原因分析 10:35:26
网站打开速度慢的深层次原因分析 10:35:26
看到别人不余遗力地在论坛、博客上发外链,你是否也会为之心动?看到别人每...
这几天,有关阿里巴巴正在进行的IPO的相关消息简直是铺天盖地,屏蔽不能。...
在层出不穷的影视类网站中,国内排名前50名的网站域名类型以组合域名数量最...
域名主机资讯
接入商资讯
数据中心资讯
服务器技术您还没有登录,快捷通道只有在登录后才能使用。 还没有帐号? 赶紧
1共2页2) ? 2 :
location='/read/269031.html?page='+page+'';}">2) ? 2 :
location='/read/269031.html?page='+page+'';">Go
弱弱的问句,阿里云和腾讯云哪个更屌点
在线时间31小时
在不考虑价格的情况下,同等配置下,阿里云系列1和腾讯云标准型,阿里云系列2和腾讯云高IO型,各方面哪个更屌点呢
本帖最近评分记录:
共 1 条评分
各有千秋吧,算是二马之争,腾讯云呢,安全方面还是挺好的!
在线时间1521小时
马云长得丑,所以屌
在线时间941小时
阿里云承接了淘宝双11的冲击。高下立判
在线时间94小时
没用过腾讯云,不过阿里云相比其他绝大部分厂商的都要更好,从性能上来讲。&&稳定性方面,如果要求太高,建议多考虑一下。&&至于从双十一上面来评定的话,阿里双十一期间有人说ECS不稳定,双十二的时候阿里旗下的CNZZ挂了,这个东西,反正我是感觉不太正常。&&平常使用的话,阿里云应该是非常好的选择,如果业务很重要,可以考虑配一个其他厂商的备用机,随时准备补上去。&&
在线时间734小时
12306一大部分购票计算在阿里云&阿里云上过新闻联播&阿里云市场份额国内第一
在线时间1295小时
各有各的优势,目前我看好阿里云是因为阿里云可以带宽按流量付费,给中小网站节省了带宽费,还有阿里云有512M内存的配置也适合小站长,但阿里云的线路延迟貌似比腾讯云的高一点点,应该是优化还不够完美,但可以感受到阿里云的成长,之前我的深圳ECS一个月就会抽风一次,最近好像没出现了,延迟也在优化中
在线时间19小时
Re弱弱的问句,阿里云和腾讯云哪个更屌点
阿里云是做的最大的,腾讯是个什么东西。
在线时间19小时
Re弱弱的问句,阿里云和腾讯云哪个更屌点
当然是阿里了&&技术实力雄厚&&腾讯还是兼职自己的 游戏吧!
在线时间64小时
Re弱弱的问句,阿里云和腾讯云哪个更屌点
这个还用问吗?
在线时间38小时
Re弱弱的问句,阿里云和腾讯云哪个更屌点
自己购买物理机最屌了&
在线时间30小时
Re弱弱的问句,阿里云和腾讯云哪个更屌点
在国际和国内排名&&阿里云应该要好点
在线时间0小时
用户被禁言,该主题自动屏蔽!
在线时间1小时
Re弱弱的问句,阿里云和腾讯云哪个更屌点
我还是腾讯云吧,毕竟现在很多大企业都选择腾讯云
在线时间38小时
Re弱弱的问句,阿里云和腾讯云哪个更屌点
阿里云牛,腾讯云还不如qcloud呢&&
在线时间1747小时
本人非阿里云员工,所有言论不代表阿里云公司观点。有偿提供:环境安装、配置、优化,数据迁移,安全加固,攻击防护,故障排除,长期代维等技术服务。
1共2页2) ? 2 :
location='/read/269031.html?page='+page+'';}">2) ? 2 :
location='/read/269031.html?page='+page+'';">Go
访问内容超出本站范围,不能确定是否安全
限100 字节
批量上传需要先选择文件,再选择上传
您目前还是游客,请
验证问题: 阿里云官网域名是什么? 正确答案:
&回复后跳转到最后一页2276人阅读
hadoop(3)
腾讯云阿里云 hadoop集群编译搭建
阿里云配置:
[hadoop@lizer_ali ~]$ uname -a
Linux lizer_ali 2.6.32-573.22.1.el6.x86_64
[hadoop@lizer_ali ~]$ head -n 1 /etc/issue
CentOS release 6.5 (Final)
[hadoop@lizer_ali ~]$ cat /proc/cpuinfo | grep name | cut -f2 -d: | uniq -c
Intel(R) Xeon(R) CPU E5-2650 v2 @ 2.60GHz
[hadoop@lizer_ali ~]$ getconf LONG_BIT
[hadoop@lizer_ali ~]$ cat /proc/meminfo
1018508 kB
腾讯云配置:
[hadoop@lizer_tx ~]$ uname -a
Linux lizer_tx 2.6.32-573.18.1.el6.x86_64
[hadoop@lizer_tx ~]$ head -n 1 /etc/issue
CentOS release 6.7 (Final)
[hadoop@lizer_tx ~]$ cat /proc/cpuinfo | grep name | cut -f2 -d: | uniq -c
Intel(R) Xeon(R) CPU E5-26xx v3
[hadoop@lizer_tx ~]$ getconf LONG_BIT
[hadoop@lizer_tx ~]$ cat /proc/meminfo
1020224 kB
useradd hadoop
passwd haddop
jdk1.7安装:
mv jdk-7u80-linux-x64.tar.gz\?AuthParam\=_7ce09e1f15c jdk-7u80-linux-x64.tar.gz
tar zxf jdk-7u80-linux-x64.tar.gz -C /opt/
配置环境变量
vim /etc/profile
export JAVA_HOME=/opt/jdk1.7.0_80
export JRE_HOME=/opt/jdk1.7.0_80/jre
export CLASSPATH=./$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
source /etc/profile
编译hadoop2.6.4所需软件
yum install gcc cmake gcc-c++
安装maven:
tar zxf apache-maven-3.3.9-bin.tar.gz -C /usr/local/
vim /etc/profile
export MAVEN_HOME=/usr/local/apache-maven-3.3.9
export PATH=$PATH:$MAVEN_HOME/bin
source /etc/profile
[root@lizer_ali hadoop]
Apache Maven 3.3.9 (bb52da5a3f4c23dc5; 2015-11-11T00:41:47+08:00)
Maven home: /usr/local/apache-maven-3.3.9
Java version: 1.7.0_80, vendor: Oracle Corporation
Java home: /opt/jdk1.7.0_80/jre
Default locale: en_US, platform encoding: UTF-8
OS name: "linux", version: "2.6.32-573.22.1.el6.x86_64", arch: "amd64", family: "unix"
安装protobuf
要求版本protobuf-2.5.0
cd protobuf-2.5.0/
./configure -prefix=/usr/local/protobuf-2.5.0
make && make install
vim /etc/profile
export PROTOBUF=/usr/local/protobuf-2.5.0
export PATH=$PROTOBUF/bin:$PATH
protoc --version
tar zxf apache-ant-1.9.7-bin.tar.gz -C /usr/local/
vim /etc/profile
export ANT_HOME=/usr/local/apache-ant-1.9.7
export PATH=$PATH:$ANT_HOME/bin
source /etc/profile
ant -version
Apache Ant(TM) version 1.9.7 compiled on April 9 2016
yum install autoconf automake libtool
yum install openssl-devel
安装findbugs
mv findbugs-3.0.1.tar.gz\?download findbugs-3.0.1.tar.gz
tar zxf findbugs-3.0.1.tar.gz -C /usr/local/
vim /etc/profile
export FINDBUGS_HOME=/usr/local/findbugs-3.0.1
export PATH=$FINDBUGS_HOME/bin:$PATH
findbugs -version
hadoop编译安装:
下载hadoop:
tar zxf hadoop-2.6.4-src.tar.gz
cd hadoop-2.6.4-src
more BUILDING.txt
查看如何编译安装
mvn clean package -Pdist,native,docs -DskipTests -Dtar
编译过程中,需要下载很多包,等待时间比较长。当看到hadoop各个项目都编译成功,即出现一系列的SUCCESS之后,即为编译成功。
有些包下载卡住,重复执行上面的命令,或可以根据提示到相应的网址()下载放到指定位置
出现错误1:
[ERROR] Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.7:run (site) on project hadoop-common: An Ant BuildException has occured: input file /home/hadoop/hadoop-2.6.4-src/hadoop-common-project/hadoop-common/target/findbugsXml.xml does not exist
[ERROR] around Ant part ...&xslt style="/usr/local/findbugs-3.0.1/src/xsl/default.xsl" in="/home/hadoop/hadoop-2.6.4-src/hadoop-common-project/hadoop-common/target/findbugsXml.xml" out="/home/hadoop/hadoop-2.6.4-src/hadoop-common-project/hadoop-common/target/site/findbugs.html"/&... @ 44:256 in /home/hadoop/hadoop-2.6.4-src/hadoop-common-project/hadoop-common/target/antrun/build-main.xml
解决办法1:
从该命令删除docs参数再运行mvn package -Pdist,native -DskipTests -Dtar
出现错误2:
[INFO] Executing tasks
[mkdir] Created dir: /home/hadoop/hadoop-2.6.4-src/hadoop-common-project/hadoop-kms/downloads
[get] Getting: http://archive.apache.org/dist/tomcat/tomcat-6/v6.0.41/bin/apache-tomcat-6.0.41.tar.gz
[get] To: /home/hadoop/hadoop-2.6.4-src/hadoop-common-project/hadoop-kms/downloads/apache-tomcat-6.0.41.tar.gz
卡在这里,应该是不能下载
本地翻墙下载上传到指定位置
出现错误3:
[ERROR] Failed to execute goal org.apache.maven.plugins:maven-javadoc-plugin:2.8.1:jar (module-javadocs) on project hadoop-hdfs: MavenReportException: Error while creating archive:
[ERROR] ExcludePrivateAnnotationsStandardDoclet
[ERROR] Java HotSpot(TM) 64-Bit Server VM warning: INFO: os::commit_memory(0xa256, 0) error='Cannot allocate memory' (errno=12)
[ERROR] # There is insufficient memory for the Java Runtime Environment to continue.
[ERROR] # Native memory allocation (malloc) failed to allocate
bytes for committing reserved memory.
[ERROR] # An error report file with more information is saved as:
[ERROR] # /home/hadoop/hadoop-2.6.4-src/hadoop-hdfs-project/hadoop-hdfs/target/hs_err_pid24729.log
[ERROR] Error occurred during initialization of VM, try to reduce the Java heap size for the MAVEN_OPTS environnement variable using -Xms:&size& and -Xmx:&size&.
[ERROR] Or, try to reduce the Java heap size for the Javadoc goal using -Dminmemory=&size& and -Dmaxmemory=&size&.
应该是内存不够,没有分配swap
添加2G swap分区
添加或扩大交换分区
dd if=/dev/zero of=/home/swap bs=512 count=4096000
bs 是扇区大小 bs=512 指大小为512B count为扇区数量
表示创建一个大小为4G 的文件 /home/swap 用空值填充。of位置可以自己调整。
查看当前分区的大小
格式化并挂载
mkswap /home/swap
swapon /home/swap
查看挂载情况
开机自动挂载
vim /etc/fstab
/home/swap
想写在分区
swapoff /home/swap
出现问题4:
[mkdir] Created dir: /home/hadoop/hadoop-2.6.4-src/hadoop-hdfs-project/hadoop-hdfs-httpfs/downloads
[get] Getting: http://archive.apache.org/dist/tomcat/tomcat-6/v6.0.41/bin/apache-tomcat-6.0.41.tar.gz
[get] To: /home/hadoop/hadoop-2.6.4-src/hadoop-hdfs-project/hadoop-hdfs-httpfs/downloads/apache-tomcat-6.0.41.tar.gz
网络问题,同上
cp /home/hadoop/hadoop-2.6.4-src/hadoop-common-project/hadoop-kms/downloads/apache-tomcat-6.0.41.tar.gz /home/hadoop/hadoop-2.6.4-src/hadoop-hdfs-project/hadoop-hdfs-httpfs/downloads/
编译安装成功
[INFO] Apache Hadoop Gridmix .............................. SUCCESS [
[INFO] Apache Hadoop Data Join ............................ SUCCESS [
[INFO] Apache Hadoop Ant Tasks ............................ SUCCESS [
[INFO] Apache Hadoop Extras ............................... SUCCESS [
[INFO] Apache Hadoop Pipes ................................ SUCCESS [
[INFO] Apache Hadoop OpenStack support .................... SUCCESS [
[INFO] Apache Hadoop Amazon Web Services support .......... SUCCESS [06:22 min]
[INFO] Apache Hadoop Client ............................... SUCCESS [
[INFO] Apache Hadoop Mini-Cluster ......................... SUCCESS [
[INFO] Apache Hadoop Scheduler Load Simulator ............. SUCCESS [
[INFO] Apache Hadoop Tools Dist ........................... SUCCESS [ 15.171 s]
[INFO] Apache Hadoop Tools ................................ SUCCESS [
[INFO] Apache Hadoop Distribution ......................... SUCCESS [ 37.343 s]
[INFO] ------------------------------------------------------------------------
[INFO] BUILD SUCCESS
[INFO] ------------------------------------------------------------------------
[INFO] Total : 31:45 min
[INFO] Finished at: 2016-07-30T23:59:50+08:00
[INFO] Final Memory: 101M/241M
[INFO] ------------------------------------------------------------------------
在hadoop-dist/target/已经生成了可执行文件
拷贝到用户目录
cp -r hadoop-2.6.4 ~/
两台机免密互通
ssh-keygen
各自生成的公钥放到另一台机上
cat id_rsa_else.pub && authorized_keys
chmod 600 authorized_keys
网络规划:
123.206.33.182
hadoop0 114.215.92.77
vim /etc/hosts
123.206.33.182 hadoop1 tx lizer_tx
114.215.92.77 hadoop0 ali lizer_ali
配置环境变量
vim /etc/profile
export HADOOP_HOME=/home/hadoop/hadoop-2.6.4
export PATH=$HADOOP_HOME/bin:$PATH
Hadoop配置
配置文件放在$HADOOP_HOME/etc/hadoop/下
修改一下配置:
vim hadoop-env.sh
export JAVA_HOME=/opt/jdk1.7.0_80
vim yarn-env.sh
export JAVA_HOME=/opt/jdk1.7.0_80
vim slaves (这里没有了master配置文件)
vim core-site.xml
&hadoop.tmp.dir&
&/home/hadoop/hadoop/tmp&
&A base for other temporary directories.&
&fs.defaultFS&
&hdfs://hadoop0:9000&
&io.file.buffer.size&
vim hdfs-site.xml
&dfs.http.address&
&hadoop0:50070&
&dfs.secondary.http.address&
&hadoop0:50090&
&dfs.namenode.name.dir&
&/home/hadoop/hadoop/name&
&dfs.datanode.data.dir&
&/home/hadoop/hadoop/data&
&dfs.replication&
&dfs.nameservices&
&dfs.namenode.secondary.http-address&
&hadoop0:50090&
&dfs.webhdfs.enabled&
&dfs.permissions&
cp mapred-site.xml.template mapred-site.xml
vim /etc/mapred-site.xml
&mapreduce.framework.name&
&mapreduce.jobtracker.http.address&
&hadoop0:50030&
&mapreduce.jobhistory.address&
&hadoop0:10020&
&mapreduce.jobhistory.webapp.address&
&hadoop0:19888&
&mapred.job.tracker&
&hadoop0:9001&
vim yarn-site.xml
&yarn.resourcemanager.hostname&
&yarn.nodemanager.aux-services&
&mapreduce_shuffle&
&yarn.resourcemanager.address&
&hadoop0:8032&
&yarn.resourcemanager.scheduler.address&
&hadoop0:8030&
&yarn.resourcemanager.resource-tracker.address&
&hadoop0:8031&
&yarn.resourcemanager.admin.address&
&hadoop0:8033&
&yarn.resourcemanager.webapp.address&
&hadoop0:8088&
vim master
scp -r /home/hadoop/hadoop-2.6.4/etc/hadoop/* tx:~/hadoop-2.6.4/etc/hadoop/
启动和关闭hadoop
bin/hdfs namenode -format
sbin/start-dfs.sh
sbin/stop-dfs.sh
sbin/start-yarn.sh
sbin/stop-yarn.sh
sbin/mr-jobhistory-daemon.sh start historyserver
sbin/mr-jobhistory-daemon.sh stop historyserver
sbin/hadoop-daemon.sh start secondarynamenode
sbin/hadoop-daemon.sh stop secondarynamenode
[hadoop@lizer_ali hadoop-2.6.4]$ jps
3099 ResourceManager
3430 SecondaryNameNode
2879 NameNode
3382 JobHistoryServer
[hadoop@lizer_tx ~]$ jps
9757 DataNode
9853 NodeManager
检查节点配置情况
bin/hadoop dfsadmin -report
网页节点管理
http://114.215.92.77:8088/cluster
网页资源管理
http://114.215.92.77:50070/dfshealth.html#tab-overview
新建文件夹
bin/hdfs dfs -mkdir -p input
参考文档:
&&相关文章推荐
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:52087次
排名:千里之外
原创:15篇
评论:12条
(1)(1)(5)(3)(1)(1)(6)(2)
(window.slotbydup = window.slotbydup || []).push({
id: '4740887',
container: s,
size: '250,250',
display: 'inlay-fix'

我要回帖

更多关于 微软云和阿里云对比 的文章

 

随机推荐