关于做一个出售服务器租用及托管的网站需要什么资质吗?

关于做一个出售服务器租用及托管的网站需要什么资质吗?,第1张

开展服务器托管,服务器租用等业务的公司,需要办理idc资质,idc资质是增值电信业务许可证互联网数据中心业务许可证的俗称,业务编号B11,常称为idc许可证。

idc许可证,是公司开展互联网数据中心业务需要办理的证书,常见的业务类型有:机架出租、机柜出租、VIP机房出租、或者服务器资源出租,如主机出租,虚拟主机出租等

idc资质有效期是5年

首先回答您什么叫网络托管业务

网络托管业务是第二类基础电信业务(A27类)资质全名:第二类增资电信业务经营许可证—网络托管业务 网络托管业务是指受用户委托,代管用户自有或租用的国内网络、网络元素或设备,包括为用户提供设备放置、网络管理、运行和维护服务,以及为用户提供互联互通和其他网络应用的管理和维护服务。注:网络托管业务比照增值电信业务管理。附带增值电信业务许可证的分类标图

申请中需要注意的事项和要点:

(一)企业主要负责人的资历:企业负责人和技术负责人应具有3年以上从事通信建设或维护管理经历,有中级以上职称;财务负责人应具有本专业初级以上职称。

(二)技术人员要求:

1、具有中级以上职称的工程技术和经济管理人员不少于15人;其中具有通信专业高级职称或硕士毕业3年以上的人员不少于2人,具有通信专业中级职称或本科毕业3年以上的人员不少于8人。

2、铁塔代维应不少于5人持有劳动部门颁发的登高证书。

3、企业聘用的离退休人员(不超过65岁)不得超过总人数的1/3。

(三)企业注册资金不少于100万元。

(四)具有承担相应专业维护作业的设备、仪器、仪表及工具、车辆等。

第四章 监督管理

第六条 网络托管业务经营许可证按《电信业务经营许可证管理办法》实行年检制度。

(一) 年检材料除应提交《电信经营许可证管理办法》所规定的材料外,还应提交工程质量部门出具的年检意见。

(二)工程质量部门出具的年检意见将作为《网络托管业务许可证》年检合格条件之一。

1、年检意见合格条件:

(1)企业条件完全符合年检标准,且维护质量合格,未发生重大安全事故的;

(2)通信工程技术人员数量达到规定标准的80%以上。

2、有下列情况之一的,年检意见结论为“不合格”:

(1)通信工程技术人员未达到规定标准的80%;

(2)发生重大维护质量、安全责任事故。

第七条 持证企业必须在批准的许可登记规定的业务范围内执业,不得超范围承接业务,违反本规定的,依照许可证管理办法第34条处罚。

其他未尽事项,可以继续在百度发起提问。

如何做平台型网站?有哪些讲究?

1平台型网站定位

找到一个好的平台型网站定位很重要,这也是平台型网站建设的核心主题。思考一下你想要建立怎样的平台型网站?就是一个展示平台型网站,吸引人气,互动交流?或者是销售商品推广渠道的营销类平台型网站?我们面临着哪些服务人群?对象顾客有哪些特定特点?

2平台型网站内容

依据平台型网站定位,确定好平台型网站所需包含的具体内容。比如,需要包括什么标题文字视频栏目网页等。同时,我们也要制定好平台型网站内容更新的跟踪计划,如定期更新定量文章,及时分析热门关键词的走向等等。

3设计平台型网站

首先要根据前面准备的材料,设计出平台型网站框线图,清楚地表达了平台型网站的整体结构和交互逻辑。接着我们还需要对平台型网站界面进行具体的设计,包括对平台型网站的风格,构件构架,背景配色,字体大小等方面的设计。在设计平台型网站时,应遵循实用性和美观性的标准,根据目标用户的偏好来进行。

4项目人员

谁是平台型网站建设总项目的确定管理者?站点设计者程序开发者是平台型网站测试师?站点维护和后勤人员是怎么安排的?我们要制定明确的分工计划。

5建造站预算

为平台型网站搭建做一份预算,计算一下平台型网站域名服务器设计程序素材各需多少费用,合理安排预算经费。

6发展平台型网站

按照以上总体规划,开展公司平台型网站建设的发展工作。

7现场检验

站点测试为了在平台型网站正式上线之前,尽可能排除平台型网站建设中存在的漏洞和问题。如浏览器与终端是否适合按钮连接是否能正确使用显示界面是否完整等。要提前确定测试所需的方向、内容、具体步骤和工具。

8平台型网站维护

具体措施是在平台型网站上线后进行维护。例如新内容的发布频度,平台型网站推广的方法策划,系统安全保障措施意见反馈的收集处理等。

两台服务器手动部署大数据平台

##### 初始服务器数量

- 2台centos7

##### 建议配置

- 32G(RAM)

- 24cpu

- 10t(SATA)

### 1环境

- 系统centos7

- jdk:180_171(64位)

- zookeeper:348

- spark-210-bin-hadoop26

- kafka_210-01021

- hadoop-270

- hbase-126

- elasticsearch-630

### 2系统准备

对应的安装包文件:

elasticsearch-630targz

hadoop-270targz

hbase-126-bintargz

jdk-8u171-linux-x64targz

kafka_210-01021tgz

mysql-5723-1el7x86_64rpm-bundletar

spark210hadoop26tgzgz

zookeeper-348targz

一、 配置好hosts

```

两台设备的host

ip1 hello1

ip2 hello2

关闭防火墙

systemctl stop firewalld

systemctl disable firewalld

二、机器之间做好免密

1 在hello1服务器中,cd /root/

2 ssh-keygen -trsa  (全部按回车,走默认配置)

3 cat ~/ssh/id_rsapub >> ~/ssh/authorized_keys

4 chmod 600 ~/ssh/authorized_keys

5 scp ~/ssh/authorized_keys root@hello2:~/ssh/

到此处时可以实现hello1机器上通过root账户登录到hello2中,但从hello2中无法通过免密码登录到hello1服务器。

6 在hello2服务器中,cd /root/

7 ssh-keygen -trsa  (全部按回车,走默认配置)

8 cat ~/ssh/id_rsapub >> ~/ssh/authorized_keys

9 scp ~/ssh/authorized_keys root@hello1:~/ssh/

到此处时可以实现hello1机器与hello2机器之间免密码互通

三、建立一个用户操作elasticsearch用户,后期所有安装软件放在该目录下(当前使用root账户安装)

1添加用户:

useradd -m -s /bin/bash es

2为该用户设置密码:

password es

四、安装JDK

如果系统自带openjdk,先将其卸载掉!

1创建jdk安装路径(hello1、hello2都执行)

执行: mkdir /usr/java

2解压缩jdk到安装目录

执行: tar -zxvf jdk-8u171-linux-x64targz -C /usr/java/

3添加环境变量

vi /etc/profile,添加以下语句

export JAVA_HOME=/usr/java/jdk180_171

export CLASSPATH=:$JAVA_HOME/lib/dtjar:$JAVA_HOME/lib/toolsjar

export PATH=$PATH:$JAVA_HOME/bin

执行:source /etc/profile

4复制安装包和数据目录到hello2

scp  -r /usr/java/jdk180_171 hello2:/usr/java/

scp /etc/profile hello2:/etc/

登录到hello2上,进入/home/es目录

执行: source /etc/profile

5、验证:

两台服务器上分别执行: java -version,查看输出的版本是否与安装的版本一致。

五、安装mysql

1如果centos系统中自带mariadb,先卸载mariadb。

2解压mysql安装包程序

执行:tar -xvf  mysql-5723-1el7x86_64rpm-bundletar

3依次安装里面rpm包组建

rpm -ivh mysql-community-common-5723-1el7x86_64rpm

rpm -ivh mysql-community-libs-5723-1el7x86_64rpm

rpm -ivh mysql-community-client-5723-1el7x86_64rpm

rpm -ivh mysql-community-server-5723-1el7x86_64rpm

rpm -ivh mysql-community-devel-5723-1el7x86_64rpm

4启动MySQL

执行: systemctl start mysqld

5登录mysql服务器

这种方式安装好后,会再mycnf文件中自动生成一个密码,

执行:cat /var/log/mysqldlog | grep password, 出现如下记录:

2017-09-15T01:58:11863301Z 1 [Note] A temporary password is generated for root@localhost: m-NdrSG4ipuO

其中“m-NdrSG4ipuO”为mysql root账户的初始密码。

登录:

执行: mysql -uroot -p

输入密码: m-NdrSG4ipuO,即可进入mysql服务器。

后续可自行修改root密码,创建新账户等操作。

六、安装zookeeper

1解压zookeeper安装包到指定目录(/home/es)

tar -zxvf zookeeper-348targz -C /home/es

2创建程序软连接

cd /home/es/

ln -s zookeeper-348 zookeeper

3添加执行路径环境

vi /etc/profile

添加

export ZOOKEEPER_HOME=/home/es/zookeeper

export PATH=$PATH:$ZOOKEEPER_HOME/bin

执行

source /etc/profile

4修改配置文件

cd /home/es/zookeeper

cp conf/zoo_samplecfg conf/zoocfg

在/home/data下创建对应的zookeeper数据存储目录

mkdir /home/data/zookeeper

mkdir /home/data/zookeeper/data

mkdir /home/data/zookeeper/log

修改配置文件:conf/zoocfg,添加以下语句

dataDir=/home/data/zookeeper/data

dataLogDir=/home/data/zookeeper/log

server1=hello1:2888:3888

server2=hello2:2888:3888

5创建server表示符文件

touch /home/data/zookeeper/data/myid

echo echo 1>/home/data/zookeeper/data/myid

6复制安装包和数据目录到hello2

scp -r /home/es/zookeeper-348 es@hello2:/home/es

scp -r /home/data/zookeeper es@hello2:/home/data

scp  /etc/profile es@hello2:/etc

登录到hello2上

cd /home/es

ln -s zookeeper-348 zookeeper

echo echo 2>/home/data/zookeeper/data/myid

执行

source /etc/profile

7两台机器上分别执行

zkServersh start

8验证

jps | grep QuorumPeerMain,查看是否有该进程

zkServersh status,查看服务状态

六、安装kafka

1解压kafka安装包到指定目录(/home/es)

tar -zxvf kafka_210-01021tgz -C /home/es

2创建程序软连接

cd /home/es/

ln -s kafka_210-01021 kafka

3修改配置文件

备份:

cp config/serverproperties config/serverpropertiesbak

创建kafka日志目录:

mkdir /home/data/kafka

mkdir /home/data/kafka/kafka-logs

修改:config/serverproperties,具体对应字段如下:

brokerid=0

deletetopicenable=true

numnetworkthreads=10

numiothreads=32

socketsendbufferbytes=102400

socketreceivebufferbytes=102400

socketrequestmaxbytes=104857600

logdirs=/home/data/kafka/kafka-logs

numpartitions=1

numrecoverythreadsperdatadir=1

logretentionhours=168

logsegmentbytes=1073741824

logretentioncheckintervalms=300000

zookeeperconnect=hello1:2181,hello2:2181

zookeeperconnectiontimeoutms=6000

6复制安装包和数据目录到hello2

scp -r /home/es/kafka_210-01021 es@hello2:/home/es

scp -r /home/data/kafka es@hello2:/home/data

修改hello2中的配置

登录到hello2上,cd /home/es/kafka,修改config/serverproperties中brokerid值为2

7启动kafka

在两台机器的/home/es/kafka中,创建一个日志存放目录:mkdir start_log,执行以下命令:

nohup bin/kafka-server-startsh config/serverproperties > start_log/kafka_start_log 2>&1 &

8验证运行情况

jps | grep Kafka,查看进程

通过kafka命令查看topic。

七、安装hadoop

1解压hadoop安装包到指定目录(/home/es)

tar -zxvf hadoop-270targz -C /home/es

2创建程序软连接

cd /home/es/

ln -s hadoop-270 hadoop

3创建数据存放目录

mkdir /home/data/hadoop

mkdir /home/data/hadoop/tmp

mkdir /home/data/hadoop/dfs

mkdir /home/data/hadoop/dfs/data

mkdir /home/data/hadoop/dfs/name

4修改配置文件

修改/home/es/hadoop/etc/hadoop/core-sitexml

<configuration>

<property>

<name>fsdefaultFS</name>

<value>hdfs://hello1:9000</value>

</property>

<property>

<name>hadooptmpdir</name>

<value>file:/home/data/hadoop/tmp</value>

</property>

<property>

<name>iofilebuffersize</name>

<value>131702</value>

</property>

</configuration>

修改/home/es/hadoop/etc/hadoop/hdfs-sitexml

<configuration>

<property>

<name>dfsnamenodenamedir</name>

<value>file:/home/data/hadoop/dfs/name</value>

</property>

<property>

<name>dfsdatanodedatadir</name>

<value>file:/home/data/hadoop/dfs/data</value>

</property>

<property>

<name>dfsreplication</name>

<value>2</value>

</property>

<property>

<name>dfsnamenodesecondaryhttp-address</name>

<value>hello1:9001</value>

</property>

<property>

<name>dfswebhdfsenabled</name>

<value>true</value>

</property>

</configuration>

修改/home/es/hadoop/etc/hadoop/mapred-sitexml

<configuration>

<property>

<name>mapreduceframeworkname</name>

<value>yarn</value>

</property>

<property>

<name>mapreducejobhistoryaddress</name>

<value>hello1:10020</value>

</property>

<property>

<name>mapreducejobhistorywebappaddress</name>

<value>hello1:19888</value>

</property>

</configuration>

修改/home/es/hadoop/etc/hadoop/yarn-sitexml

<configuration>

<!-- Site specific YARN configuration properties -->

<property>

<name>yarnnodemanageraux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarnnodemanagerauxservicesmapreduceshuffleclass</name>

<value>orgapachehadoopmapredShuffleHandler</value>

</property>

<property>

<name>yarnresourcemanageraddress</name>

<value>hello1:8032</value>

</property>

<property>

<name>yarnresourcemanagerscheduleraddress</name>

<value>hello1:8030</value>

</property>

<property>

<name>yarnresourcemanagerresource-trackeraddress</name>

<value>hello1:8031</value>

</property>

<property>

<name>yarnresourcemanageradminaddress</name>

<value>hello1:8033</value>

</property>

<property>

<name>yarnresourcemanagerwebappaddress</name>

<value>hello1:8088</value>

</property>

<property>

<name>yarnnodemanagerresourcememory-mb</name>

<value>768</value>

</property>

</configuration>

配置/home/es/hadoop/etc/hadoop目录下hadoop-envsh、yarn-envsh的JAVA_HOME(不设置的话,启动不了)

export JAVA_HOME=/usr/java/jdk180_171

配置/home/es/hadoop/etc/hadoop目录下的slaves,删除默认的localhost,增加2个从节点,

hello1

hello2

5、将配置好的Hadoop复制到各个节点对应位置上,通过scp传送

scp  -r /home/es/hadoop-270 hello2:/home/es/

scp  -r /home/data/hadoop hello2:/home/data/

登录到hello2上,进入/home/es目录

执行: ln -s hadoop-270 hadoop

6、格式化nameNode及启动hadoop

在主服务器启动hadoop,从节点会自动启动,进入/home/es/hadoop目录

初始化,输入命令,bin/hdfs namenode -format

全部启动sbin/start-allsh,也可以分开sbin/start-dfssh、sbin/start-yarnsh

输入命令,jps,可以看到相关信息

7、验证hadoop运行情况

浏览器打开http://hello1:8088/

浏览器打开http://hello1:50070/

8、添加hadoop环境变量到/etc/profile

export HADOOP_HOME=/home/es/hadoop export PATH=$PATH:$HADOOP_HOME/sbin

export PATH=$PATH:$HADOOP_HOME/bin

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djavalibrarypath=$HADOOP_HOME/lib/native"

执行: source /etc/profile

八、安装Hbase

1解压hbase安装包到指定目录(/home/es)

tar -zxvf hbase-126-bintargz -C /home/es

2创建程序软连接

cd /home/es/

ln -s hbase-126 hbase

3添加hbase环境变量到/etc/profile

export  HBASE_HOME=/home/es/hbase

 export  PATH=$HBASE_HOME/bin:$PATH

执行:source /etc/profile

4修改HBASE配置文件

vi /home/es/hbase/conf/hbase-envsh

增加: export JAVA_HOME=/usr/java/jdk180_171

修改: export HBASE_MANAGES_ZK=false

vi /home/es/hbase/conf/hbase-sitexml

修改类容:

<configuration>

<property>

      <name>hbaserootdir</name> <!-- hbase存放数据目录 -->

      <value>hdfs://hello1:9000/hbase/hbase_db</value>

      <!-- 端口要和Hadoop的fsdefaultFS端口一致-->

    </property>

    <property>

      <name>hbaseclusterdistributed</name> <!-- 是否分布式部署 -->

      <value>true</value>

    </property>

    <property>

      <name>hbasezookeeperquorum</name> <!-- list of  zookooper -->

      <value>hello1,hello2</value>

    </property>

     <property><!--zookooper配置、日志等的存储位置 -->

        <name>hbasezookeeperpropertydataDir</name>

        <value>/home/es/hbase/zookeeper</value>

     </property>

</configuration>

配置regionservers,vi /home/es/hbase/conf/regionservers

去掉默认的localhost,加入hello1、hello2

5、将配置好的hbase复制到各个节点对应位置上,通过scp传送

scp  -r /home/es/hbase-126 hello2:/home/es/

scp /etc/profile hello2:/etc/

登录到hello2上,进入/home/es目录

执行: ln -s hbase-126 hbase

source /etc/profile

6、hbase的启动

hello1中执行: start-hbasesh

7、验证hbase运行情况

输入jps命令查看进程是否启动成功,若 hello1上出现HMaster、HRegionServer、HQuormPeer,hello2上出现HRegionServer、HQuorumPeer,就是启动成功了。

输入hbase shell 命令 进入hbase命令模式,输入status命令,查看运行状态。

在浏览器中输入http://hello1:16010就可以在界面上看到hbase的配置

注意事项:

正常安装后,创建普通不带压缩表可以正常读写,当使用snappy进行压缩创建表时,该表无法再regionServer中启动!

解决方法:

1在hbase-sitexml文件中添加一下属性

<property>

                <name>hbaseregionservercodecs</name>

                <value>snappy</value>

        </property>

2每台机器中将hadoop_nativezip解压缩到hbase安装目录的lib下,执行 unzip hadoop_nativezip $HBASE_HOME/lib/

3在$HBASE_HOME/conf/hbase-envsh 中添加:export HBASE_LIBRARY_PATH=/home/es/hbase/lib/native

4重启Hbase服务即可

九、Spark安装

1解压hbase安装包到指定目录(/home/es)

tar -zxvf spark210hadoop26tgzgz -C /home/es

2创建程序软连接

cd /home/es/

ln -s spark210hadoop26 spark

3修改配置文件

mv /home/es/spark/conf/spark-envshtemplate  /home/es/spark/conf/spark-envsh

vi /home/es/spark/conf/spark-envsh

修改对应配置:

export JAVA_HOME=/usr/java/jdk180_171

export SPARK_MASTER_IP=hello1

export SPARK_MASTER_PORT=7077

export SPARK_LOCAL_IP=hello1

修改slaves文件

mv /home/es/spark/conf/slavestemplate  /home/es/spark/conf/slaves

vi /home/es/spark/conf/slaves

将localhost修改成:

hello1

hello2

5、将配置好的hbase复制到各个节点对应位置上,通过scp传送

scp  -r /home/es/spark210hadoop26 hello2:/home/es/

登录到hello2上,进入/home/es目录

执行: ln -s spark210hadoop26 spark

在hello2中修改/home/es/spark/conf/spark-envsh

export JAVA_HOME=/usr/java/jdk180_171

export SPARK_MASTER_IP=hello1

export SPARK_MASTER_PORT=7077

export SPARK_LOCAL_IP=hello2

6、启动spark

cd /home/es/spark

执行: sbin/start-allsh

7、检测执行结果

jps | grep Worker,看是否有相应的进程。

十、安装elasticsearch

由于elasticsearch,用root账户无法启动,故该组件用es账户安装

1、切换到es账户: su es

2、解压hbase安装包到指定目录(/home/es)

tar -zxvf elasticsearch-630targz -C /home/es/

创建程序软连接

cd /home/es/

ln -s elasticsearch-630 elasticsearch

3、修改配置文件

vi /home/es/elasticsearch/config/elasticsearchyml

# 集群的名字 

clustername: crrc-health

# 节点名字 

nodename: node-1 

# 数据存储目录(多个路径用逗号分隔) 

pathdata: /home/data1/elasticsearch/data

# 日志目录 

pathlogs: /home/data1/elasticsearch/logs

#本机的ip地址

networkhost: hello1 

#设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点

discoveryzenpingunicasthosts: ["hello1", "hello2"]

# 设置节点间交互的tcp端口(集群),(默认9300) 

transporttcpport: 9300

# 监听端口(默认) 

httpport: 9200

# 增加参数,使head插件可以访问es 

httpcorsenabled: true

httpcorsallow-origin: ""

4、创建elasticsearch数据和存储目录

mkdir /home/data1/elasticsearch

mkdir /home/data1/elasticsearch/data

mkdir /home/data1/elasticsearch/logs

5、修改linux系统的默认硬限制参数

切换至root用户: su root

vim /etc/security/limitsconf

添加:

es soft nofile 65536

es hard nofile 65536

退出es登录,重新用es账户登录,使用命令:ulimit -Hn查看硬限制参数。

vi /etc/sysctlconf

添加:

vmmax_map_count=655360

执行:

sysctl -p

6、将配置好的elasticsearch复制到各个节点对应位置上,通过scp传送

scp  -r /home/es/elasticsearch-630 hello2:/home/es/

scp  -r /home/data1/elasticsearch hello2:/home/data1/

登录到hello2上,进入/home/es目录

执行: ln -s elasticsearch-630 elasticsearch-630

在hello2中修改/home/es/elasticsearch/config/elasticsearchyml

修改: networkhost: hello2

7、启动elasticsearch

使用es账户

执行:

/home/es/elasticsearch/bin/elasticsearch -d

8、验证

控制台中输入:curl http://hello1:9200

肯定需要网络方面知识,至少要把这个服务器想办法合理的连入公网,然后需要买域名,主要是你这个服务器肯定是要发布项目或服务来用。就要知道要发布的项目的技术,比如我就是做web开发的就需要一些java知识。如何运行服务项目。采用什么样的操作系统,现在一般服务器都使用linux相对windows安全,也可以使用server2003比较多的操作系统。 其实也就三点 服务的平台也就是操作系统,连入网络包括域名访问,项目发布

我的服务器用的是小鸟云的,很稳定呢。

首先打开控制面板,选择“程序”,双击“打开或关闭Windows服务”,在弹出的窗口中选择“Internet信息服务”下面所有地选项,点击确定,开始更新服务。打开浏览器,输入“localhost”回车,如果出现IIS7欢迎界面,说明启动成功。

服务器能够响应终端的服务请求,并进行处理。我们在上网的时候是不可能直接将网络接入互联网的,我们都需要通过服务器来连接网络,只有服务器响应你的联网请求,并且进行处理以后才可以联网;存储的功能,服务器的存储空间一般比较充足,可以存储非常多的信息。

服务器部署注意事项

在许多服务器机架,电源分配单元(PDU)的部署仅仅只提供了数量有限的输出口,所以一台已经被大量使用的机架可能没有足够的开放式PDU插座以容纳更多额外的服务器,或无法很方便的为服务器电源线安排可用的插座。

用户可能会需要重新安排一些线缆,而只能通过拔掉服务器的电源了,而这会造成系统的停机,故而这就需要运营团队进行提前安排了。

DABAN RP主题是一个优秀的主题,极致后台体验,无插件,集成会员系统
网站模板库 » 关于做一个出售服务器租用及托管的网站需要什么资质吗?

0条评论

发表评论

提供最优质的资源集合

立即查看 了解详情