truenas集群功能
您问的是truenas集群功能是什么吗?TrueNAS集群功能是网络存储服务器
TrueNAS采用ZFS文件系统存储、管理和保护数据。ZFS提供了诸如轻量级快照、压缩和重复数据删除等高级功能。
True NAS是iXsystems公司推出的系列企业存储阵列,网络连接存储系统和存储区域网络设备,支持SMB,AFP,NFS,iSCSI,SSH,rsync和FTP/TFTP上共享协议的以太网和光纤通道网络结构。
如何挂载iSCSI磁盘到vSphere系统
藉由数台虚拟平台服务器共同使用一个存储池的架构,企业可以针对虚拟环境从事更多的进阶管理,我们将利用DataCore的SANMelody实作软件式的iSCSI环境,扩增存储容量之余,并示范如何连接至虚拟化平台。
在同时拥有多台虚拟平台服务器(例如Citrix XenServer、VMware vSphere、微软Hyper-V)的环境下,存储池(也称之为共享存储服务器)是一项不可或缺的重要组件,藉由数台虚拟平台服务器共同使用一座储存池的架构,企业可以针对虚拟环境从事更多的进阶管理,这其中以VMotion这一类的在线动态移转技术最具代表性,在不搬动虚拟机器档案的前提下,仅需透过网络将暂存在服务器内存的少量数据搬移到另外一台虚拟平台服务器运作,而不会造成长时间的断线,方便企业维修、升级,或者是排除服务器硬件上的故障。
使用iSCSI做为虚拟平台存储池
为了减少后续管理上的不便,大部份企业都是在导入虚拟化技术的初期,将存储池一并建置完毕,然而,在多种能够搭配虚拟化平台运作的方案之中,iSCSI是一种成本较低廉的选择,因此十分受到企业欢迎。
iSCSI有软、硬件2种产品,软件产品的好处在于建置成本较低,可安装在现有的服务器硬件上运作,不一定需要额外购买专用的服务器才能提供服务,至于硬设备的优点则是具备较佳的效能,这次我们这次使用的DataCore SANMelody是属于软件产品,搭配VMware新版的vSphere套件,建立一个iSCSI储存池,放置虚拟机器运作所需的档案。
DataCore SANMelody本身是付费软件,我们可以从官网取得30天的试用版本,如果想要长期使用,网络上也有免费的同类型软件可供选择,目前比较具代表性的有StarWind及FreeNAS等2套。StarWind的免费版本只能建立2GB大小的iSCSI扇区,想要取消这个限制,就必须付费购买更高阶的完整版,至于FreeNAS则没有容量上限,不过套件本身是由FreeBSD所衍生而来,对于少数不熟悉接口操作的使用者来说,可能有应用门坎,不过网络上可供参考的数据很多,可以帮助我们解决设定过程中所碰到的各项问题。
透过3阶段完成iSCSI与VMware vSphere间的联机
测试环境的架设,大致上可以区分为iSCSI扇区的建立、设定vSphere服务器,及挂载iSCSI扇区等3个阶段。
建立iSCSI扇区
我们将SANMelody安装在一台Windows Server 2003服务器,并预留一个80GB大小、没有指派磁盘代号,同时尚未格式化的扇区,透过SANMelody将其设定成一个iSCSI扇区,目的是提供给vSphere服务器存放档案之用。
设定方式大致如下:利用内嵌在Windows Server 2003主控台的SANMelody管理接口,将扇区汇到SANMelody,接着在“Virtual Volume”的项目,新增一个虚拟扇区,对应到先前预留好的实体扇区。最后,我们还必须在SANMelody指定应用程序服务器,也就是未来要存取iSCSI服务器的应用程序服务器类型,由于vSphere的前身就是VMware ESX,因此在服务器类别的下拉式选单当中,就选取此一项目。
设定vSphere服务器
透过VMware vSphere Client软件连接vSphere的主控台接口,启用iSCSI的支持功能,并且发起联机,要求iSCSI服务器指派一个iSCSI磁盘供vSphere储存虚拟机器运作所需的相关档案。
不过一开始,我们必须在vSphere服务器的虚拟交换器上完成VMkernel的设定,因此vSphere服务器上必须要有2张的实体网卡,1张做为管理之用,另外透过另外1张存取iSCSI扇区,完成这项设定之后,才能让vSphere服务器支持iSCSI。
在“Configuration>Storage Adapters”的设定项目,找到1张名为iSCSI Software Adapter的虚拟网络卡,在细部设定项目中的“General”分页,勾选Enabled的选项之后,就可以让vSphere服务器支持iSCSI,在此之后,我们还需要设定iSCSI服务器所在的IP地址,发起联机请求,以便派磁盘供虚拟平台服务器存储档案。
挂载iSCSI扇区
一切顺利的话,就可以在SANMelody的管理接口看到vSphere服务器所发出的联机请求,将此联机分别对应到先前设定好的应用程序服务器及虚拟磁盘等2个项目,将iSCSI扇区挂载到vSphere服务器,在vSphere服务器的iSCSI Software Adapter,就可以看到这张适配卡底下,挂载了一个80GB大小的扇区。
最后,在vSphere服务器新增一个LUN,将iSCSI扇区设定为可用磁盘,接着完成格式化之后,就能用它来存取数据。
intel芯片双口千兆网卡
飞迈瑞克(femrice)可提供intel芯片千兆网卡, 千兆网卡 最大传输速度能达到1000Mbit秒,多用于服务器,提供服务器与交换机之间的高速连接,提高网络传输速度,千兆网卡按照端口可分为单口,双口,四口3种,下面就我们来详细介绍Intel芯片双口千兆网卡。
飞迈瑞克FM-NHI350AM2-F2是一款服务器专用千兆网卡,它具有2个1000M的 LC光纤接口,可支持2000Mbs的传输带宽,同时支持PCI-E X4 标准插槽,保证了网卡高效、稳定的工作。另外网卡还支持VLAN、QOS策略、流量控制等功能,适合中大型局域网的应用。
intel芯片双口千兆网卡FM-NHI350AM2-F2,双口SFP千兆服务器网卡PCI-E x4插槽,具有性能增强功能和新的电源管理技术建立在英特尔以太网产品卓越的历史基础之上。 英特尔凭借新一代PCIe GbE网络适配器继续保持市场领先地位。 这些适配器采用无桥英特尔以太网控制器I350构建,通过业界领先的虚拟化和iSCSI统一网络环境增强功能引入新级别的性能,代表了企业和数据中心千兆以太网(GbE)网络演进的下一步。 这一新的适配器系列还包括新的电源管理技术,如节能以太网(EEE)和DMA合并(DMAC)。
灵活的I / O虚拟化
intel芯片双口千兆网卡FM-NHI350AM2-F2包括用于连接的英特尔虚拟化技术(英特尔VT-c),可提供直接设计到适配器控制器上的I / O虚拟化和服务质量(QoS)功能。 I / O虚拟化通过提供灵活端口分区(FPP),多个Rx / Tx队列以及可用于虚拟和非虚拟服务器部署的控制器QoS功能,将当今服务器中使用的网络连接模型推进到更高效的模型。
通过利用PCI-SIG SR-IOV规范,英特尔以太网产品支持灵活端口分区(FPP)。使用FPP,Linux 主机可以直接使用虚拟控制器和/或将虚拟控制器分配给虚拟机。通过此端口分区,管理员可以在单个以太网端口上创建多达八个专用连接,以用于裸机和虚拟化服务器部署。
飞迈瑞克FM-NHI350AM2-T2是一款服务器专用千兆网卡,它具有2个10/100/1000M自适应的RJ45接口,可支持20/200/2000Mbps的传输带宽,同时支持PCI-E X4 标准插槽,保证了网卡高效、稳定的工作。另外网卡还支持VLAN、QOS策略、流量控制等功能,适合中大型局域网的应用。
intel芯片双口千兆网卡FM-NHI350AM2-T2采用无桥英特尔以太网控制器I350构建,这些适配器代表了企业和数据中心千兆以太网(GbE)网络演进的下一步,通过行业领先的增强功能引入新的性能水平 虚拟化和iSCSI统一网络环境。 这一新的适配器系列还包括新的电源管理技术,如节能以太网(EEE)和DMA合并(DMAC)。
产品特性
支持10/100/1000Mbps两个RJ45通道,
接口标准支持PCI Express 20;
支持MSI,MSI-X,支持VMDq队列;
支持ISCSI加速;
支持QOS策略;
支持FCOE卸载;
支持RSS/TX队列;
支持8023x的流量控制;
支持多数网络操作系统,可广泛部署。
在VMware环境下使用iSCSI存储的最佳实践
一旦iSCSI磁盘配置好了,虚拟机(VMs)就可以使用它们了。以下列出的最佳实践可以帮助你在VMware环境中的iSCSI数据存储获得最大的性能和可靠性。
iSCSI存储的性能高度依赖于网络的健康和使用。为了达到最佳效果,你应该总是通过专用的网络将iSCSI的流量分离出来。
你只能在一个ESX服务器主机上配置一个软件启动器。配置为iSCSI提供连接的vSwitch时,使用多个物理网卡来提供冗余。确保你将VMkernel(虚拟机内核)接口与vSwitch的网卡绑定在一起,这样多路径配置才正确。
确保你在iSCSI vSwitch上使用的网卡连接到不同的网络交换机,以消除单点故障。
vSphere支持使用存储协议的巨型帧,但它只对那些拥有非常大I/O的特定工作量有好处。此外,你的后端存储必须能够处理RAID组中拥有大量主轴(大于15)增加的吞吐量,否则你也看不到任何好处。如果你的I/O小并且你的存储是主轴方向的(spindle-bound),使用巨型帧你将看到你的性能很少或者没有提高在某些情况下。巨型帧实际上会降低性能,所以你应该做一个评估测试,对比一下启用巨型帧前后的效果,看看巨型帧是否有效。每个端到端组建必须支持巨型帧,包括物理网卡和网络交换机,vSwitch,VMkernel端口和iSCSI目标配置。如果任何一个组件不适合巨型帧配置,它们将无法工作。
为你的虚拟机磁盘控制器使用新的Paravirtual SCS(PVSCSI)适配器,因为在大多数情况下它提供的最大吞吐量和性能超过了标准的LSI逻辑和BusLogic适配器。对于非常小的I/O工作量来说,LSI逻辑适配器的效果最好。
为了实现最好的性能需要设置先进的多路径,选择iSCSI存储容量属性并点击管理途径。如果有的话,你可以使用本机VMware多路径或第三方多路径插件来配置路径选择策略。当使用软件启动器(software initiators)时,在一个vSwitch上创建两个VMkernel接口;指定一个物理网卡为活跃的,另一个为未使用的;使用 esxcli命令将一个VMkernel端口绑定到第一个网卡,将第二个端口绑定到第二个网卡。使用循环算法代替顺序算法或者最近最常使用(MRU)算法,将得到更好的性能。如果你的虚拟机上使用了微软集群服务器(Microsoft Cluster Server),避免使用循环(Round Robin)算法。
在我们日常工作的某些实验中,会需要使用存储服务器。而硬件存储成本高,如StarWind之类的iSCSI软存储解决方案需要单独下载服务器端程序,且配置比较繁琐,令很多新手们很是头疼。
事实上,利用Windows Server 2008 R2,我们可以很容易地将其作为一台NFS存储服务器,方便地得到一个NFS软存储,轻松解决某些环境下的问题。接下来以Windows Server 2008 R2 SP1 企业版为例,分享一下具体的实现步骤。
首先,打开服务器管理器,选择”添加角色”;
点击下一步,开始添加服务器角色;
添加”文件服务”,点击下一步;
点击下一步,开始添加角色服务;
添加”网络文件系统服务”,即”Network File System (NFS)”;
点击安装,开始执行;
安装完成后,在容量适合的分区下建立一个文件夹,选择属性,找到”NFS共享”选项卡,点击”管理NFS共享”;
保持选项默认,点击”权限”;
此处可以看到此存储的默认访问权限,默认为所有计算机都具有只读权限。我们可以将这条权限策略调整为”不可读”,并点击”添加”设置其他策略;
点击”添加”后,会出现如上图窗口,在”添加名称”栏填写允许访问此存储的主机的IP地址,设置访问类型,并按需勾选是否允许访问根目录即可。
以上,通过其他设备添加 “此服务器IP地址:/共享文件夹名称”,即可访问NFS存储
0条评论