Chinaunix首页 | 论坛 | 博客
  • 博客访问: 3338960
  • 博文数量: 1575
  • 博客积分: 19423
  • 博客等级: 上将
  • 技术积分: 16102
  • 用 户 组: 普通用户
  • 注册时间: 2007-06-19 21:36
个人简介

专注专心

文章分类

全部博文(1575)

文章存档

2020年(10)

2018年(7)

2016年(6)

2015年(21)

2014年(32)

2013年(279)

2012年(516)

2011年(309)

2010年(260)

2009年(92)

2008年(15)

2007年(28)

我的朋友

分类: IT职场

2015-04-09 18:41:25

HP compaq8180 elite CMT PC
启用iSCSI引导 替换PXE网络引导
SATA模拟 IDE AHCI 或RAID

原AHCI模式硬盘  改为IDE后 win7启动不正常 ghost重装也不行 恢复为AHCI模式正常启动


咱们分下类吧:
IDE SATA SCSI SAS 这些是指硬盘的接口物理形式,
AHCI PATA ISCSI  这些是硬盘的接口的规范,可以以不同的物理形式出现。


具体看这里:




dell 755 如何进入MEBX
在系统启动过程中,按“F1”键,即可进入BIOS设置界面。通过键盘上的四个方向键,查看BIOS中各个参数值。进入“Advanced”选项,会看到“Intel (R) Managebility”这一项,点击进入。如下图所示。


Intel(R) Manageability Control:请在配置前,确认这一项的值为“Enabled”。这一项用来激活或者禁用AMT功能。
Intel(R) Manageability Reset:“Enabled”将会使MEBx恢复出厂设置。该项默认值为“Disabled”。请在需要恢复MEBx出厂设置时,进入该界面将其设置为“Enabled”,然后按“F10”保存设置并退出。重启过程中系统会有提示,选择“Y”即可完成MEBx恢复出厂设置。此过程完成后,该项自动变为默认值“Disabled”。下次需要时,按上述步骤重复操作即可。
Press to enter MEBx:此项用来在系统启动过程中显示或禁止显示提示信息“”。用户可以根据自己的需要,来选择“Diasbled”或者“Enabled”。
此页面中其余各项,一般情况下,用户不需要修改。
5.2 Intel AMT配置实例 --- 手动配置模式 
如果需要配置Intel AMT为手动模式,可以参考以下操作:
1、进入MEBx:计算机(支持Intel AMT)重启过程中,重复按,直到看到进入MEBx的提示信息,按“1”进入MEBx页面。如下图所示。


2、修改密码:初始密码为“admin”,系统会提示修改密码。新密码应遵循如下规则:
1)长度为8-32位(不支持汉字)。
2)至少有一个数字。
3)至少一个7位ASCII非字母数字字符(如’$’, ‘;’, !’,)
不包括‘:’, ‘,’和‘”’。
4)包含大小写。
     5)空格和下划线也是有效的,但是不能增加密码的复杂度。
参考资料:






HP Compaq 8180 Elite CMT PC usb启动盘不能启动
您好,感谢您选择惠普产品。
建议您可以尝试重启机器在机器开机出现HP标识的时候按F9看看启动菜单中是否可以看到U盘设备:
1、无法看到U盘设备,那么应该是U盘设备兼容性方面的问题导致的了,建议您可以更换U盘使用看看是否可以解决这个问题。
2、机器可以看到U盘设备,那么您所述的问题应该是您制作的U盘启动程序方面出现问题导致的了,建议您尝试使用下面的工具进行制作看看是否可以解决这个问题:
http://images2.store.microsoft.com/prod/clustera/framework/w7udt/1.0/en-us/Windows7-USB-DVD-tool.exe
3、您这款机器支持U盘启动的,正常如果您设置好USB Device启动插入U盘重新启动,机器就会自动从U盘引导启动。
希望以上回复能够对您有所帮助。
追问
谢谢您的回答,开机界面可以看到U盘的,就是无法引导,换了3个U盘都不行。
用了链接中的工具,可它只能用来装Win7,我用不了。我再试试看有没有其它的工具吧!
回答
您好!感谢您选择惠普产品。
        根据您的描述,建议您参考下列信息:     
        不客气的,如果您机器可以选择到U盘那么应该是您启动文件方面的问题比较大的,建议您可以尝试再更换其他的启动文件测试下看看是否能够解决这个问题。
        希望以上回复能够对您有所帮助。




装的是64位系统,另外BIOS里面也是4G,换不同的插槽显示的是不同的插槽有内存,始终有两个插槽的内存认不出来(要么1、2认不出,要么3、4认不出,这两个插槽是原来的内存还是后来的内存),还有CPUZ显示的也是8G\双通道...
另外运行-MSConfig-高级-最大内存也试了,不管用


你用鲁大师等软件看 主板型号 然后百度搜索主板型号  看参数才知道支持什么类型内存和多大内存的   看机型看不出来          你这种机型对于电子产品来说比较老了 都不知道你这个支持1333还是1600内存和具体支持多大的  这种品牌机建议直接咨询售后
追问
主板是Q57肯定支持,这是单位的电脑,10年的
回答
Q57主板支持  内存频率 DDR3, 1333MHz
你可以看看这个帖子 
应该是机器古董了   你多清理下飞尘试试
提问者评价
给你吧,后来挨个试的内存条,有一根是坏的
您好,欢迎您使用惠普产品~
 
       这款主机内存各个插槽使用的容量是一样才可以的,不能2G与4G混用的。
使用内存方法如下~
4G内存需要接入四个1G单条内存
8G内存需要接入四个2G单条内存
16G内存需要接入四个4G单条内存
       您按这个方式重新接入试试看~
 
希望以上回复对您有所帮助,若问题没有解决欢迎您再追问~


您好,感谢您选择惠普产品。


1、您备份数据后,插入U盘,开机后反复按“F9”键进入启动项设置,选择从USB设备启动试试。如果不好用,建议您重新插拨U盘、或者使用其它带有引导功能的U盘来启动试试。
2、如果不好用,建议您开机后按F10键进入BIOS,选择Storage--Boot Order,将USB Device调节到第一位,然后在File选项卡中选择Save Changes And Exit,就可以保存后退出了。在进行这个操作后,您再测试是否就可以从U盘引导了。


希望以上回复能够对您有所帮助。
追问
按你说的步骤1插入优盘启动按F9就会黑屏,左上角光标不停的闪,停在这里就不动了。
按步骤2设置完成从起后也是进到黑屏左上角光标不停闪,也不动了,然后从起按F10进去,将USB设置的第一位置又返回下面去了...这是什么情况?
回答
您好,感谢您选择惠普产品。建议您参考下列信息:


1、有关您插入U盘后开机按F9键会黑屏的情况,建议您将这个U盘插入其它电脑上试试,以免是这个U盘有问题造成的。另外,建议您更换其它带有引导功能的U盘来安装试试。
2、有关您在BIOS中设置后设置的选项不能保存的情况,很可能是由于没有保存后退出造成的。请您确认在设备后,是否“在File选项卡中选择Save Changes And Exit保存后退出”了。


希望以上回复能够对您有所帮助。
提问者评价
太麻烦了,我刻了一张盘装好的,不过还是谢谢




们的差距为21.23%;如果算进差距惊人的4K-64Trd读写IOPS值,它们的差距高达193.73%。


    我们以顶尖性能的SSD固态硬盘作为测试对象,两种硬盘模式下的性能差距必然也会随着强悍SSD性能得到放大。这反应了AHCI模式确实能发挥挖掘SSD固态硬盘的性能,和SSD固态硬盘搭配的当然是Win7/8系统。


SATA工作模式咋选?揭秘AHCI和IDE区别 
IDE模式如同WinXP:英雄迟暮


     WinXP的致命缺点导致SSD固态硬盘已不适合在它上面使用。面对全球超过40%的WinXP用户,我们不得不承认IDE模式仍大有可为,也许这样的电脑搭配机械硬盘更为合适。


AHCI这个注定和SATA接口结下不解之缘的接口模式,它担负着淘汰IDE模式的重任,从诞生开始就充满争议,它经历了整整7年时间。它伴随着SSD固态硬盘兴旺走向主流,同时也和微软WinXP、Win7操作系统密不可分。




用iSCSI Software Target Server实现网络引导 (2012-11-06 15:30:51)转载▼
标签: 网络适配器 操作系统 映像 引导 进行 it 分类: 羊屎蛋--我的观点
    在Windows Server 2012 中,iSCSI Software Target Server 已经成为一个内建的底层文件与存储服务角色,不再是一个需要额外下载的加载项,因此部署与更新变得更加简单。
    存储区域网络(SAN)引导是一种过去被大量第三方供应商使用的解决方案。在Windows Server 2012 中,新的iSCSI Software Target Server 功能可针对市售硬件提供网络引导功能。
用iSCSI Software Target Server不但可以实现网络/无盘引导,而且有很多优势:
    1.节约操作系统的存储成本。通过使用差异虚拟磁盘,即可使用一个操作系统映像引导多个无盘计算机。该功能可提供大量收益,包括降低管理负担以及节约存储空间。
    2.受控的操作系统映像要更安全,也更易于管理。有些企业为了实现数据安全,甚至要将数据在物理上锁定到中央位置的存储设备中。在这种情况下,服务器上运行的负载所包含的数据必须远程访问,包括操作系统的映像数据。通过使用iSCSI Software Target Server 引导,IT 管理员即可集中管理操作系统引导映像,并控制哪些应用程序可以被放入正式用映像中。
    3.快速部署。因为标准映像是一种系统化的预配置操作系统映像,当计算机使用标准映像进行引导时,会跳过文件复制与安装阶段,直接进入到自定义阶段。在微软的测试中,我们在34 分钟内部署了256 台计算机。
    4.快速恢复。因为操作系统映像被托管在iSCSI Software Target Server上,如果无盘客户端需要重新安置,新计算机即可指向操作系统映像,并立刻启动。
    5.不需要特殊的硬件进行功能验证。使用iSCSI Software Target Server 进行网络引导并不需要特殊的硬件进行功能验证。在大范围环境中,该设计需要针对特定硬件进行验证。作为参考,微软内部的测试表明,对于256个iSCSI 引导设备的环境中,需要用24 块15,000-RPM (每分钟转数)的硬盘使用RAID 10 配置才能满足存储的需求。如果能提供10 GB 网络带宽则效果更为理想。一般估计,每1GB 网络适配器带宽可支持60 个iSCSI 引导服务器。然而该场景并不要求具备支持iSCSI 引导的网络适配器。如果网络适配器不支持iSCSI 引导,那么可以使用软件引导加载程序(例如iPXE 开源引导固件或Double-Take Software 的netBoot/i)。
    通过使用支持无盘功能的网络适配器,或软件加载程序,您可以部署上百台无盘服务器。如果使用Windows iSCSI Software Target Server,部署速度更快,而且节约操作系统的存储成本,显然,这是实现网络引导、部署无盘服务器群集的不错方案。






零接触式云数据中心架构Windows Server 2012实现iSCSI SAN无盘引导
2012-10-30 18:27:26
标签:Windows Server 2012 Windows iSCSI 存储 无盘引导
原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。http://3387405.blog.51cto.com/3377405/1043616
前言
金融危机带来的经济萎缩促使企业经济进入一个新的时代,促使整个IT行业都进入了一个要求提高效率并控制成本的时期。 对于IT企业来说,预算没有增加甚至还会略减,但是支持24小时x7天全天候运营、满足数据量增长、数据保护和恢复的诉求从来也没有改变。
因此一种新型的灵活的,可池化的,可快速横向扩展的,零接触式的标准化“云数据中心”逐渐成为了各个企业和公司所关注的焦点,过去计算负载均衡的HPC计算模式随着虚拟化技术的推波助澜也逐步被企业广泛的采纳和接受,当无状态的虚拟化层向HPC的MPI一样可以被灵活调用的时候,企业数据中心的“去UNIX化”,“X86结构化“,”虚拟化”甚至“云化”等进程也相继开始有序的进入优雅的节奏。
为传统数据中心所熟知的基于光纤通道构造的SAN环境一直服务于运行UNIX小型机系统中,而随着iSCSI存储协议的出现,利用通用的TCP/IP的通用性,随着万兆以太网络的推波助澜,DCB无损融合汇聚网络,iSCSI协议卸载卡的相继出现,越来越多的Windows应用程序被视为任务关键型应用程序,iSCSI已经成为大型企业和中小型企业中的一个流行的集中存储并不损失高可用性的SAN解决方案。
 
image
 
从Windows Server 2012开始不再像Windows Server 2008 R2需要存储服务器,自身就可以提供iSCSI 目标服务Ver. 3.3和iSCSI的初始化程序,关于Windows Server 2012的iSCSI目标服务内容也很多,有时间我会在博客里介绍。
image
 
另外虽然Windows Server 2012可以支持VHDX虚拟磁盘格式,但在iSCSI ver3.3中还是只支持VHD, 当然对于本文来说,一个自动化部署或无盘引导的环境VHD格式的虚拟磁盘已经够用了
image
采用iSCSI SAN网络无盘引导的好处
简单来说,基于iSCSI SAN的无盘引导方式是把数据中心的服务器视为计算节点,将操作系统从本地转移到了集中管理的iSCSI存储端(当然这个存储端可以是由Windows Server 2012或2008 R2 Storage服务器构建的,也可以是由iSCSI存储硬件或第三方iSCSI存储软件例如IPStor,StarWind等提供的)的虚拟磁盘映像文件上,像从本地引导一个操作系统或安装介质一样从iSCSI连接的存储映像上启动系统,要知道首先利用虚拟磁盘格式封装的操作系统可以包含应用,预配置的角色如Hyper-V服务相关驱动等,这样的结构让每一个节点变成了“无状态”的虚拟节点,你可以简单的在系统层平移你的计算资源只要你可以在其他网络可达的节点上启动,如此以来数据中心部署变得异常的灵活,因此也是SAN 无盘引导结合虚拟化或HPC解决方案的魅力所在,iSCSI SAN引导的其他好处还有很多,如:
快速部署:
因为黄金映像是系统准备的操作系统映像,所以当计算机启动黄金映像时,它们会跳过文件复制和安装阶段,直接进入自定义阶段。 测试中,我们在 34 分钟可以部署256 个系统,或者可以在5分钟左右引导250个系统节点。
快速恢复:
因为操作系统镜像位于 iSCSI Software Target 服务器上,所以如果需要替换无盘客户端,新机器可以指向操作系统映像,并立即启动。
在操作系统存储方面能节省成本:
通过使用差异虚拟磁盘,您可以使用单个操作系统镜像来启动多个无盘计算机。 当启动镜像使用差异虚拟磁盘时,这种功能有很多好处,包括减少了管理开销和节省了存储成本。
使操作系统映像更安全、更易于管理:
某些业务会要求通过物理锁定存储在某个中心位置来保证数据的安全。 在这种情况下,运行工作负载的服务器会远程访问数据,包括操作系统映像数据。 借助于 iSCSI Software Target 启动,IT 管理员可以集中管理操作系统启动映像,并控制放入黄金映像的应用程序。
image
 
实现iSCSI无盘引导部署流程
image
 
部署阶段主要包括了:
在计算节点上启用裸金属引导功能,包括:
准备Windows  Server 2012黄金映像VHD文件(封装了特定应用,驱动,角色和服务的WS2012的VHD系统映像)
你有两种方式可以选择:
1. 标准方式
? 在配置好iSCSI连接的第一台主机上安装系统,安装相应驱动和组件及应用  (参考本文后面关于设置软硬件iSCSI 预启动环境引导的部分)
? 通过sysprep回到开箱即用的状态:Sysprep /oobe /generalize
2. 快速方式 这种方式适合测试或POC提供一个简单的
1. 通过Powershell 创建VHD (为了创建iSCSI引导的系统启动盘映像,必须创建非动态的VHD文件,既不能通过-dynamic参数创建精简部署格式)
new-vhd –path ws2012boot.vhd –sizebyte 40GB
2. Imagex检查需要部署的Windows Server2012 映像的编号 (需要在系统上安装WAIK 8.0 for windows Server 2012)
imagex /info install.wim
3. 挂载 vhd映像分区格式化后激活分区
4.  通过Imagex封装Windows Server 2012的WIM文件
imagex /apply install.wim 4 {vhdx mount point}
5. 通过Dism 添加驱动等 commit {省略}
6. 用bcdboot封装bootmgr启动信息
Bcdboot {vhd mount point}\Windows /s {vhdx mount point} /v
 
接下来可以通过new-vhd通过基础映像VHD针对不同系统创建相应的差分VHD磁盘。
new-vhd -ParentPath ws2012boot.vhd -Path ws2012boot_diff1.vhd -Differencing
将该差异系统磁盘映像分配iSCSI目标给相应的客户端。
image
当然如果你针对大型数据中心的不同系统制作了多个差异磁盘这里要统一进行分配,照方抓药即可。
 
引导阶段有两种方式:
1. 通过设置支持软硬件iSCSI SAN引导的选项引导。
针对于物理硬件需要通过支持iSCSI引导的网卡或HBA卡,在BIOS中设置 iSCSI 目标的 IQN, iSCSI 目标的 IP 地址和验证(如果在目标端设置)
2. 通过设置支持 iSCSI引导的软件实现,该软件包含了启动iSCSI所需的bootstrap程序,例如常见的gPXE或iPXE软件等。
本文出自 “云中漫步的老猫” 博客,请务必保留此出处http://3387405.blog.51cto.com/3377405/1043616






 共享存储之ISCSI 2013-11-06 10:52:56
分类: Linux
1 简介
2 磁盘分区
3 ISCSITARGET安装和配置
4 ISCSI-INITIATOR安装


1 简介
1. iSCSI 技术
     多年以来,光纤通道存储区域网 (FC SAN) 是构建基于网络的存储解决方案所使用的唯一技术。基于以前的一组 ANSI 协议(称为光纤分布式数据接口 (FDDI)),开发了光纤通道以在存储网络上移动SCSI命令。
     FC SAN 的优势包括提高了性能、磁盘利用率、可用性以及可伸缩性等,但最重要的是支持服务器集群!但是,FC SAN 现在仍受三个主要缺点的限制。首先是价格。尽管构建 FC SAN 的成本在近几年有所下降,但进入成本对于 IT 预算有限的小公司来说仍然是高的惊人。第二个缺点是硬件组件不兼容。采用 FC SAN 之后,许多产品制造商对光纤通道规范的解释各不相同,从而导致许多互连问题。如果从公共制造商购买光纤通道组件,这通常不是一个问题。第三个缺点是光纤通道网络不是以太网!它需要一种不同的网络技术,并要求数据中心人员具备另外一组技能。
     随着千兆位以太网的普及以及对降低成本的需要,基于 iSCSI 的存储系统逐渐成为光纤通道的有力竞争对手。现在,iSCSI SAN 仍然是 FC SAN 的最大竞争者。
     2003年2月11日,经过Internet工程任务组 (IETF) 的批准,Internet小型计算机系统接口(一般称为 iSCSI)成为一个基于 Internet 协议 (IP) 的存储网络标准,用于建立和管理基于 IP 的存储设备、主机和客户端之间的连接。iSCSI 是 SCSI-3 规范框架中定义的数据传输协议,它与光纤通道的类似之处在于它也负责在存储网络上运送块级数据。块级通信意味着数据以“块”的形式在主机和客户端之间传输。数据库服务器依赖此类通讯(而不是大多数 NAS 系统使用的文件级通讯)来工作。与 FC SAN 一样,iSCSI SAN 是一个专用于存储的单独物理网络,但其组件与典型 IP 网络 (LAN) 中的组件基本相同。
     尽管iSCSI拥有光明的前景,但早期的批评很快指出了其在性能方面的内在不足。iSCSI 的优势是能够利用大家熟悉的 IP 网络作为传输机制。但是,TCP/IP 协议非常复杂并且占用过多的 CPU 资源。而使用iSCSI,大部分对数据进行的处理(TCP 和 iSCSI)都由软件执行,比完全通过硬件处理的光纤通道慢得多。将每个 SCSI 命令映射到等价 iSCSI 事务所带来的开销过大。对许多公司来说,解决方案是取消 iSCSI 软件启动器,投资能够从服务器 CPU 中卸载 TCP/IP 和 iSCSI 处理的专用卡。这些专用卡有时称为 iSCSI 主机总线适配器 (HBA)或 TCP 卸载引擎 (TOE) 卡。还要考虑到目前 10 Gb 以太网是主流!
    与其他新技术一样,iSCSI 具有一组自己的缩略语和术语。对于本文来说,用户只需要了解 iSCSI 启动器与 iSCSI 目标之间的区别即可。


2. iSCSI 启动器
    从本质上说,iSCSI 启动器是一个客户端设备,它连接到服务器(在本例中是 iSCSI 目标)提供的某一服务,并发起对该服务的请求。iSCSI 启动器软件需要安装在每个 Oracle RAC 节点(racnode1 和 racnode2)上。
    iSCSI 启动器可以用软件实现,也可以用硬件实现。软件 iSCSI 启动器可用于大部分主要操作系统平台。对于本文,我们将使用 iscsi-initiator-utils RPM 中提供的免费 Linux Open-iSCSI 软件驱动程序。iSCSI 软件启动器通常与标准网络接口卡 (NIC)(大多数情况下是千兆位以太网卡)配合使用。硬件启动器是一个 iSCSI HBA(或 TCP 卸载引擎 (TOE) 卡),它本质上只是一个专用以太网卡,其上的 SCSI ASIC 可以从系统 CPU 内卸载所有工作(TCP 和 SCSI 命令)。iSCSI HBA 可以从许多供应商处购买,包括 Adaptec、Alacritech、Intel 和 QLogic。


3. iSCSI 目标
    iSCSI 目标是 iSCSI 网络的“服务器”组件。它通常是一个存储设备,包含您所需的信息并响应来自(一个或多个)启动器的请求。对于本文,节点 openfiler1 将是 iSCSI 目标。
    因此,根据有关 iSCSI 的所有这些讨论,是否意味着光纤通道很快就会消失?可能不会。多年以来,光纤通道凭借其极快的速度、灵活性和强健的可靠性,为自己的能力提供了有力的证明。对高性能存储、大型复杂连接以及任务关键可靠性有严格要求的客户将毫不犹豫地继续选择光纤通道。


2 磁盘分区
准备一个空磁盘,我这里是一台双硬盘的机器,IP地址为192.168.3.84,两块硬盘都是300GB,其中一块装OS,另一块作共享磁盘使用。
[root@sharestorage_priv ~]# fdisk -l


Disk /dev/sda: 300.0 GB, 300000000000 bytes
255 heads, 63 sectors/track, 36472 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes


   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          13      104391   83  Linux
/dev/sda2              14       36472   292856917+  8e  Linux LVM


Disk /dev/sdb: 300.0 GB, 300000000000 bytes
255 heads, 63 sectors/track, 36472 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes


   Device Boot      Start         End      Blocks   Id  System
[root@sharestorage_priv ~]#
从fdisk显示可以看出sdb是没有使用的磁盘,我就在该磁盘上划分分区
[root@sharestorage_priv ~]# fdisk /dev/sdb


The number of cylinders for this disk is set to 36472.
There is nothing wrong with that, but this is larger than 1024,
and could in certain setups cause problems with:
1) software that runs at boot time (e.g., old versions of LILO)
2) booting and partitioning software from other OSs
   (e.g., DOS FDISK, OS/2 FDISK)


Command (m for help): p


Disk /dev/sdb: 300.0 GB, 300000000000 bytes
255 heads, 63 sectors/track, 36472 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes


   Device Boot      Start         End      Blocks   Id  System


Command (m for help): n
Command action
   e   extended
   p   primary partition (1-4)
p
Partition number (1-4): 1
First cylinder (1-36472, default 1):
Using default value 1
Last cylinder or +size or +sizeM or +sizeK (1-36472, default 36472): +500M


Command (m for help): p


Disk /dev/sdb: 300.0 GB, 300000000000 bytes
255 heads, 63 sectors/track, 36472 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes


   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1          62      497983+  83  Linux
Command (m for help): n
Command action
   e   extended
   p   primary partition (1-4)
p
Partition number (1-4): 2
First cylinder (63-36472, default 63):
Using default value 63
Last cylinder or +size or +sizeM or +sizeK (63-36472, default 36472): +50000M


Command (m for help): p


Disk /dev/sdb: 300.0 GB, 300000000000 bytes
255 heads, 63 sectors/track, 36472 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes


   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1          62      497983+  83  Linux
/dev/sdb2              63        6142    48837600   83  Linux


Command (m for help): n
Command action
   e   extended
   p   primary partition (1-4)
p
Partition number (1-4): 3
First cylinder (6143-36472, default 6143):
Using default value 6143
Last cylinder or +size or +sizeM or +sizeK (6143-36472, default 36472): +50000M


Command (m for help): p


Disk /dev/sdb: 300.0 GB, 300000000000 bytes
255 heads, 63 sectors/track, 36472 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes


   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1          62      497983+  83  Linux
/dev/sdb2              63        6142    48837600   83  Linux
/dev/sdb3            6143       12222    48837600   83  Linux


Command (m for help): w
The partition table has been altered!


Calling ioctl() to re-read partition table.


WARNING: Re-reading the partition table failed with error 16: Device or resource busy.
The kernel still uses the old table.
The new table will be used at the next reboot.
Syncing disks.
[root@sharestorage_priv ~]#
再次fdisk看一下
[root@sharestorage_priv ~]# fdisk -l


Disk /dev/sda: 300.0 GB, 300000000000 bytes
255 heads, 63 sectors/track, 36472 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes


   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          13      104391   83  Linux
/dev/sda2              14       36472   292856917+  8e  Linux LVM


Disk /dev/sdb: 300.0 GB, 300000000000 bytes
255 heads, 63 sectors/track, 36472 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes


   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1               1          62      497983+  83  Linux
/dev/sdb2              63        6142    48837600   83  Linux
/dev/sdb3            6143       12222    48837600   83  Linux
显示创建了三个分区,分别是sdb1 500MB,sdb2 50GB,sdb3 50GB。
3 iscsitarget安装和配置(server)
1. 所需软件
iscsitarget-1.4.20.1.tar.gz
2. 软件下载
在开源软件网站上可以下载到iscsitarget源码包
wget
3. 安装
tar zxvf iscsitarget-1.4.20.1.tar.gz
cd iscsitarget-1.4.20.1
make
make install
安装后会在/etc下生成iet目录,iscsitarget的主要配置文件就在该目录下
[root@sharestorage_priv iet]# tree /etc/iet/
/etc/iet/
|-- ietd.conf
|-- ietd.conf.original
|-- initiators.allow
|-- targets.allow
`-- targets.allow.origianl


0 directories, 5 files
[root@sharestorage_priv iet]#
ietd.conf里有很多注释项,我将ietd.conf copy一份取名为ietd.conf.original,targets.allow copy一份取名为targets.allow.original以备参考。
4. 配置
[root@sharestorage_priv iet]# cat /etc/iet/ietd.conf
Target iqn.2001-04.com.sharestorage:racdb.crs1
Lun 0 Path=/dev/sdb1,Type=blockio


Target iqn.2001-04.com.sharestorage:racdb.data1
Lun 0 Path=/dev/sdb2,Type=blockio


Target iqn.2001-04.com.sharestorage:racdb.fra1
Lun 0 Path=/dev/sdb3,Type=blockio
[root@sharestorage_priv iet]#
只允许192.168.3.0网段的客户发现登录iscsi服务
[root@sharestorage_priv iet]# cat /etc/iet/targets.allow
ALL 192.168.3.0/24
[root@sharestorage_priv iet]#
启动iscsi-target
[root@sharestorage_priv iet]# /etc/init.d/iscsi-target start
Starting iSCSI Target:                                     [  OK  ]
[root@sharestorage_priv iet]#
到此为止,iscsi-target就配置完毕,现在iscsi-initiator就可以发现并登陆到iscsi-target。
4 iscsi-initiator安装(client)
iscsi-initiator的软件包在REDHAT安装光盘中,确定iscsi-initiator-utils是否已经安装
rpm -qa|grep iscsi-initiator-utils
如果iscsi-initiator-utils软件包没安装,用下面的命令安装
rpm -Uvh iscsi-initiator-utils-*
启动iscsid服务,并使其在系统引导时自动启动,还将配置iscsi服务在系统引导时自动启动。
service iscsid start
chkconfig iscsid on
chkconfig iscsi on
发现网络存储服务器上的所有可用目标,存储服务器的ip在本文开头提到192.168.3.84。
[root@rac1 ~]# iscsiadm -m discovery -t sendtargets -p 192.168.3.84
192.168.3.84:3260,1 iqn.2001-04.com.sharestorage:racdb.fra1
192.168.3.84:3260,1 iqn.2001-04.com.sharestorage:racdb.data1
192.168.3.84:3260,1 iqn.2001-04.com.sharestorage:racdb.crs1
[root@rac1 ~]#
1. 手动登录到iscsi目标
[root@rac1 ~]# iscsiadm -m node -T iqn.2001-04.com.sharestorage:racdb.fra1 -p 192.168.3.84 -l
Logging in to [iface: default, target: iqn.2001-04.com.sharestorage:racdb.fra1, portal: 192.168.3.84,3260]
Login to [iface: default, target: iqn.2001-04.com.sharestorage:racdb.fra1, portal: 192.168.3.84,3260] successful.
[root@rac1 ~]# iscsiadm -m node -T iqn.2001-04.com.sharestorage:racdb.data1 -p 192.168.3.84 -l
Logging in to [iface: default, target: iqn.2001-04.com.sharestorage:racdb.data1, portal: 192.168.3.84,3260]
Login to [iface: default, target: iqn.2001-04.com.sharestorage:racdb.data1, portal: 192.168.3.84,3260] successful.
[root@rac1 ~]# iscsiadm -m node -T iqn.2001-04.com.sharestorage:racdb.crs1 -p 192.168.3.84 -l
Logging in to [iface: default, target: iqn.2001-04.com.sharestorage:racdb.crs1, portal: 192.168.3.84,3260]
Login to [iface: default, target: iqn.2001-04.com.sharestorage:racdb.crs1, portal: 192.168.3.84,3260] successful.
[root@rac1 ~]#
2. 配置自动登录
[root@rac1 ~]# iscsiadm -m node -T iqn.2001-04.com.sharestorage:racdb.crs1 -p 192.168.3.84 --op update -n node.startup -v automatic
[root@rac1 ~]# iscsiadm -m node -T iqn.2001-04.com.sharestorage:racdb.data1 -p 192.168.3.84 --op update -n node.startup -v automatic
[root@rac1 ~]# iscsiadm -m node -T iqn.2001-04.com.sharestorage:racdb.fra1 -p 192.168.3.84 --op update -n node.startup -v automatic










阅读(4107) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~