Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1939678
  • 博文数量: 1000
  • 博客积分: 0
  • 博客等级: 民兵
  • 技术积分: 7921
  • 用 户 组: 普通用户
  • 注册时间: 2013-08-20 09:23
个人简介

storage R&D guy.

文章分类

全部博文(1000)

文章存档

2019年(5)

2017年(47)

2016年(38)

2015年(539)

2014年(193)

2013年(178)

分类: 服务器与存储

2015-06-22 23:20:42

http://shiyanjun.cn/archives/846.html
我们知道,Namenode启动时可以指定不同的选项,当指定-format选项时,就是格式化Namenode,可以在Namenode类中看到格式化的方法,方法签名如下所示:

1 private static boolean format(Configuration conf,
2       boolean isConfirmationNeeded, boolean isInteractive) throws IOException

在该方法中,首先调用FSNamesystem类的方法,获取到待格式化的name目录和edit目录:

1 Collection editDirsToFormat = Collection dirsToFormat = FSNamesystem.getNamespaceDirs(conf);
2 FSNamesystem.getNamespaceEditsDirs(conf);

跟踪调用FSNamesystem类的方法,可以看到,实际上获取到的目录为:

  • name目录:是根据配置的dfs.name.dir属性,如果没有配置,默认使用目录/tmp/hadoop/dfs/name。
  • edit目录:是根据配置的dfs.name.edits.dir属性,如果没有配置,默认使用目录/tmp/hadoop/dfs/name。

在上面format方法中,创建对应的name目录和edit目录,对应如下代码行:

1 FSNamesystem nsys = new FSNamesystem(new FSImage(dirsToFormat, editDirsToFormat), conf);

实际上是调用FSImage对象的format方法格式化HDFS文件系统,调用代码如下所示:

1 nsys.dir.fsImage.format();

下面,对上面提到的关键操作进行详细说明:

FSImage对象初始化

从上面用到的FSImage的构造方法,我们可以看到,在创建Namenode的目录对象时,主要是按照name和edit目录分别进行处理的:对于name目录,对应的存储目录类型可能是IMAGE或者IMAGE_AND_EDITS,当配置的name目录和edit目录相同时,类型为IMAGE_AND_EDITS,不同时类型为IMAGE;对于edit目录,类型就是EDITS。
name和edit目录实际上就是FSImage对象所包含的内容,这个FSImage对象包含一个StorageDirectory对象列表,而FSImage继承自抽象类org.apache.hadoop.hdfs.server.common.Storage,在该抽象类中定义如下所示:

1 protected List storageDirs = new ArrayList();

这个列表中每个存储目录包含如下信息,如下Storage.StorageDirectory类图所示:
StorageDirectory
从类图中可以看到,主要包含如下三个信息:

  • root:配置的根目录路径
  • lock:一个FileLock文件锁对象,控制root下的写操作
  • dirType:表示StorageDirectory对象所使用目录的类型

一个dirType,它是Storage.StorageDirType类型的,Storage.StorageDirType是一个接口,定义如下所示:

1 public interface StorageDirType {
2   public StorageDirType getStorageDirType();
3   public boolean isOfType(StorageDirType type);
4 }

那么,对于Namenode节点的目录的Storage.StorageDirectory对象,它对应的dirType的定义,是实现了Storage.StorageDirType接口的枚举类,定义如下所示:FSImage.NameNodeDirType

01 static enum NameNodeDirType implements StorageDirType {
02   UNDEFINED,
03   IMAGE,
04   EDITS,
05   IMAGE_AND_EDITS;
06   
07   public StorageDirType getStorageDirType() {
08     return this;
09   }
10   
11   public boolean isOfType(StorageDirType type) {
12     if ((this == IMAGE_AND_EDITS) && (type == IMAGE || type == EDITS))
13       return true;
14     return this == type;
15   }
16 }

上述枚举类中定义的dirType恰好是前面我们提到的FSImage对象,所包含的实际Storage.StorageDirectory对象的类型,初始化FSImage对象时,就是确定了FSImage对象所包含的Storage.StorageDirectory对象列表及其它们的类型信息。

FSNamesystem对象初始化

FSNamesystem是个非常关键的类,它用来保存与Datanode相关的一些信息,如Block到Datanode的映射信息、StorageID到Datanode的映射信息等等。
前面调用的FSNamesystem的构造方法,如下所示:

1 FSNamesystem(FSImage fsImage, Configuration conf) throws IOException {
2   setConfigurationParameters(conf);
3   this.dir = new FSDirectory(fsImage, this, conf);
4   dtSecretManager = createDelegationTokenSecretManager(conf);
5 }

初始化主要包括如下信息:

  1. 方法setConfigurationParameters根据传递的conf对象来设置FSNamesystem使用的一些参数值;
  2. 创建一个FSDirectory对象dir,该对象包含了一组用来维护Hadoop文件系统目录状态的操作,专门用来控制对目录的实际操作,如写操作、加载操作等,同时,它能够保持“文件->Block列表”的映射始终是最新的状态,并将变更记录到日志。
  3. 创建了一个DelegationTokenSecretManager对象,用来管理HDFS的安全访问。

在FSNamesystem中,创建的FSDirectory对象dir,是整个HDFS文件系统的根目录。对应的FSDirectory dir内部有一个inode表示,它是带配额的INodeDirectoryWithQuota rootDir,详细可见下面分析。

FSDirectory对象初始化

FSDirectory对象是很关键的,该类内部定义了如下字段:

1 final FSNamesystem namesystem;
2 final INodeDirectoryWithQuota rootDir;
3 FSImage fsImage;
4 private boolean ready = false;
5 private final int lsLimit;  // max list limit
6 private final NameCache nameCache;

其中,rootDir表示一个带有配额限制的inode对象。下面我们看一下FSDirectory的构造方法:

01 FSDirectory(FSImage fsImage, FSNamesystem ns, Configuration conf) {
02   rootDir = new INodeDirectoryWithQuota(INodeDirectory.ROOT_NAME,
03       ns.createFsOwnerPermissions(new FsPermission((short)0755)), Integer.MAX_VALUE, -1);
04   this.fsImage = fsImage;
05   fsImage.setRestoreRemovedDirs(conf.getBoolean(DFSConfigKeys.DFS_NAMENODE_NAME_DIR_RESTORE_KEY,
06       DFSConfigKeys.DFS_NAMENODE_NAME_DIR_RESTORE_DEFAULT));
07   fsImage.setEditsTolerationLength(conf.getInt(DFSConfigKeys.DFS_NAMENODE_EDITS_TOLERATION_LENGTH_KEY,
08       DFSConfigKeys.DFS_NAMENODE_EDITS_TOLERATION_LENGTH_DEFAULT));
09  
10   namesystem = ns;
11   int configuredLimit = conf.getInt(DFSConfigKeys.DFS_LIST_LIMIT, DFSConfigKeys.DFS_LIST_LIMIT_DEFAULT);
12   this.lsLimit = configuredLimit>0 ?
13       configuredLimit : DFSConfigKeys.DFS_LIST_LIMIT_DEFAULT;
14   
15   int threshold = conf.getInt(DFSConfigKeys.DFS_NAMENODE_NAME_CACHE_THRESHOLD_KEY,
16       DFSConfigKeys.DFS_NAMENODE_NAME_CACHE_THRESHOLD_DEFAULT);
17   NameNode.LOG.info("Caching file names occuring more than " + threshold + " times ");
18   nameCache = new NameCache(threshold);
19  
20 }

这里创建了一个rootDir对象,如果我们调试跟踪该处代码,用户名为shirdrn,它的值可以表示如下:

1 "":shirdrn:supergroup:rwxr-xr-x

可见,对于FSNamesystem对象所维护的namespace中,inode对象包含目录名称、所属用户、所属用户组、操作权限信息。
上面构造方法中初始化了一个NameCache缓存对象,用来缓存经常用到的文件,这里提供了一个threshold值,默认为10。也就是如果当一个文件被访问的次数超过threshold指定的值,就会将该文件名称放进NameCache缓存中,实际上是该文件名称的字节码的ByteArray表示形式作为Key,它唯一表示了一个文件的inode节点。在NameCache内部,实际是将放到了其内部的HashMap集合中,Key是文件名称的ByteArray表示形式,Value封装了文件被访问的计数信息。

格式化HDFS

调用FSImage对象的format方法,该方法实现代码,如下所示:

01 public void format() throws IOException {
02   this.layoutVersion = FSConstants.LAYOUT_VERSION;
03   this.namespaceID = newNamespaceID();
04   this.cTime = 0L;
05   this.checkpointTime = FSNamesystem.now();
06   for (Iterator it = dirIterator(); it.hasNext();) {
07     StorageDirectory sd = it.next();
08     format(sd);
09   }
10 }

根据上面代码逻辑,详细说明如下:

  • layoutVersion

layoutVersion定义了HDFS持久化数据结构的版本号,它的值是负值。当HDFS的持久化数据结构发生了变化,如增加了一些其他的操作或者字段信息,则版本号会在原来的基础上减1。Hadoop 1.2.1版本中,layoutVersion的值是-41,它与Hadoop的发行版本号是两回事,如果layoutVersion的值变化了(通过减1变化,实际layoutVersion的值更小了),则如果能够读取原来旧版本的数据,必须执行一个升级(Upgrade)过程。layoutVersion主要在fsimage和edit日志文件、数据存储文件中使用。

  • namespaceID

namespaceID唯一标识了HDFS,在格式化HDFS的时候指定了它的值。在HDFS集群启动以后,使用namespaceID来识别集群中的Datanode节点,也就是说,在HDFS集群启动的时候,各个Datanode会自动向Namenode注册获取到namespaceID的值,然后在该值存储在Datanode节点的VERSION文件中。

  • cTime

cTime表示Namenode存储对象(即FSImage对象)创建的时间,但是在初始化时它的值为0。如果由于layoutVersion发生变化触发了一次升级过程,则会更新该事件字段的值。

  • checkpointTime

checkpointTime用来控制检查点(Checkpoint)的执行,为了在集群中获取到同步的时间,使用通过调用FSNamesystem对象的的now方法来生成时间戳。Hadoop使用检查点技术来实现Namenode存储数据的可靠性,如果因为Namenode节点宕机而无法恢复数据,则整个集群将无法工作。

  • 格式化StorageDirectory对象

我们知道,每一个Storage对象都包含一个StorageDirectory列表,FSImage就是Namenode用来存储数据的对象的实现,上面代码中通过for循环分别格式化每一个StorageDirectory对象,对应的format方法代码,如下所示:

01 void format(StorageDirectory sd) throws IOException {
02   sd.clearDirectory(); // create currrent dir
03   sd.lock();
04   try {
05     saveCurrent(sd);
06   } finally {
07     sd.unlock();
08   }
09   LOG.info("Storage directory " + sd.getRoot() + " has been successfully formatted.");
10 }

上面调用sd.lock()会创建一个${dfs.name.dir}/in_use.lock锁文件,用来保证当前只有同一个进程能够执行格式化操作。格式化的关键逻辑,都在saveCurrent方法中,代码如下所示:

01 protected void saveCurrent(StorageDirectory sd) throws IOException {
02   File curDir = sd.getCurrentDir();
03   NameNodeDirType dirType = (NameNodeDirType)sd.getStorageDirType();
04   // save new image or new edits
05   if (!curDir.exists() && !curDir.mkdir())
06     throw new IOException("Cannot create directory " + curDir);
07   if (dirType.isOfType(NameNodeDirType.IMAGE))
08     saveFSImage(getImageFile(sd, NameNodeFile.IMAGE));
09   if (dirType.isOfType(NameNodeDirType.EDITS))
10     editLog.createEditLogFile(getImageFile(sd, NameNodeFile.EDITS));
11   // write version and time files
12   sd.write();
13 }

每一个StorageDirectory对象代表一个存储目录的抽象,包含root、lock、和dirType三个属性,在格式化过程中,如果已经存在则要首先删除,然后创建对应的目录。该目录实际的绝对路径为:

1 ${dfs.name.dir}/current/

指定了根目录,就要创建对应的文件,这里面会生成文件fsimage、edits两个重要的文件,我们分别详细说明这两个文件中保存的内容:

  • 初始化fsimage文件数据

对应代码行如下:

1 if (dirType.isOfType(NameNodeDirType.IMAGE))
2   saveFSImage(getImageFile(sd, NameNodeFile.IMAGE));

如果StorageDirectory对象的dirType为IMAGE,则会在上面的current目录下创建一个文件:

1 ${dfs.name.dir}/current/fsimage

可以通过saveFSImage方法看到,主要执行的操作,将数据存储到fsimage文件中,代码如下所示:

01 try {
02   out.writeInt(FSConstants.LAYOUT_VERSION);
03   out.writeInt(namespaceID);
04   out.writeLong(fsDir.rootDir.numItemsInTree());
05   out.writeLong(fsNamesys.getGenerationStamp());
06   byte[] byteStore = new byte[4*FSConstants.MAX_PATH_LENGTH];
07   ByteBuffer strbuf = ByteBuffer.wrap(byteStore);
08   // save the root
09   saveINode2Image(strbuf, fsDir.rootDir, out);
10   // save the rest of the nodes
11   saveImage(strbuf, 0, fsDir.rootDir, out);
12   fsNamesys.saveFilesUnderConstruction(out);
13   fsNamesys.saveSecretManagerState(out);
14   strbuf = null;
15 } finally {
16   out.close();
17 }

首先,保存了文件系统的一些基本信息,如下表所示:

序号 字段 类型 说明
1 layoutVersion int -47,Hadoop-1.2.1对应的layoutVersion=-41
2 namespaceID int 标识HDFS的namespaceID
3 numItemsInTree long 1,当前只有文件系统root目录,对应于nsCount的值(Namespace Count)
4 generationStamp long FSNamesystem文件系统生成的时间戳

其次,调用saveINode2Image方法中,保存了文件系统的root目录名称、长度,以及inode信息,如下表所示:

序号 字段 类型 说明
1 nameLen short 0,文件系统的root目录名为””,长度为0
2 name byte[] 文件系统的root目录名的字节数组,实际上一个空字节数组
3 replication short 0
4 modificationTime long root目录inode修改时间
5 accessTime long 0
6 preferredBlockSize long 0
7 blocks int -1
8 nsQuota long 2147483647,即Integer.MAX_VALUE
9 dsQuota long -1
10 username String 用户名
11 groupname String 用户组名
12 permission short 493,可以跟踪代码计算得到

然后,调用saveImage方法,保存了从root目录开始的剩余其他目录节点的信息。saveImage方法是一个递归方法,它能够根据给定的root目录来保存该目录下所有目录或文件的信息。我们知道,到目前为止,只是创建一个文件系统的root目录,并没有对应的孩子inode节点,所以这一步实际上没有存储任何inode信息。
接着,fsNamesys.saveFilesUnderConstruction(out)保存root目录的租约信息(Lease),代码如下所示:

01 void saveFilesUnderConstruction(DataOutputStream out) throws IOException {
02   synchronized (leaseManager) {
03     out.writeInt(leaseManager.countPath()); // write the size
04  
05     for (Lease lease : leaseManager.getSortedLeases()) {
06       for(String path : lease.getPaths()) {
07         // verify that path exists in namespace
08         INode node = dir.getFileINode(path);
09         if (node == null) {
10           throw new IOException("saveLeases found path " + path + " but no matching entry in namespace.");
11         }
12         if (!node.isUnderConstruction()) {
13           throw new IOException("saveLeases found path " + path + " but is not under construction.");
14         }
15         INodeFileUnderConstruction cons = (INodeFileUnderConstruction) node;
16         FSImage.writeINodeUnderConstruction(out, cons, path);
17       }
18     }
19   }
20 }

这里,leaseManager.countPath()的值为0,此时还没有任何文件的租约信息,所以for循环没有执行,此处只是写入了一个0值,表示leaseManager对象所管理的path的数量为0,如下表所示:

序号 字段 类型 说明
1 countPath int 0,leaseManager管理的path总数

调用fsNamesys.saveSecretManagerState(out)保存SecretManager的状态信息,跟踪代码可以看到在DelegationTokenSecretManager类中的saveSecretManagerState,如下所示:

1 public synchronized void saveSecretManagerState(DataOutputStream out) throws IOException {
2   out.writeInt(currentId);
3   saveAllKeys(out);
4   out.writeInt(delegationTokenSequenceNumber);
5   saveCurrentTokens(out);
6 }

顺序写入的字段数据,如下表所示:

序号 字段 类型 说明
1 currentId int 0
2 allKeySize int 0,所有的DelegationKey数量。(如不为0,后面会序列化每个DelegationKey对象)
3 delegationTokenSequenceNumber int 0
4 currentTokens int 0,所有DelegationTokenInformation数量。(如不为0,后面会序列化每个)DelegationTokenInformation对象)

上面的内容,都是fsimage文件保存的数据内容。

  • 初始化edits文件数据

对应代码行如下所示:

1 if (dirType.isOfType(NameNodeDirType.EDITS))
2   editLog.createEditLogFile(getImageFile(sd, NameNodeFile.EDITS));

首先获取到edits文件名称,亦即文件:

1 ${dfs.name.dir}/current/edits

然后调用editLog对象的createEditLogFile方法真正创建该文件,方法实现如下所示:

1 public synchronized void createEditLogFile(File name) throws IOException {
2   EditLogOutputStream eStream = new EditLogFileOutputStream(name);
3   eStream.create();
4   eStream.close();
5 }

创建了一个流对象EditLogOutputStream eStream,并初始化一些基本信息以用来操作edits文件,通过create方法可以很清楚地看到,如下所示:

1 @Override
2 void create() throws IOException {
3   fc.truncate(0);
4   fc.position(0);
5   bufCurrent.writeInt(FSConstants.LAYOUT_VERSION);
6   setReadyToFlush();
7   flush();
8 }

序列化写入了layoutVersion的值,这里是-41。
在EditLogOutputStream内部维护了2个buffer,一个是bufCurrent,另一个是bufReady,当有数据要写入时首先写入bufCurrent,然后将bufCurrent与bufReady交换,这时bufCurrent空闲了,可以继续写入新的数据,而bufReady中的数据会在调用flush()方法时被持久化写入到edits文件中。其中,上面的setReadyToFlush()方法就是用来交换2个buffer的。flush()方法调用了FSEditLog类的flushAndSync()方法最终写入到文件中,可以简单看一下对应的代码实现:

1 @Override
2 protected void flushAndSync() throws IOException {
3   preallocate();            // preallocate file if necessary
4   bufReady.writeTo(fp);     // write data to file
5   bufReady.reset();         // erase all data in the buffer
6   fc.force(false);          // metadata updates not needed because of preallocation
7 }

这样,edits文件已经完成初始化。

  • 初始化VERSION文件数据

上面sd.write()完成了VERSION文件的初始化,实现代码在Storage.StorageDirectory.write()方法中,代码如下所示:

1 public void write() throws IOException {
2   corruptPreUpgradeStorage(root);
3   write(getVersionFile());
4 }

调用corruptPreUpgradeStorage方法检查是否是HDFS需要升级,如果需要升级,格式化过程失败(此时如果遗留的image目录存在),方法的实现如下所示:

01 protected void corruptPreUpgradeStorage(File rootDir) throws IOException {
02   File oldImageDir = new File(rootDir, "image");
03   if (!oldImageDir.exists())
04     if (!oldImageDir.mkdir())
05       throw new IOException("Cannot create directory " + oldImageDir);
06   File oldImage = new File(oldImageDir, "fsimage");
07   if (!oldImage.exists())
08     // recreate old image file to let pre-upgrade versions fail
09     if (!oldImage.createNewFile())
10       throw new IOException("Cannot create file " + oldImage);
11   RandomAccessFile oldFile = new RandomAccessFile(oldImage, "rws");
12   // write new version into old image file
13   try {
14     writeCorruptedData(oldFile);
15   } finally {
16     oldFile.close();
17   }
18 }

首先,如果在${dfs.name.dir}下面不存在image目录,则创建该目录,然后在image目录下面创建文件fsimage,写入该文件的数据内容,如下表所示:

序号 字段 类型 说明
1 layoutVersion int -47,Hadoop-1.2.1对应的layoutVersion=-41
2 “”.length() short 0,写入一个空字符””的长度,即0
3 “” char 空字符,显然,实际并没有写入该值
4 messageForPreUpgradeVersion String 写入如下预升级提示消息:“\nThis file is INTENTIONALLY CORRUPTED so that versions\nof Hadoop prior to 0.13 (which are incompatible\nwith this directory layout) will fail to start.\n”。

如果执行corruptPreUpgradeStorage方法没有抛出异常,则这时开始初始化VERSION文件,该文件路径为${dfs.name.dir}/current/VERSION,调用write(getVersionFile())来实现,主要是通过一个Properties props对象,将对应的属性信息写入VERSION文件,可以通过setFields方法看到:

01 protected void setFields(Properties props, StorageDirectory sd) throws IOException {
02   super.setFields(props, sd);
03   boolean uState = getDistributedUpgradeState();
04   int uVersion = getDistributedUpgradeVersion();
05   if(uState && uVersion != getLayoutVersion()) {
06     props.setProperty("distributedUpgradeState", Boolean.toString(uState));
07     props.setProperty("distributedUpgradeVersion", Integer.toString(uVersion));
08   }
09   writeCheckpointTime(sd);
10 }

调用基类的super.setFields(props, sd);方法,实现如下所示:

1 protected void setFields(Properties props, StorageDirectory sd) throws IOException {
2   props.setProperty("layoutVersion", String.valueOf(layoutVersion));
3   props.setProperty("storageType", storageType.toString());
4   props.setProperty("namespaceID", String.valueOf(namespaceID));
5   props.setProperty("cTime", String.valueOf(cTime));
6 }

综合上面分析,可以看到,对应写入到VERSION文件的内容如下所示:

序号 字段 类型 说明
1 layoutVersion String -47,Hadoop-1.2.1对应的layoutVersion=-41
2 storageType String NAME_NODE
3 namespaceID String 对应的namespaceID值
4 cTime String 0,初始化为0

上面代码中uState=false,uVersion=0,getLayoutVersion()=-41,所以属性distributedUpgradeState和distributedUpgradeVersion没有添加到Properties中,例如,properties中的属性数据类似如下内容:
{namespaceID=64614865, cTime=0, storageType=NAME_NODE, layoutVersion=-41}
数据并没直接写入VERSION,而是等到初始化fstime文件完成之后,延迟初始化VERSION文件,以及,写入fstime文件先于写入VERSION文件。

  • 初始化fstime文件数据

在初始化VERSION文件时,调用了writeCheckpointTime(sd)方法,写入checkpointTime到文件${dfs.name.dir}/current/fstime中,代码如下所示:

01 void writeCheckpointTime(StorageDirectory sd) throws IOException {
02   if (checkpointTime < 0L)
03     return; // do not write negative time
04   File timeFile = getImageFile(sd, NameNodeFile.TIME);
05   DataOutputStream out = new DataOutputStream(new AtomicFileOutputStream(timeFile));
06   try {
07     out.writeLong(checkpointTime);
08   } finally {
09     out.close();
10   }
11 }

实际上写入fstime文件的只是检查点的时间,如下表所示:

序号 字段 类型 说明
1 checkpointTime long 检查点时间戳,例如:1398180263639

格式化实例分析

下面,我们通过配置Hadoop-1.2.1,并执行HDFS的格式化操作,观察对应的目录的结构和数据。
首先配置Hadoop,各个配置文件如下所示:

配置项 配置值 配置文件
fs.default.name hdfs://localhost:9000 core-site.xml
dfs.replication 1 hdfs-site.xml
dfs.name.dir /home/shirdrn/programs/hadoop/dfs/name hdfs-site.xml
dfs.data.dir /home/shirdrn/programs/hadoop/dfs/data hdfs-site.xml

格式化后,在/home/shirdrn/programs/hadoop/dfs/name/current目录下生成如下4个文件:

1 edits
2 fsimage
3 fstime
4 VERSION

上面4个文件中,VERSION文件实际上是一个properties文件,它的内容是可读的字符串信息,内容如下所示:

1 #Thu Apr 10 21:49:18 PDT 2014
2 namespaceID=1858400315
3 cTime=0
4 storageType=NAME_NODE
5 layoutVersion=-41

第一次进行格式化,cTime=0。
对于其它几个文件,使用了Java的序列化方式进行存储,不是字符串可读格式的,可以参考源代码中实际序列化写入的内容,见上面给出的表格中列出的字段信息。

阅读(1596) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~