【365bet官网中文版】四个Map的对照,三种方法,将比较结果写入文件。

二种方式的沉思都是遍历一个map的Key,然后2个Map分别取那2个Key值所取得的Value。

List的二种遍历格局:
public class TestList {

要是想要使用数组来写入HTML数据,相对须求的是一个Key值,由Key来指引遍历数组各项;其余,使用DOM原生方法写入文档,用同一个CSS样式渲染它们,那样可以极大地减少费用时间和削减维护花费,此方法适用于批处理:

#第一种用entry

public static void main(String[] args) {
    List<String> list = new ArrayList<>();
    list.add("孙悟空");
    list.add("唐三藏");
    list.add("猪八戒");
    list.add("沙悟净");
    String listString = list.toString();
    System.out.println(listString);

    Integer size = list.size();
    for (int i = 0; i < size; i++) {
        String value1 = list.get(i);
        System.out.println(value1);
    }
    System.out.println("==========================");

    Iterator<String> iterator = list.iterator();
    while (iterator.hasNext()) {
        String value2 = iterator.next();
        System.out.println(value2);
    }
    System.out.println("==========================");


    for (String string : list) {
        System.out.println(string);
    }
}}

Hadoop的HDFS和MapReduce子框架重若是针对性大数据文件来设计的,在小文件的拍卖上不但功用低下,而且相当消耗内存资源(每一个小文件占用一个Block,每一个block的元数据都存储在namenode的内存里)。解决办法平日是选项一个器皿,将这个小文件社团起来统一存储。HDFS提供了三种档次的容器,分别是SequenceFile和MapFile。

 

private void compareMap(Map<String, String> Map01, Map<String, String Map02>){

        for (Map.Entry<String, String> entry : Map1.entrySet())
        {

           String testKey = entry.getKey();

           if(Map1.get(testId).equals(Map2.get(testId))){

                System.out.println("equals");

            }else{

                System.out.println("not equals");

            }
        }
}

// 第一种方法遍历list集合:for循环
Integer size = list.size();
for (int i = 0; i < size; i++) {
String value1 = list.get(i);
System.out.println(value1);
}
// 第三种艺术遍历list集合:iterator 迭代器
Iterator<String> iterator = list.iterator();
while (iterator.hasNext()) {
String value2 = iterator.next();
System.out.println(value2);
}
// 第三种方法遍历list集合:foreach
for (String string : list) {
System.out.println(string);
}

一、SequenceFile

SequenceFile的积存类似于Log文件,所例外的是Log
File的每条记下的是纯文本数据,而SequenceFile的每条记下是可系列化的字符数组。

SequenceFile可由此如下API来完结新记录的丰盛操作:

       
fileWriter.append(key,value)

可以看到,每条记下以键值对的法门开展公司,但前提是Key和Value需具备种类化和反种类化的功能

Hadoop预订义了部分Key Class和Value
Class,他们直白或直接达成了Writable接口,满足了该效率,包涵:

Text                                等同于Java中的String
IntWritable                   等同于Java中的Int
BooleanWritable        等同于Java中的Boolean
        .
        .

在存储结构上,SequenceFile紧要由一个Header后跟多条Record组成,如图所示:

365bet官网中文版 1

Header紧要包含了Key classname,Value
classname,存储压缩算法,用户自定义元数据等信息,别的,还蕴藏了部分联合标识,用于快捷稳定到记录的境界。

每条Record以键值对的办法展开仓储,用来表示它的字符数组可依次解析成:记录的长度、Key的尺寸、Key值和Value值,并且Value值的结构取决于该记录是还是不是被核减。

数据压缩有利于节省磁盘空间和增速网络传输,SeqeunceFile扶助三种格式的数据压缩,分别是:record
compression和block compression。

record compression如上图所示,是对每条记下的value进行削减

block
compression是将一种类的record协会到一块儿,统一压缩成一个block,如图所示:

365bet官网中文版 2

block音讯根本囤积了:块所涵盖的记录数、每条记下Key长度的成团、每条记下Key值的集纳、每条记下Value长度的集合和每条记下Value值的集合

注:每个block的尺寸是可经过io.seqfile.compress.blocksize属性来指定的

示例:SequenceFile读/写 操作

[java] view
plaincopy

  1. Configuration conf=new Configuration();  
  2. FileSystem fs=FileSystem.get(conf);  
  3. Path seqFile=new Path(“seqFile.seq”);  
  4. //Reader内部类用于文书的读取操作  
  5. SequenceFile.Reader reader=new SequenceFile.Reader(fs,seqFile,conf);  
  6. //Writer内部类用于文书的写操作,如果Key和Value都为Text类型  
  7. SequenceFile.Writer writer=new SequenceFile.Writer(fs,conf,seqFile,Text.class,Text.class);  
  8. //通过writer向文档中写入记录  
  9. writer.append(new Text(“key”),new Text(“value”));  
  10. IOUtils.closeStream(writer);//关闭write流  
  11. //通过reader从文档中读取记录  
  12. Text key=new Text();  
  13. Text value=new Text();  
  14. while(reader.next(key,value)){  
  15.     System.out.println(key);  
  16.     System.out.println(value);  
  17. }  
  18. IOUtils.closeStream(reader);//关闭read流  

首先大家须求创立一个数组,类似于JSON:

#第三种用keyset的章程,把key值存到容器,分别取出相比

Map的三种遍历情势:

二、MapFile

MapFile是排序后的SequenceFile,通过观望其目录结构可以看出MapFile由两片段组成,分别是data和index。

365bet官网中文版,index作为文件的数目索引,首要记录了每个Record的key值,以及该Record在文书中的偏移地方。在MapFile被访问的时候,索引文件会被加载到内存,通过索引映射关系可高效定位到指定Record所在文件地方,因而,相对SequenceFile而言,MapFile的探寻功能是火速的,缺点是会损耗一部分内存来存储index数据。

需注意的是,MapFile并不会把持有Record都记录到index中去,默许景况下每隔128条记下存储一个索引映射。当然,记录间隔可人为修改,通过MapFIle.Writer的setIndexInterval()方法,或改动io.map.index.interval属性;

另外,与SequenceFile差距的是,MapFile的KeyClass一定要贯彻WritableComparable接口,即Key值是可正如的。

以身作则:MapFile读写操作

[java] view
plaincopy

  1. Configuration conf=new Configuration();  
  2. FileSystem fs=FileSystem.get(conf);  
  3. Path mapFile=new Path(“mapFile.map”);  
  4. //里德r内部类用于文书的读取操作  
  5. MapFile.Reader reader=new MapFile.Reader(fs,mapFile.toString(),conf);  
  6. //Writer内部类用于文书的写操作,倘若Key和Value都为Text类型  
  7. MapFile.Writer writer=new MapFile.Writer(conf,fs,mapFile.toString(),Text.class,Text.class);  
  8. //通过writer向文档中写入记录  
  9. writer.append(new Text(“key”),new Text(“value”));  
  10. IOUtils.closeStream(writer);//关闭write流  
  11. //通过reader从文档中读取记录  
  12. Text key=new Text();  
  13. Text value=new Text();  
  14. while(reader.next(key,value)){  
  15.     System.out.println(key);  
  16. 365bet官方备用网址,    System.out.println(key);  
  17. }  
  18. IOUtils.closeStream(reader);//关闭read流  

留意:使用MapFile或SequenceFile尽管可以化解HDFS中小文件的蕴藏难题,但也有肯定局限性,如:
1.文书不接济复写操作,不可能向已存在的SequenceFile(MapFile)追加存储记录
2.当write流不关门的时候,没有章程构造read流。也就是在推行文书写操作的时候,该公文是不足读取的

1 var value = {
2     id1: {photo:'../photo_1.jpg',title:'这是第一张图片!'},
3     id2: {photo:'../photo_2.jpg',title:'这是第二张图片!'},
4     id3: {photo:'../photo_3.jpg',title:'这是第三张图片!'},
5     id4: {photo:'../photo_4.jpg',title:'这是第四张图片!'},
6     id5: {photo:'../photo_5.jpg',title:'这是第五张图片!'},
7     id6: {photo:'../photo_6.jpg',title:'这是第六张图片!'}
8     };

发表评论

电子邮件地址不会被公开。 必填项已用*标注