2020年3月20日
#
一、POI概述
Apache POI是Apache軟件基金會的開放源碼函式庫,POI提供API給Java程序?qū)icrosoft Office格式檔案讀和寫的功能。
結構:
HSSF - 提供讀寫Microsoft Excel格式檔案的功能。
XSSF - 提供讀寫Microsoft Excel OOXML格式檔案的功能。
HWPF - 提供讀寫Microsoft Word格式檔案的功能。
HSLF - 提供讀寫Microsoft PowerPoint格式檔案的功能。
HDGF - 提供讀寫Microsoft Visio格式檔案的功能。
使用必須引入依賴
org.apache.poi
poi
3.17
注:3.17版本是支持jdk6的最后版本
二、HSSF概況
HSSF 是Horrible SpreadSheet Format的縮寫,通過HSSF,你可以用純Java代碼來讀取、寫入、修改Excel文件。HSSF 為讀取操作提供了兩類API:usermodel和eventusermodel,即“用戶模型”和“事件-用戶模型”。
三、 POI EXCEL文檔結構類
HSSFWorkbook excel文檔對象
HSSFSheet excel的sheet
HSSFRow excel的行
HSSFCell excel的單元格
HSSFFont excel字體
HSSFName 名稱
HSSFDataFormat 日期格式
HSSFHeader sheet頭
HSSFFooter sheet尾
HSSFCellStyle cell樣式
HSSFDateUtil 日期
HSSFPrintSetup 打印
HSSFErrorConstants 錯誤信息表
四、EXCEL的讀寫操作
1、讀取“區(qū)域數(shù)據(jù).xls”并儲存于list集合中,“區(qū)域數(shù)據(jù).xls”如下圖
public List
importXLS(){
ArrayList
list = new ArrayList<>();
try {
//1、獲取文件輸入流
InputStream inputStream = new FileInputStream("/Users/Shared/區(qū)域數(shù)據(jù).xls");
//2、獲取Excel工作簿對象
HSSFWorkbook workbook = new HSSFWorkbook(inputStream);
//3、得到Excel工作表對象
HSSFSheet sheetAt = workbook.getSheetAt(0);
//4、循環(huán)讀取表格數(shù)據(jù)
for (Row row : sheetAt) {
//首行(即表頭)不讀取
if (row.getRowNum() == 0) {
continue;
}
//讀取當前行中單元格數(shù)據(jù),索引從0開始
String areaNum = row.getCell(0).getStringCellValue();
String province = row.getCell(1).getStringCellValue();
String city = row.getCell(2).getStringCellValue();
String district = row.getCell(3).getStringCellValue();
String postcode = row.getCell(4).getStringCellValue();
Area area = new Area();
area.setCity(city);
area.setDistrict(district);
area.setProvince(province);
area.setPostCode(postcode);
list.add(area);
}
//5、關閉流
workbook.close();
} catch (IOException e) {
e.printStackTrace();
}
return list;
}
2、導出數(shù)據(jù)到“區(qū)域數(shù)據(jù).xls”文件中,頁面數(shù)據(jù)如下圖:
public void exportExcel() throws IOException {
Page
page = areaService.pageQuery(null);
List
list = page.getContent();
//1.在內(nèi)存中創(chuàng)建一個excel文件
HSSFWorkbook hssfWorkbook = new HSSFWorkbook();
//2.創(chuàng)建工作簿
HSSFSheet sheet = hssfWorkbook.createSheet();
//3.創(chuàng)建標題行
HSSFRow titlerRow = sheet.createRow(0);
titlerRow.createCell(0).setCellValue("省");
titlerRow.createCell(1).setCellValue("市");
titlerRow.createCell(2).setCellValue("區(qū)");
titlerRow.createCell(3).setCellValue("郵編");
titlerRow.createCell(4).setCellValue("簡碼");
titlerRow.createCell(5).setCellValue("城市編碼");
//4.遍歷數(shù)據(jù),創(chuàng)建數(shù)據(jù)行
for (Area area : list) {
//獲取最后一行的行號
int lastRowNum = sheet.getLastRowNum();
HSSFRow dataRow = sheet.createRow(lastRowNum + 1);
dataRow.createCell(0).setCellValue(area.getProvince());
dataRow.createCell(1).setCellValue(area.getCity());
dataRow.createCell(2).setCellValue(area.getDistrict());
dataRow.createCell(3).setCellValue(area.getPostcode());
dataRow.createCell(4).setCellValue(area.getShortcode());
dataRow.createCell(5).setCellValue(area.getCitycode());
}
//5.創(chuàng)建文件名
String fileName = "區(qū)域數(shù)據(jù)統(tǒng)計.xls";
//6.獲取輸出流對象
HttpServletResponse response = ServletActionContext.getResponse();
ServletOutputStream outputStream = response.getOutputStream();
//7.獲取mimeType
ServletContext servletContext = ServletActionContext.getServletContext();
String mimeType = servletContext.getMimeType(fileName);
//8.獲取瀏覽器信息,對文件名進行重新編碼
HttpServletRequest request = ServletActionContext.getRequest();
fileName = FileUtils.filenameEncoding(fileName, request);
//9.設置信息頭
response.setContentType(mimeType);
response.setHeader("Content-Disposition","attachment;filename="+fileName);
//10.寫出文件,關閉流
hssfWorkbook.write(outputStream);
hssfWorkbook.close();
}
工具類
public class FileUtils {
public static String filenameEncoding(String filename, HttpServletRequest request) throws IOException {
String agent = request.getHeader("User-Agent"); //獲取瀏覽器
if (agent.contains("Firefox")) {
BASE64Encoder base64Encoder = new BASE64Encoder();
filename = "=?utf-8?B?"
+ base64Encoder.encode(filename.getBytes("utf-8"))
+ "?=";
} else if(agent.contains("MSIE")) {
filename = URLEncoder.encode(filename, "utf-8");
} else if(agent.contains ("Safari")) {
filename = new String (filename.getBytes ("utf-8"),"ISO8859-1");
} else {
filename = URLEncoder.encode(filename, "utf-8");
}
return filename;
}
}
寫出xls文件:
五、 EXCEL常用操作方法
1、 得到Excel常用對象
POIFSFileSystem fs=newPOIFSFileSystem(new FileInputStream("d:/test.xls"));
//得到Excel工作簿對象
HSSFWorkbook wb = new HSSFWorkbook(fs);
//得到Excel工作表對象
HSSFSheet sheet = wb.getSheetAt(0);
//得到Excel工作表的行
HSSFRow row = sheet.getRow(i);
//得到Excel工作表指定行的單元格
HSSFCell cell = row.getCell((short) j);
cellStyle = cell.getCellStyle();//得到單元格樣式
2、建立Excel常用對象
HSSFWorkbook wb = new HSSFWorkbook();//創(chuàng)建Excel工作簿對象
HSSFSheet sheet = wb.createSheet("new sheet");//創(chuàng)建Excel工作表對象
HSSFRow row = sheet.createRow((short)0); //創(chuàng)建Excel工作表的行
cellStyle = wb.createCellStyle();//創(chuàng)建單元格樣式
row.createCell((short)0).setCellStyle(cellStyle); //創(chuàng)建Excel工作表指定行的單元格
row.createCell((short)0).setCellValue(1); //設置Excel工作表的值
3、設置sheet名稱和單元格內(nèi)容
wb.setSheetName(1, "第一張工作表",HSSFCell.ENCODING_UTF_16);
cell.setEncoding((short) 1);
cell.setCellValue("單元格內(nèi)容");
4、取得sheet的數(shù)目
wb.getNumberOfSheets()
5、 根據(jù)index取得sheet對象
HSSFSheet sheet = wb.getSheetAt(0);
6、取得有效的行數(shù)
int rowcount = sheet.getLastRowNum();
7、取得一行的有效單元格個數(shù)
row.getLastCellNum();
8、單元格值類型讀寫
cell.setCellType(HSSFCell.CELL_TYPE_STRING); //設置單元格為STRING類型
cell.getNumericCellValue();//讀取為數(shù)值類型的單元格內(nèi)容
9、設置列寬、行高
sheet.setColumnWidth((short)column,(short)width);
row.setHeight((short)height);
10、添加區(qū)域,合并單元格
Region region = new Region((short)rowFrom,(short)columnFrom,(short)rowTo
,(short)columnTo);//合并從第rowFrom行columnFrom列
sheet.addMergedRegion(region);// 到rowTo行columnTo的區(qū)域
//得到所有區(qū)域
sheet.getNumMergedRegions()
11、保存Excel文件
FileOutputStream fileOut = new FileOutputStream(path);
wb.write(fileOut);
12、根據(jù)單元格不同屬性返回字符串數(shù)值
public String getCellStringValue(HSSFCell cell) {
String cellValue = "";
switch (cell.getCellType()) {
case HSSFCell.CELL_TYPE_STRING://字符串類型
cellValue = cell.getStringCellValue();
if(cellValue.trim().equals("")||cellValue.trim().length()<=0)
cellValue=" ";
break;
case HSSFCell.CELL_TYPE_NUMERIC: //數(shù)值類型
cellValue = String.valueOf(cell.getNumericCellValue());
break;
case HSSFCell.CELL_TYPE_FORMULA: //公式
cell.setCellType(HSSFCell.CELL_TYPE_NUMERIC);
cellValue = String.valueOf(cell.getNumericCellValue());
break;
case HSSFCell.CELL_TYPE_BLANK:
cellValue=" ";
break;
case HSSFCell.CELL_TYPE_BOOLEAN:
break;
case HSSFCell.CELL_TYPE_ERROR:
break;
default:
break;
}
return cellValue;
}
13、常用單元格邊框格式
HSSFCellStyle style = wb.createCellStyle();
style.setBorderBottom(HSSFCellStyle.BORDER_DOTTED);//下邊框
style.setBorderLeft(HSSFCellStyle.BORDER_DOTTED);//左邊框
style.setBorderRight(HSSFCellStyle.BORDER_THIN);//右邊框
style.setBorderTop(HSSFCellStyle.BORDER_THIN);//上邊框
14、設置字體和內(nèi)容位置
HSSFFont f = wb.createFont();
f.setFontHeightInPoints((short) 11);//字號
f.setBoldweight(HSSFFont.BOLDWEIGHT_NORMAL);//加粗
style.setFont(f);
style.setAlignment(HSSFCellStyle.ALIGN_CENTER);//左右居中
style.setVerticalAlignment(HSSFCellStyle.VERTICAL_CENTER);//上下居中
style.setRotation(short rotation);//單元格內(nèi)容的旋轉(zhuǎn)的角度
HSSFDataFormat df = wb.createDataFormat();
style1.setDataFormat(df.getFormat("0.00%"));//設置單元格數(shù)據(jù)格式
cell.setCellFormula(string);//給單元格設公式
style.setRotation(short rotation);//單元格內(nèi)容的旋轉(zhuǎn)的角度
15、插入圖片
//先把讀進來的圖片放到一個ByteArrayOutputStream中,以便產(chǎn)生ByteArray
ByteArrayOutputStream byteArrayOut = new ByteArrayOutputStream();
BufferedImage bufferImg = ImageIO.read(new File("ok.jpg"));
ImageIO.write(bufferImg,"jpg",byteArrayOut);
//讀進一個excel模版
FileInputStream fos = new FileInputStream(filePathName+"/stencil.xlt");
fs = new POIFSFileSystem(fos);
//創(chuàng)建一個工作薄
HSSFWorkbook wb = new HSSFWorkbook(fs);
HSSFSheet sheet = wb.getSheetAt(0);
HSSFPatriarch patriarch = sheet.createDrawingPatriarch();
HSSFClientAnchor anchor = new HSSFClientAnchor(0,0,1023,255,(short) 0,0,(short)10,10);
patriarch.createPicture(anchor , wb.addPicture(byteArrayOut.toByteArray(),HSSFWorkbook.PICTURE_TYPE_JPEG));
16、調(diào)整工作表位置
HSSFWorkbook wb = new HSSFWorkbook();
HSSFSheet sheet = wb.createSheet("format sheet");
HSSFPrintSetup ps = sheet.getPrintSetup();
sheet.setAutobreaks(true);
ps.setFitHeight((short)1);
ps.setFitWidth((short)1);
2019年5月14日
#
1、在學習從文件讀取數(shù)據(jù)中,寫了個示例代碼,讀取不在同一個目錄的file.txt,運行后報這個Python OSError: [Errno 22] Invalid argument:錯誤:
(1)、首先,在F盤的python_stu中新增了一個file.txt,同時在F盤的python_stu文件目錄底下新增一個file文件夾,里面有個file_reader.py來讀取python_stu文件目錄底下的file.txt,代碼分別如下:
file.txt:
測試
測試2
測試3
file_reader.py:
with open('F:\python_stu\file.txt') as file_obj:
contents = file_obj.read();
print(contents.rstrip());
(2)、運行后報錯:
(3)、出現(xiàn)這種錯誤的原因是由于讀取不到這個文件,看Traceback報的錯誤,最后一行,很明顯讀取不到file.txt,前面的F:\\python_stu沒錯,后面的名稱怎么變了,還是x0cile.txt。
(4)、解決辦法,可修改上述第一行代碼為:
with open('F:\python_stu/file.txt') as file_obj:
或者:
with open('F:/python_stu/file.txt') as file_obj:
或者:
with open('F://python_stu//file.txt') as file_obj:
又或者:
with open('F:\\python_stu\\file.txt') as file_obj:
還有一些我就不附上了,上面第一種方式不統(tǒng)一,最好不要用,用統(tǒng)一的方式,而且有時候還有注意一些轉(zhuǎn)義字符,比如 \t,\n也會導致報錯。
2017年8月13日
#
前面學習了使用命令hdfs haadmin -failover手動進行故障轉(zhuǎn)移,在該模式下,即使現(xiàn)役NameNode已經(jīng)失效,系統(tǒng)也不會自動從現(xiàn)役NameNode轉(zhuǎn)移到待機NameNode,下面學習如何配置部署HA自動進行故障轉(zhuǎn)移。自動故障轉(zhuǎn)移為HDFS部署增加了兩個新組件:ZooKeeper和ZKFailoverController(ZKFC)進程。ZooKeeper是維護少量協(xié)調(diào)數(shù)據(jù),通知客戶端這些數(shù)據(jù)的改變和監(jiān)視客戶端故障的高可用服務。HA的自動故障轉(zhuǎn)移依賴于ZooKeeper的以下功能:
- 故障檢測:集群中的每個NameNode在ZooKeeper中維護了一個持久會話,如果機器崩潰,ZooKeeper中的會話將終止,ZooKeeper通知另一個NameNode需要觸發(fā)故障轉(zhuǎn)移。
- 現(xiàn)役NameNode選擇:ZooKeeper提供了一個簡單的機制用于唯一的選擇一個節(jié)點為active狀態(tài)。如果目前現(xiàn)役NameNode崩潰,另一個節(jié)點可能從ZooKeeper獲得特殊的排外鎖以表明它應該成為現(xiàn)役NameNode。
ZKFC是自動故障轉(zhuǎn)移中的另一個新組件,是ZooKeeper的客戶端,也監(jiān)視和管理NameNode的狀態(tài)。每個運行NameNode的主機也運行了一個ZKFC進程,ZKFC負責:
- 健康監(jiān)測:ZKFC使用一個健康檢查命令定期地ping與之在相同主機的NameNode,只要該NameNode及時地回復健康狀態(tài),ZKFC認為該節(jié)點是健康的。如果該節(jié)點崩潰,凍結或進入不健康狀態(tài),健康監(jiān)測器標識該節(jié)點為非健康的。
- ZooKeeper會話管理:當本地NameNode是健康的,ZKFC保持一個在ZooKeeper中打開的會話。如果本地NameNode處于active狀態(tài),ZKFC也保持一個特殊的znode鎖,該鎖使用了ZooKeeper對短暫節(jié)點的支持,如果會話終止,鎖節(jié)點將自動刪除。
- 基于ZooKeeper的選擇:如果本地NameNode是健康的,且ZKFC發(fā)現(xiàn)沒有其它的節(jié)點當前持有znode鎖,它將為自己獲取該鎖。如果成功,則它已經(jīng)贏得了選擇,并負責運行故障轉(zhuǎn)移進程以使它的本地NameNode為active。故障轉(zhuǎn)移進城與前面描述的手動故障轉(zhuǎn)移相似,首先如果必要保護之前的現(xiàn)役NameNode,然后本地NameNode轉(zhuǎn)換為active狀態(tài)。
在典型部署中,ZooKeeper守護進程運行在三個或者五個節(jié)點上,但由于ZooKeeper本身需要較少的資源,所以將ZooKeeper部署在與現(xiàn)役NameNode和待機NameNode相同的主機上,還可以將ZooKeeper部署到與YARN的ResourceManager相同的節(jié)點上。建議配置ZooKeeper將數(shù)據(jù)存儲在與HDFS元數(shù)據(jù)不同的硬盤上以得到最好的性能和隔離性。在配置自動故障轉(zhuǎn)移之前需要先停掉集群,目前在集群運行時還不可能將手動故障轉(zhuǎn)移的安裝轉(zhuǎn)換為自動故障轉(zhuǎn)移的安裝。接下來看看如何配置HA的自動故障轉(zhuǎn)移。首先在hdfs-site.xml中添加下面的參數(shù),該參數(shù)的值默認為false:
- <property>
- <name>dfs.ha.automatic-failover.enabled</name>
- <value>true</value>
- </property>
在core-site.xml文件中添加下面的參數(shù),該參數(shù)的值為ZooKeeper服務器的地址,ZKFC將使用該地址。
- <property>
- <name>ha.zookeeper.quorum</name> <value>zk1.example.com:2181,zk2.example.com:2181,zk3.example.com:2181</value>
- </property>
在HA或者HDFS聯(lián)盟中,上面的兩個參數(shù)還需要以NameServiceID為后綴,比如dfs.ha.automatic-failover.enabled.mycluster。除了上面的兩個參數(shù)外,還有其它幾個參數(shù)用于自動故障轉(zhuǎn)移,比如ha.zookeeper.session-timeout.ms,但對于大多數(shù)安裝來說都不是必須的。
在添加了上述的配置參數(shù)后,下一步就是在ZooKeeper中初始化要求的狀態(tài),可以在任一NameNode中運行下面的命令實現(xiàn)該目的,該命令將在ZooKeeper中創(chuàng)建znode:
在啟用自動故障轉(zhuǎn)移的集群中,start-dfs.sh腳本將在任何運行NameNode的主機上自動啟動ZKFC守護進程,一旦ZKFC啟動完畢,它們將自動選擇一個NameNode為現(xiàn)役NameNode。如果手動管理集群中的服務,需要在每臺運行NameNode的主機上手動啟動ZKFC,命令為:
- hadoop-daemon.sh start zkfc
- hdfs zkfc
如果正在運行一個安全的集群,可能想確保存儲在ZooKeeper中的信息也是安全的,這將阻止惡意的客戶端修改ZooKeeper中的元數(shù)據(jù)或者潛在地觸發(fā)一個錯誤的故障轉(zhuǎn)移。為了保護ZooKeeper中的信息,首先在core-site.xml中添加下面的參數(shù):
- <property>
- <name>ha.zookeeper.auth</name>
- <value>@/path/to/zk-auth.txt</value>
- </property>
- <property>
- <name>ha.zookeeper.acl</name>
- <value>@/path/to/zk-acl.txt</value>
- </property>
參數(shù)值中的@字符表示參數(shù)值保存在@后的硬盤文件中。第一個配置文件指定了ZooKeeper的認證列表,其格式與ZK CLI使用的相同,例如:digest:hdfs-zkfcs:mypassword,其中hdfs-zkfcs為ZooKeeper的用戶名,mypassword為密碼。其次使用下面的命令為該認證生成一個ZooKeeper訪問控制列表:
- $ java -cp $ZK_HOME/lib/*:$ZK_HOME/zookeeper-3.4.2.jar org.apache.zookeeper.server.auth.DigestAuthenticationProvider hdfs-zkfcs:mypassword
- output: hdfs-zkfcs:mypassword->hdfs-zkfcs:P/OQvnYyU/nF/mGYvB/xurX8dYs=
拷貝->之后的字符串并添加digest:前綴,然后粘貼到zk-acls.txt中,例如:digest:hdfs-zkfcs:vlUvLnd8MlacsE80rDuu6ONESbM=:rwcda。要想使ACLs生效,需要再次運行zkfc –formatZK。最后可能像下面這樣在ZK CLI中驗證ACLs:
- [zk: localhost:2181(CONNECTED) 1] getAcl /hadoop-ha
- 'digest,'hdfs-zkfcs:vlUvLnd8MlacsE80rDuu6ONESbM=
- : cdrwa
在安裝完成自動故障轉(zhuǎn)移后,或許需要測試一下。首先定位現(xiàn)役NameNode,可以通過訪問NameNode的web頁面來確定哪個NameNode是active狀態(tài)的。一旦確定了處于active狀態(tài)的NameNode,就需要在該節(jié)點上制造點故障,比如使用命令kill -9 <pid of NN>模擬JVM崩潰,或重啟主機或拔掉網(wǎng)線來模擬不同的中斷。一旦觸發(fā)了自動故障轉(zhuǎn)移,另一個NameNode應該自動在幾秒鐘內(nèi)變?yōu)閍ctive狀態(tài)。檢測到故障并觸發(fā)故障轉(zhuǎn)移由參數(shù)ha.zookeeper.session-timeout.ms控制,該參數(shù)為與core-site.xml中,默認為5秒。如果測試不成功,可能是配置問題,檢查ZKFC和NameNode進程的日志以進一步診斷問題,通常錯誤都是很明顯的。
2017年8月5日
#
理想情況下,我們應用對Yarn資源的請求應該立刻得到滿足,但現(xiàn)實情況資源往往是有限的,特別是在一個很繁忙的集群,一個應用資源的請求經(jīng)常需要等待一段時間才能的到相應的資源。在Yarn中,負責給應用分配資源的就是Scheduler。其實調(diào)度本身就是一個難題,很難找到一個完美的策略可以解決所有的應用場景。為此,Yarn提供了多種調(diào)度器和可配置的策略供我們選擇。
一、調(diào)度器的選擇
在Yarn中有三種調(diào)度器可以選擇:FIFO Scheduler
,Capacity Scheduler
,FairS cheduler
。
FIFO Scheduler
把應用按提交的順序排成一個隊列,這是一個先進先出隊列,在進行資源分配的時候,先給隊列中最頭上的應用進行分配資源,待最頭上的應用需求滿足后再給下一個分配,以此類推。
FIFO Scheduler
是最簡單也是最容易理解的調(diào)度器,也不需要任何配置,但它并不適用于共享集群。大的應用可能會占用所有集群資源,這就導致其它應用被阻塞。在共享集群中,更適合采用Capacity Scheduler
或Fair Scheduler
,這兩個調(diào)度器都允許大任務和小任務在提交的同時獲得一定的系統(tǒng)資源。
下面“Yarn調(diào)度器對比圖”展示了這幾個調(diào)度器的區(qū)別,從圖中可以看出,在FIFO 調(diào)度器中,小任務會被大任務阻塞。
而對于Capacity調(diào)度器,有一個專門的隊列用來運行小任務,但是為小任務專門設置一個隊列會預先占用一定的集群資源,這就導致大任務的執(zhí)行時間會落后于使用FIFO調(diào)度器時的時間。
在Fair調(diào)度器中,我們不需要預先占用一定的系統(tǒng)資源,F(xiàn)air調(diào)度器會為所有運行的job動態(tài)的調(diào)整系統(tǒng)資源。如下圖所示,當?shù)谝粋€大job提交時,只有這一個job在運行,此時它獲得了所有集群資源;當?shù)诙€小任務提交后,F(xiàn)air調(diào)度器會分配一半資源給這個小任務,讓這兩個任務公平的共享集群資源。
需要注意的是,在下圖Fair調(diào)度器中,從第二個任務提交到獲得資源會有一定的延遲,因為它需要等待第一個任務釋放占用的Container。小任務執(zhí)行完成之后也會釋放自己占用的資源,大任務又獲得了全部的系統(tǒng)資源。最終的效果就是Fair調(diào)度器即得到了高的資源利用率又能保證小任務及時完成。
Yarn調(diào)度器對比圖:

二、Capacity Scheduler(容器調(diào)度器)的配置
2.1 容器調(diào)度介紹
Capacity 調(diào)度器允許多個組織共享整個集群,每個組織可以獲得集群的一部分計算能力。通過為每個組織分配專門的隊列,然后再為每個隊列分配一定的集群資源,這樣整個集群就可以通過設置多個隊列的方式給多個組織提供服務了。除此之外,隊列內(nèi)部又可以垂直劃分,這樣一個組織內(nèi)部的多個成員就可以共享這個隊列資源了,在一個隊列內(nèi)部,資源的調(diào)度是采用的是先進先出(FIFO)策略。
通過上面那幅圖,我們已經(jīng)知道一個job可能使用不了整個隊列的資源。然而如果這個隊列中運行多個job,如果這個隊列的資源夠用,那么就分配給這些job,如果這個隊列的資源不夠用了呢?其實Capacity調(diào)度器仍可能分配額外的資源給這個隊列,這就是“彈性隊列”(queue elasticity)的概念。
在正常的操作中,Capacity調(diào)度器不會強制釋放Container,當一個隊列資源不夠用時,這個隊列只能獲得其它隊列釋放后的Container資源。當然,我們可以為隊列設置一個最大資源使用量,以免這個隊列過多的占用空閑資源,導致其它隊列無法使用這些空閑資源,這就是”彈性隊列”需要權衡的地方。
2.2 容器調(diào)度的配置
假設我們有如下層次的隊列:
root ├── prod └── dev ├── eng └── science
下面是一個簡單的Capacity調(diào)度器的配置文件,文件名為capacity-scheduler.xml
。在這個配置中,在root隊列下面定義了兩個子隊列prod
和dev
,分別占40%和60%的容量。需要注意,一個隊列的配置是通過屬性yarn.sheduler.capacity.<queue-path>.<sub-property>
指定的,<queue-path>
代表的是隊列的繼承樹,如root.prod
隊列,<sub-property>
一般指capacity
和maximum-capacity
。

我們可以看到,dev
隊列又被分成了eng
和science
兩個相同容量的子隊列。dev
的maximum-capacity
屬性被設置成了75%,所以即使prod
隊列完全空閑dev
也不會占用全部集群資源,也就是說,prod
隊列仍有25%的可用資源用來應急。我們注意到,eng
和science
兩個隊列沒有設置maximum-capacity
屬性,也就是說eng
或science
隊列中的job可能會用到整個dev
隊列的所有資源(最多為集群的75%)。而類似的,prod
由于沒有設置maximum-capacity屬性,它有可能會占用集群全部資源。
Capacity容器除了可以配置隊列及其容量外,我們還可以配置一個用戶或應用可以分配的最大資源數(shù)量、可以同時運行多少應用、隊列的ACL認證等。
2.3 隊列的設置
關于隊列的設置,這取決于我們具體的應用。比如,在MapReduce中,我們可以通過mapreduce.job.queuename
屬性指定要用的隊列。如果隊列不存在,我們在提交任務時就會收到錯誤。如果我們沒有定義任何隊列,所有的應用將會放在一個default
隊列中。
注意:對于Capacity調(diào)度器,我們的隊列名必須是隊列樹中的最后一部分,如果我們使用隊列樹則不會被識別。比如,在上面配置中,我們使用prod
和eng
作為隊列名是可以的,但是如果我們用root.dev.eng
或者dev.eng
是無效的。
三、Fair Scheduler(公平調(diào)度器)的配置
3.1 公平調(diào)度
Fair調(diào)度器的設計目標是為所有的應用分配公平的資源(對公平的定義可以通過參數(shù)來設置)。在上面的“Yarn調(diào)度器對比圖”展示了一個隊列中兩個應用的公平調(diào)度;當然,公平調(diào)度在也可以在多個隊列間工作。舉個例子,假設有兩個用戶A和B,他們分別擁有一個隊列。當A啟動一個job而B沒有任務時,A會獲得全部集群資源;當B啟動一個job后,A的job會繼續(xù)運行,不過一會兒之后兩個任務會各自獲得一半的集群資源。如果此時B再啟動第二個job并且其它job還在運行,則它將會和B的第一個job共享B這個隊列的資源,也就是B的兩個job會用于四分之一的集群資源,而A的job仍然用于集群一半的資源,結果就是資源最終在兩個用戶之間平等的共享。過程如下圖所示:

3.2 啟用Fair Scheduler
調(diào)度器的使用是通過yarn-site.xml
配置文件中的yarn.resourcemanager.scheduler.class
參數(shù)進行配置的,默認采用Capacity Scheduler調(diào)度器。如果我們要使用Fair調(diào)度器,需要在這個參數(shù)上配置FairScheduler類的全限定名: org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler
。
3.3 隊列的配置
Fair調(diào)度器的配置文件位于類路徑下的fair-scheduler.xml
文件中,這個路徑可以通過yarn.scheduler.fair.allocation.file
屬性進行修改。若沒有這個配置文件,F(xiàn)air調(diào)度器采用的分配策略,這個策略和3.1節(jié)介紹的類似:調(diào)度器會在用戶提交第一個應用時為其自動創(chuàng)建一個隊列,隊列的名字就是用戶名,所有的應用都會被分配到相應的用戶隊列中。
我們可以在配置文件中配置每一個隊列,并且可以像Capacity 調(diào)度器一樣分層次配置隊列。比如,參考capacity-scheduler.xml
來配置fair-scheduler:

隊列的層次是通過嵌套<queue>
元素實現(xiàn)的。所有的隊列都是root
隊列的孩子,即使我們沒有配到<root>
元素里。在這個配置中,我們把dev
隊列有分成了eng
和science
兩個隊列。
Fair調(diào)度器中的隊列有一個權重屬性(這個權重就是對公平的定義),并把這個屬性作為公平調(diào)度的依據(jù)。在這個例子中,當調(diào)度器分配集群40:60
資源給prod
和dev
時便視作公平,eng
和science
隊列沒有定義權重,則會被平均分配。這里的權重并不是百分比,我們把上面的40和60分別替換成2和3,效果也是一樣的。注意,對于在沒有配置文件時按用戶自動創(chuàng)建的隊列,它們?nèi)杂袡嘀夭⑶覚嘀刂禐?。
每個隊列內(nèi)部仍可以有不同的調(diào)度策略。隊列的默認調(diào)度策略可以通過頂級元素<defaultQueueSchedulingPolicy>
進行配置,如果沒有配置,默認采用公平調(diào)度。
盡管是Fair調(diào)度器,其仍支持在隊列級別進行FIFO調(diào)度。每個隊列的調(diào)度策略可以被其內(nèi)部的<schedulingPolicy>
元素覆蓋,在上面這個例子中,prod
隊列就被指定采用FIFO進行調(diào)度,所以,對于提交到prod
隊列的任務就可以按照FIFO規(guī)則順序的執(zhí)行了。需要注意,prod
和dev
之間的調(diào)度仍然是公平調(diào)度,同樣eng
和science
也是公平調(diào)度。
盡管上面的配置中沒有展示,每個隊列仍可配置最大、最小資源占用數(shù)和最大可運行的應用的數(shù)量。
3.4 隊列的設置
Fair調(diào)度器采用了一套基于規(guī)則的系統(tǒng)來確定應用應該放到哪個隊列。在上面的例子中,<queuePlacementPolicy>
元素定義了一個規(guī)則列表,其中的每個規(guī)則會被逐個嘗試直到匹配成功。例如,上例第一個規(guī)則specified
,則會把應用放到它指定的隊列中,若這個應用沒有指定隊列名或隊列名不存在,則說明不匹配這個規(guī)則,然后嘗試下一個規(guī)則。primaryGroup
規(guī)則會嘗試把應用放在以用戶所在的Unix組名命名的隊列中,如果沒有這個隊列,不創(chuàng)建隊列轉(zhuǎn)而嘗試下一個規(guī)則。當前面所有規(guī)則不滿足時,則觸發(fā)default
規(guī)則,把應用放在dev.eng
隊列中。
當然,我們可以不配置queuePlacementPolicy
規(guī)則,調(diào)度器則默認采用如下規(guī)則:
<queuePlacementPolicy> <rule name="specified" /> <rule name="user" /> </queuePlacementPolicy>
上面規(guī)則可以歸結成一句話,除非隊列被準確的定義,否則會以用戶名為隊列名創(chuàng)建隊列。
還有一個簡單的配置策略可以使得所有的應用放入同一個隊列(default),這樣就可以讓所有應用之間平等共享集群而不是在用戶之間。這個配置的定義如下:
<queuePlacementPolicy> <rule name="default" /> </queuePlacementPolicy>
實現(xiàn)上面功能我們還可以不使用配置文件,直接設置yarn.scheduler.fair.user-as-default-queue=false
,這樣應用便會被放入default 隊列,而不是各個用戶名隊列。另外,我們還可以設置yarn.scheduler.fair.allow-undeclared-pools=false
,這樣用戶就無法創(chuàng)建隊列了。
3.5 搶占(Preemption)
當一個job提交到一個繁忙集群中的空隊列時,job并不會馬上執(zhí)行,而是阻塞直到正在運行的job釋放系統(tǒng)資源。為了使提交job的執(zhí)行時間更具預測性(可以設置等待的超時時間),F(xiàn)air調(diào)度器支持搶占。
搶占就是允許調(diào)度器殺掉占用超過其應占份額資源隊列的containers,這些containers資源便可被分配到應該享有這些份額資源的隊列中。需要注意搶占會降低集群的執(zhí)行效率,因為被終止的containers需要被重新執(zhí)行。
可以通過設置一個全局的參數(shù)yarn.scheduler.fair.preemption=true
來啟用搶占功能。此外,還有兩個參數(shù)用來控制搶占的過期時間(這兩個參數(shù)默認沒有配置,需要至少配置一個來允許搶占Container):
- minimum share preemption timeout - fair share preemption timeout
如果隊列在minimum share preemption timeout
指定的時間內(nèi)未獲得最小的資源保障,調(diào)度器就會搶占containers。我們可以通過配置文件中的頂級元素<defaultMinSharePreemptionTimeout>
為所有隊列配置這個超時時間;我們還可以在<queue>
元素內(nèi)配置<minSharePreemptionTimeout>
元素來為某個隊列指定超時時間。
與之類似,如果隊列在fair share preemption timeout
指定時間內(nèi)未獲得平等的資源的一半(這個比例可以配置),調(diào)度器則會進行搶占containers。這個超時時間可以通過頂級元素<defaultFairSharePreemptionTimeout>
和元素級元素<fairSharePreemptionTimeout>
分別配置所有隊列和某個隊列的超時時間。上面提到的比例可以通過<defaultFairSharePreemptionThreshold>
(配置所有隊列)和<fairSharePreemptionThreshold>
(配置某個隊列)進行配置,默認是0.5。
2017年7月31日
#
在做Shuffle階段的優(yōu)化過程中,遇到了數(shù)據(jù)傾斜的問題,造成了對一些情況下優(yōu)化效果不明顯。主要是因為在Job完成后的所得到的Counters是整個Job的總和,優(yōu)化是基于這些Counters得出的平均值,而由于數(shù)據(jù)傾斜的原因造成map處理數(shù)據(jù)量的差異過大,使得這些平均值能代表的價值降低。Hive的執(zhí)行是分階段的,map處理數(shù)據(jù)量的差異取決于上一個stage的reduce輸出,所以如何將數(shù)據(jù)均勻的分配到各個reduce中,就是解決數(shù)據(jù)傾斜的根本所在。規(guī)避錯誤來更好的運行比解決錯誤更高效。在查看了一些資料后,總結如下。
1數(shù)據(jù)傾斜的原因
1.1操作:
關鍵詞 | 情形 | 后果 |
Join | 其中一個表較小, 但是key集中 | 分發(fā)到某一個或幾個Reduce上的數(shù)據(jù)遠高于平均值 |
大表與大表,但是分桶的判斷字段0值或空值過多 | 這些空值都由一個reduce處理,灰常慢 |
group by | group by 維度過小, 某值的數(shù)量過多 | 處理某值的reduce灰常耗時 |
Count Distinct | 某特殊值過多 | 處理此特殊值的reduce耗時 |
1.2原因:
1)、key分布不均勻
2)、業(yè)務數(shù)據(jù)本身的特性
3)、建表時考慮不周
4)、某些SQL語句本身就有數(shù)據(jù)傾斜
1.3表現(xiàn):
任務進度長時間維持在99%(或100%),查看任務監(jiān)控頁面,發(fā)現(xiàn)只有少量(1個或幾個)reduce子任務未完成。因為其處理的數(shù)據(jù)量和其他reduce差異過大。
單一reduce的記錄數(shù)與平均記錄數(shù)差異過大,通常可能達到3倍甚至更多。 最長時長遠大于平均時長。
2數(shù)據(jù)傾斜的解決方案
2.1參數(shù)調(diào)節(jié):
hive.map.aggr=true
Map 端部分聚合,相當于Combiner
hive.groupby.skewindata=true
有數(shù)據(jù)傾斜的時候進行負載均衡,當選項設定為 true,生成的查詢計劃會有兩個 MR Job。第一個 MR Job 中,Map 的輸出結果集合會隨機分布到 Reduce 中,每個 Reduce 做部分聚合操作,并輸出結果,這樣處理的結果是相同的 Group By Key 有可能被分發(fā)到不同的 Reduce 中,從而達到負載均衡的目的;第二個 MR Job 再根據(jù)預處理的數(shù)據(jù)結果按照 Group By Key 分布到 Reduce 中(這個過程可以保證相同的 Group By Key 被分布到同一個 Reduce 中),最后完成最終的聚合操作。
2.2 SQL語句調(diào)節(jié):
如何Join:
關于驅(qū)動表的選取,選用join key分布最均勻的表作為驅(qū)動表
做好列裁剪和filter操作,以達到兩表做join的時候,數(shù)據(jù)量相對變小的效果。
大小表Join:
使用map join讓小的維度表(1000條以下的記錄條數(shù)) 先進內(nèi)存。在map端完成reduce.
大表Join大表:
把空值的key變成一個字符串加上隨機數(shù),把傾斜的數(shù)據(jù)分到不同的reduce上,由于null值關聯(lián)不上,處理后并不影響最終結果。
count distinct大量相同特殊值
count distinct時,將值為空的情況單獨處理,如果是計算count distinct,可以不用處理,直接過濾,在最后結果中加1。如果還有其他計算,需要進行group by,可以先將值為空的記錄單獨處理,再和其他計算結果進行union。
group by維度過小:
采用sum() group by的方式來替換count(distinct)完成計算。
特殊情況特殊處理:
在業(yè)務邏輯優(yōu)化效果的不大情況下,有些時候是可以將傾斜的數(shù)據(jù)單獨拿出來處理。最后union回去。
3典型的業(yè)務場景
3.1空值產(chǎn)生的數(shù)據(jù)傾斜
場景:如日志中,常會有信息丟失的問題,比如日志中的 user_id,如果取其中的 user_id 和 用戶表中的user_id 關聯(lián),會碰到數(shù)據(jù)傾斜的問題。
解決方法1: user_id為空的不參與關聯(lián)(紅色字體為修改后)
select * from log a join users b on a.user_id is not null and a.user_id = b.user_id union all select * from log a where a.user_id is null;
解決方法2 :賦與空值分新的key值
select * from log a left outer join users b on case when a.user_id is null then concat(‘hive’,rand() ) else a.user_id end = b.user_id;
結論:方法2比方法1效率更好,不但io少了,而且作業(yè)數(shù)也少了。解決方法1中 log讀取兩次,jobs是2。解決方法2 job數(shù)是1 。這個優(yōu)化適合無效 id (比如 -99 , ’’, null 等) 產(chǎn)生的傾斜問題。把空值的 key 變成一個字符串加上隨機數(shù),就能把傾斜的數(shù)據(jù)分到不同的reduce上 ,解決數(shù)據(jù)傾斜問題。
3.2不同數(shù)據(jù)類型關聯(lián)產(chǎn)生數(shù)據(jù)傾斜
場景:用戶表中user_id字段為int,log表中user_id字段既有string類型也有int類型。當按照user_id進行兩個表的Join操作時,默認的Hash操作會按int型的id來進行分配,這樣會導致所有string類型id的記錄都分配到一個Reducer中。
解決方法:把數(shù)字類型轉(zhuǎn)換成字符串類型
select * from users a left outer join logs b on a.usr_id = cast(b.user_id as string)
3.3小表不小不大,怎么用 map join 解決傾斜問題
使用 map join 解決小表(記錄數(shù)少)關聯(lián)大表的數(shù)據(jù)傾斜問題,這個方法使用的頻率非常高,但如果小表很大,大到map join會出現(xiàn)bug或異常,這時就需要特別的處理。 以下例子:
select * from log a left outer join users b on a.user_id = b.user_id;
users 表有 600w+ 的記錄,把 users 分發(fā)到所有的 map 上也是個不小的開銷,而且 map join 不支持這么大的小表。如果用普通的 join,又會碰到數(shù)據(jù)傾斜的問題。
解決方法:
select /*+mapjoin(x)*/* from log a
left outer join (
select /*+mapjoin(c)*/d.* from (
select distinct user_id from log ) c join users d
on c.user_id = d.user_id ) x
on a.user_id = b.user_id;
假如,log里user_id有上百萬個,這就又回到原來map join問題。所幸,每日的會員uv不會太多,有交易的會員不會太多,有點擊的會員不會太多,有傭金的會員不會太多等等。所以這個方法能解決很多場景下的數(shù)據(jù)傾斜問題。
4總結
使map的輸出數(shù)據(jù)更均勻的分布到reduce中去,是我們的最終目標。由于Hash算法的局限性,按key Hash會或多或少的造成數(shù)據(jù)傾斜。大量經(jīng)驗表明數(shù)據(jù)傾斜的原因是人為的建表疏忽或業(yè)務邏輯可以規(guī)避的。在此給出較為通用的步驟:
1、采樣log表,哪些user_id比較傾斜,得到一個結果表tmp1。由于對計算框架來說,所有的數(shù)據(jù)過來,他都是不知道數(shù)據(jù)分布情況的,所以采樣是并不可少的。
2、數(shù)據(jù)的分布符合社會學統(tǒng)計規(guī)則,貧富不均。傾斜的key不會太多,就像一個社會的富人不多,奇特的人不多一樣。所以tmp1記錄數(shù)會很少。把tmp1和users做map join生成tmp2,把tmp2讀到distribute file cache。這是一個map過程。
3、map讀入users和log,假如記錄來自log,則檢查user_id是否在tmp2里,如果是,輸出到本地文件a,否則生成<user_id,value>的key,value對,假如記錄來自member,生成<user_id,value>的key,value對,進入reduce階段。
4、最終把a文件,把Stage3 reduce階段輸出的文件合并起寫到hdfs。
如果確認業(yè)務需要這樣傾斜的邏輯,考慮以下的優(yōu)化方案:
1、對于join,在判斷小表不大于1G的情況下,使用map join
2、對于group by或distinct,設定 hive.groupby.skewindata=true
3、盡量使用上述的SQL語句調(diào)節(jié)進行優(yōu)化
2017年7月30日
#
Hive的一般學習者和培訓者在談性能優(yōu)化的時候一般都會從語法和參數(shù)這些雕蟲小技的角度談優(yōu)化,而不會革命性的優(yōu)化Hive的性能,產(chǎn)生這種現(xiàn)象的原因有:1,歷史原因和思維定勢:大家學習SQL的時候一般都是就單機DB,這個時候你的性能優(yōu)化技巧確實主要是SQL語法和參數(shù)調(diào)優(yōu);2,Hive的核心的性能問題往往是產(chǎn)生在超過規(guī)模數(shù)據(jù)集,例如說100億條級別的數(shù)據(jù)集,以及每天處理上千上萬個Hive作業(yè)的情況下產(chǎn)生的;上面的第二點是我們現(xiàn)在Hive性能調(diào)優(yōu)部分要徹底解決的內(nèi)容;要從根本上解決和顯著的解決實際企業(yè)中Hive真正的性能優(yōu)化問題,必須考慮到底什么是Hive性能的限制,我們按照優(yōu)先級來說:第一重要的是:戰(zhàn)略性架構 解決海量數(shù)據(jù)下大量Job過于頻繁的IO問題,而這個問題實質(zhì)上涉及了架構方面的分表 數(shù)據(jù)復用 以及分區(qū)表等調(diào)優(yōu)的方式; 補充:1,海量的數(shù)據(jù)中有些數(shù)據(jù)是高頻使用的數(shù)據(jù),而有些是很少使用的,如果能夠分離成為不同的表,會極大的提升效率;很多的作業(yè)可能會有共同點,抽離出來先進行計算并保留計算結果,后面的作業(yè)都可以復用;同時,底層的基礎功能也可以先計算,在上層應用的時候直接拿數(shù)據(jù)結果,而不是每次都重復計算; 2,合理從用靜態(tài)分區(qū)表和動態(tài)分區(qū)表,可以避免數(shù)據(jù)全局掃描及計算資源更合理的利用; 3,數(shù)據(jù)傾斜的一站式解決方案;第二重要的是:引擎和物理層面,很多內(nèi)容都是普通Hive使用這不知道的! 從Hive語法和Job內(nèi)部的角度去進行優(yōu)化,這要求MapReduce以及Hive如何被翻譯成為MapReduce要非常精通;第三重要的是:一些關鍵的參數(shù);歸根到底,Hive的性能優(yōu)化主要考慮的是如何最大化和最有效的使用CPU Memory IO;
Hive背后的Mapper調(diào)優(yōu):
1,Mapper數(shù)過大,會產(chǎn)生大量小文件,由于Mapper是基于虛擬機的,過多的Mapper創(chuàng)建和初始化及關閉虛擬機都會消耗大量的硬件資源;
Mapper數(shù)太小,并發(fā)度過小,Job執(zhí)行時間過長,無法充分利用分布式硬件資源;
2,Mapper數(shù)據(jù)由什么決定呢?
輸入文件數(shù)目;
輸入文件的大小;
配置參數(shù);
默認情況下:例如一個文件800M,BLock大小是128M,那么Mapper數(shù)目就是7個,6個Mapper處理的數(shù)據(jù)是 128M, 1個Mapper處理的數(shù)據(jù)是32M;再例如,一個目錄下有三個文件分別大小問5M 10M 150M
此時會產(chǎn)生4個Mapper,處理的數(shù)據(jù)分別是5M 10M 128M 22M;
減少Mapper的個數(shù),就要合并小文件,這種小文件有可能是直接來自于數(shù)據(jù)源的小文件,也可能是Reducer產(chǎn)生的小文件;
set hive.input.format=org.apache.Hadoop.hive.ql.io.CombineHiveInputFormat;
set hive.merge.mapFiles=true;
set hive.merge.mapredFiles=true;
set hive.merge.size.per.task=256000000
set mapred.max.split.size=256000000
set mapred.min.split.size.per.node=128000000
增加Mapper的個數(shù),一般是通過控制Hive SQL中上一個Job的Reducer個數(shù)來控制的,例如在Join操作的時候會把多個表分解為多個Job;
set mapred.map.tasks=2;
set hive.merge.mapFiles=true;
set hive.merge.mapredFiles=true;
set hive.merge.size.per.task=256000000
例如我們有5個300M的文件;按照上面的配置會產(chǎn)生10個Mapper,5個Mapper處理的都是256M的數(shù)據(jù),另外5個Mapper處理的都是44M的數(shù)據(jù),問題是:大的Mapper會數(shù)據(jù)傾斜
如何解決,設置set mapred.map.tasks=6,此時根據(jù)MapRed的運行機制,會劃分6個Mapper,每個Mapper的處理數(shù)據(jù)的大小是250M, min(1500M/6, 256M) =250M
Hive背后的Reducer調(diào)優(yōu):
1,Reducer數(shù)目過大的話,會產(chǎn)生很多小文件,每個Reducer都會產(chǎn)生一個文件,如果這些小文件是下一個JOB的輸入,則會需要對小文件進行合并;同樣啟動 初始化和銷毀Reducer的虛擬機也需要消耗大量的硬件;
Reducer數(shù)據(jù)過小的話,Reduce的時間會比較長,也可能會出現(xiàn)數(shù)據(jù)傾斜;
2,如何控制Reducer的個數(shù)呢?
set hive.exec.reducers.byte.per.reducer=1G
set hive.exec.reducers.max=999
Reducer個數(shù)=min(999, Reducer的數(shù)據(jù)輸入總量/1G);
set mapred.reduce.tasks = 10, 默認是1; 如果說當前的Reducer的結果很大,且被接下來多個Job使用其結果,我們該如何設置參數(shù)呢?一般都需要調(diào)大該參數(shù);
什么情況下只有一個Reducer?如果不進行Group by但卻需要匯總,或者說Order by,當然如果最后Reducer的數(shù)據(jù)小于默認的1G的話,也會只有一個Reducer;
1,Hive在分布式運行的時候最害怕的是數(shù)據(jù)傾斜,這是由于分布式系統(tǒng)的特性決定的,因為分布式系統(tǒng)之所以很快是由于作業(yè)平均分配給了不同的節(jié)點,不同節(jié)點同心協(xié)力,從而達到更快處理完作業(yè)的目的;
順便說明一下,處理數(shù)據(jù)傾斜的能力是hadoop和Spark工程師最核心的競爭力之一;
2,Hive中數(shù)據(jù)傾斜的原因:
數(shù)據(jù)在分布式節(jié)點上分布不平衡;
join時某些key可能特別大;
groupBy的時候某個Key可能特別多;
count(distinct)有可能出現(xiàn)數(shù)據(jù)傾斜,因為其內(nèi)部首先會進行groupBy操作;
3,join,我們希望join時候key是分散,如果一個key的數(shù)據(jù)量特別大,有可能會出現(xiàn)數(shù)據(jù)傾斜和OOM,一個核心點是:小表join大表,在reduce階段左側(cè)的小表會加載進內(nèi)存,減少OOM的風險;
4,大表join大表的情況:數(shù)據(jù)傾斜,例如null值,解決辦法一般是要打散null值,例如說使用隨機數(shù)等,如果數(shù)據(jù)傾斜比較嚴重,采用這種方式可以提升至少一倍的速度;
5,mapJoin:小表join(超)大表的時候,可以采用mapJoin的方式把小表全部加載到Mapper端的內(nèi)存中/*+MAPJOIN(table_name)*/;
6,小表join(超)大表的時候,是否會自動進行mapJoin,想進行mapJoin,需要設置:set hive.auto.convert.join=true,Hive在進行join的時候會判斷左表的大小來決定是否進行mapJoin:
set hive.mapjoin.smalltable.filesize=128000000;
set hive.mapjoin.cache.numrows=100000;
上述參數(shù)可以根據(jù)實際的硬件機器的內(nèi)存進行調(diào)整,對性能有至關重要的影響,因為沒有了Shuffle;
對于mapJoin我們能夠使用Mapper端JVM中多大的內(nèi)存呢?
set hive.mapjoin.followby.gby.localtask.max.momery.usage = 0.8
set hive.mapjoin.localtask.max.memory.uage=0.9
7,groupBy,我們可以設置在Mapper端進行部分聚合,最后在Reducer端進行全局聚合
set hive.map.aggr=true;
set hive.groupby.mapaggr.checkinterval=100000
set hive.groupby.skewindata = true 內(nèi)部會產(chǎn)生兩個Job,第一個Job會通過自己的算法打散傾斜的Key并進行聚合操作且保留結果,第二個Job會完成全部的groupBy操作,會產(chǎn)生Mapper-Reducer-Reducer的結構
8, count(distinct),如果某個字段特別多,容易產(chǎn)生數(shù)據(jù)傾斜,解決思路:
在查詢語句中例如對null進行過濾,在結果中加1
9, 笛卡爾積:join時候沒有on條件,或者on條件無效,這個時候會使用Reducer進行笛卡爾積的操作;
2017年7月21日
#
1. 兩者分別是什么?
Apache Hive是一個構建在Hadoop基礎設施之上的數(shù)據(jù)倉庫。通過Hive可以使用HQL語言查詢存放在HDFS上的數(shù)據(jù)。HQL是一種類SQL語言,這種語言最終被轉(zhuǎn)化為Map/Reduce. 雖然Hive提供了SQL查詢功能,但是Hive不能夠進行交互查詢--因為它只能夠在Haoop上批量的執(zhí)行Hadoop。
Apache HBase是一種Key/Value系統(tǒng),它運行在HDFS之上。和Hive不一樣,Hbase的能夠在它的數(shù)據(jù)庫上實時運行,而不是運行MapReduce任務。Hive被分區(qū)為表格,表格又被進一步分割為列簇。列簇必須使用schema定義,列簇將某一類型列集合起來(列不要求schema定義)。例如,“message”列簇可能包含:“to”, ”from” “date”, “subject”, 和”body”. 每一個 key/value對在Hbase中被定義為一個cell,每一個key由row-key,列簇、列和時間戳。在Hbase中,行是key/value映射的集合,這個映射通過row-key來唯一標識。Hbase利用Hadoop的基礎設施,可以利用通用的設備進行水平的擴展。
2. 兩者的特點
Hive幫助熟悉SQL的人運行MapReduce任務。因為它是JDBC兼容的,同時,它也能夠和現(xiàn)存的SQL工具整合在一起。運行Hive查詢會花費很長時間,因為它會默認遍歷表中所有的數(shù)據(jù)。雖然有這樣的缺點,一次遍歷的數(shù)據(jù)量可以通過Hive的分區(qū)機制來控制。分區(qū)允許在數(shù)據(jù)集上運行過濾查詢,這些數(shù)據(jù)集存儲在不同的文件夾內(nèi),查詢的時候只遍歷指定文件夾(分區(qū))中的數(shù)據(jù)。這種機制可以用來,例如,只處理在某一個時間范圍內(nèi)的文件,只要這些文件名中包括了時間格式。
HBase通過存儲key/value來工作。它支持四種主要的操作:增加或者更新行,查看一個范圍內(nèi)的cell,獲取指定的行,刪除指定的行、列或者是列的版本。版本信息用來獲取歷史數(shù)據(jù)(每一行的歷史數(shù)據(jù)可以被刪除,然后通過Hbase compactions就可以釋放出空間)。雖然HBase包括表格,但是schema僅僅被表格和列簇所要求,列不需要schema。Hbase的表格包括增加/計數(shù)功能。
3. 限制
Hive目前不支持更新操作。另外,由于hive在hadoop上運行批量操作,它需要花費很長的時間,通常是幾分鐘到幾個小時才可以獲取到查詢的結果。Hive必須提供預先定義好的schema將文件和目錄映射到列,并且Hive與ACID不兼容。
HBase查詢是通過特定的語言來編寫的,這種語言需要重新學習。類SQL的功能可以通過Apache Phonenix實現(xiàn),但這是以必須提供schema為代價的。另外,Hbase也并不是兼容所有的ACID特性,雖然它支持某些特性。最后但不是最重要的--為了運行Hbase,Zookeeper是必須的,zookeeper是一個用來進行分布式協(xié)調(diào)的服務,這些服務包括配置服務,維護元信息和命名空間服務。
4. 應用場景
Hive適合用來對一段時間內(nèi)的數(shù)據(jù)進行分析查詢,例如,用來計算趨勢或者網(wǎng)站的日志。Hive不應該用來進行實時的查詢。因為它需要很長時間才可以返回結果。
Hbase非常適合用來進行大數(shù)據(jù)的實時查詢。Facebook用Hbase進行消息和實時的分析。它也可以用來統(tǒng)計Facebook的連接數(shù)。
5. 總結
Hive和Hbase是兩種基于Hadoop的不同技術--Hive是一種類SQL的引擎,并且運行MapReduce任務,Hbase是一種在Hadoop之上的NoSQL 的Key/vale數(shù)據(jù)庫。當然,這兩種工具是可以同時使用的。就像用Google來搜索,用FaceBook進行社交一樣,Hive可以用來進行統(tǒng)計查詢,HBase可以用來進行實時查詢,數(shù)據(jù)也可以從Hive寫到Hbase,設置再從Hbase寫回Hive。
2017年7月20日
#
摘要: 目錄 1,環(huán)境準備 2,安裝Hive和配置環(huán)境變量 3,安裝MySQL 4,在mysql上創(chuàng)建hive元數(shù)據(jù)庫,并對hive進行授權 5,安裝jar包到hive 6,配置hive-site.xml 7,元數(shù)據(jù)存儲初始化 8,啟動驗證hive 9,報錯及解決方法
1,環(huán)境準備:
準備好Hadoop集群,參照...
閱讀全文
2017年7月19日
#
TCP和UDP是OSI模型中的運輸層中的協(xié)議。TCP提供可靠的通信傳輸,而UDP則常被用于讓廣播和細節(jié)控制交給應用的通信傳輸。
UDP(User Datagram Protocol)
UDP不提供復雜的控制機制,利用IP提供面向無連接的通信服務。并且它是將應用程序發(fā)來的數(shù)據(jù)在收到的那一刻,立刻按照原樣發(fā)送到網(wǎng)絡上的一種機制。
即使是出現(xiàn)網(wǎng)絡擁堵的情況下,UDP也無法進行流量控制等避免網(wǎng)絡擁塞的行為。此外,傳輸途中如果出現(xiàn)了丟包,UDO也不負責重發(fā)。甚至當出現(xiàn)包的到達順序亂掉時也沒有糾正的功能。如果需要這些細節(jié)控制,那么不得不交給由采用UDO的應用程序去處理。換句話說,UDP將部分控制轉(zhuǎn)移到應用程序去處理,自己卻只提供作為傳輸層協(xié)議的最基本功能。UDP有點類似于用戶說什么聽什么的機制,但是需要用戶充分考慮好上層協(xié)議類型并制作相應的應用程序。
TCP(Transmission Control Protocol)
TCP充分實現(xiàn)愛呢了數(shù)據(jù)傳輸時各種控制功能,可以進行丟包的重發(fā)控制,還可以對次序亂掉的分包進行順序控制。而這些在UDP中都沒有。此外,TCP作為一種面向有連接的協(xié)議,只有在確認通信對端存在時才會發(fā)送數(shù)據(jù),從而可以控制通信流量的浪費。
TCP通過檢驗和、序列號、確認應答、重發(fā)控制、連接管理以及窗口控制等機制實現(xiàn)可靠性傳輸。此處不一一敘述。
TCP與UDP如何加以區(qū)分使用?
TCP用于在傳輸層有必要實現(xiàn)可靠性傳輸?shù)那闆r。由于它是面向有連接并具備順序控制、重發(fā)控制等機制的。所以它可以為應用提供可靠傳輸。
另一方面,UDP主要用于那些對高速傳輸和實時性有較高要求的通信或廣播通信。舉一個IP電話進行通話的例子。如果使用TCP,數(shù)據(jù)在傳送途中如果丟失會被重發(fā),但是這樣無法流暢地傳輸通話人的聲音,會導致無法進行正常交流。而采用UDP,它不會進行重發(fā)處理。從而也就不會有聲音大幅度延遲到達的問題。即使有部分數(shù)據(jù)丟失,也只是影響某一小部分的通話。此外,在多播與廣播通信中也使用UDP而不是UDP。RIP、DHCP等基于廣播的協(xié)議也要依賴于UDP。
TCP與UDP區(qū)別總結:
1、TCP面向連接(如打電話要先撥號建立連接);UDP是無連接的,即發(fā)送數(shù)據(jù)之前不需要建立連接
2、TCP提供可靠的服務。也就是說,通過TCP連接傳送的數(shù)據(jù),無差錯,不丟失,不重復,且按序到達;UDP盡最大努力交付,即不保證可靠交付
3、TCP面向字節(jié)流,實際上是TCP把數(shù)據(jù)看成一連串無結構的字節(jié)流;UDP是面向報文的
UDP沒有擁塞控制,因此網(wǎng)絡出現(xiàn)擁塞不會使源主機的發(fā)送速率降低(對實時應用很有用,如IP電話,實時視頻會議等)
4、每一條TCP連接只能是點到點的;UDP支持一對一,一對多,多對一和多對多的交互通信
5、TCP首部開銷20字節(jié);UDP的首部開銷小,只有8個字節(jié)
6、TCP的邏輯通信信道是全雙工的可靠信道,UDP則是不可靠信道
UDP如何實現(xiàn)可靠傳輸
由于在傳輸層UDP已經(jīng)是不可靠的連接,那就要在應用層自己實現(xiàn)一些保障可靠傳輸?shù)臋C制
簡單來講,要使用UDP來構建可靠的面向連接的數(shù)據(jù)傳輸,就要實現(xiàn)類似于TCP協(xié)議的
超時重傳(定時器)
有序接受 (添加包序號)
應答確認 (Seq/Ack應答機制)
滑動窗口流量控制等機制 (滑動窗口協(xié)議)
等于說要在傳輸層的上一層(或者直接在應用層)實現(xiàn)TCP協(xié)議的可靠數(shù)據(jù)傳輸機制,比如使用UDP數(shù)據(jù)包+序列號,UDP數(shù)據(jù)包+時間戳等方法。
目前已經(jīng)有一些實現(xiàn)UDP可靠傳輸?shù)臋C制,比如
UDT(UDP-based Data Transfer Protocol)
基于UDP的數(shù)據(jù)傳輸協(xié)議(UDP-based Data Transfer Protocol,簡稱UDT)是一種互聯(lián)網(wǎng)數(shù)據(jù)傳輸協(xié)議。UDT的主要目的是支持高速廣域網(wǎng)上的海量數(shù)據(jù)傳輸,而互聯(lián)網(wǎng)上的標準數(shù)據(jù)傳輸協(xié)議TCP在高帶寬長距離網(wǎng)絡上性能很差。 顧名思義,UDT建于UDP之上,并引入新的擁塞控制和數(shù)據(jù)可靠性控制機制。UDT是面向連接的雙向的應用層協(xié)議。它同時支持可靠的數(shù)據(jù)流傳輸和部分可靠的數(shù)據(jù)報傳輸。 由于UDT完全在UDP上實現(xiàn),它也可以應用在除了高速數(shù)據(jù)傳輸之外的其它應用領域,例如點到點技術(P2P),防火墻穿透,多媒體數(shù)據(jù)傳輸?shù)鹊取?/span>
一、
1、什么是Hbase。
是一個高可靠性、高性能、列存儲、可伸縮、實時讀寫的分布式數(shù)據(jù)庫系統(tǒng)。
適合于存儲非結構化數(shù)據(jù),基于列的而不是基于行的模式
如圖:Hadoop生態(tài)中hbase與其他部分的關系。

2、關系數(shù)據(jù)庫已經(jīng)流行很多年,并且hadoop已經(jīng)有了HDFS和MapReduce,為什么需要HBase?
Hadoop可以很好地解決大規(guī)模數(shù)據(jù)的離線批量處理問題,但是,受限于HadoopMapReduce編程框架的高延遲數(shù)據(jù)處理機制,使得Hadoop無法滿足大規(guī)模數(shù)據(jù)實時處理應用的需求
HDFS面向批量訪問模式,不是隨機訪問模式
傳統(tǒng)的通用關系型數(shù)據(jù)庫無法應對在數(shù)據(jù)規(guī)模劇增時導致的系統(tǒng)擴展性和性能問題(分庫分表也不能很好解決)
傳統(tǒng)關系數(shù)據(jù)庫在數(shù)據(jù)結構變化時一般需要停機維護;空列浪費存儲空間
因此,業(yè)界出現(xiàn)了一類面向半結構化數(shù)據(jù)存儲和處理的高可擴展、低寫入/查詢延遲的系統(tǒng),例如,鍵值數(shù)據(jù)庫、文檔數(shù)據(jù)庫和列族數(shù)據(jù)庫(如BigTable和HBase等)
HBase已經(jīng)成功應用于互聯(lián)網(wǎng)服務領域和傳統(tǒng)行業(yè)的眾多在線式數(shù)據(jù)分析處理系統(tǒng)中
3、HBase與傳統(tǒng)的關系數(shù)據(jù)庫的區(qū)別
(1)數(shù)據(jù)類型:關系數(shù)據(jù)庫采用關系模型,具有豐富的數(shù)據(jù)類型和存儲方式,HBase則采用了更加簡單的數(shù)據(jù)模型,它把數(shù)據(jù)存儲為未經(jīng)解釋的字符串
(2)數(shù)據(jù)操作:關系數(shù)據(jù)庫中包含了豐富的操作,其中會涉及復雜的多表連接。HBase操作則不存在復雜的表與表之間的關系,只有簡單的插入、查詢、刪除、清空等,因為HBase在設計上就避免了復雜的表和表之間的關系
(3)存儲模式:關系數(shù)據(jù)庫是基于行模式存儲的。HBase是基于列存儲的,每個列族都由幾個文件保存,不同列族的文件是分離的
(4)數(shù)據(jù)索引:關系數(shù)據(jù)庫通常可以針對不同列構建復雜的多個索引,以提高數(shù)據(jù)訪問性能。HBase只有一個索引——行鍵,通過巧妙的設計,HBase中的所有訪問方法,或者通過行鍵訪問,或者通過行鍵掃描,從而使得整個系統(tǒng)不會慢下來
(5)數(shù)據(jù)維護:在關系數(shù)據(jù)庫中,更新操作會用最新的當前值去替換記錄中原來的舊值,舊值被覆蓋后就不會存在。而在HBase中執(zhí)行更新操作時,并不會刪除數(shù)據(jù)舊的版本,而是生成一個新的版本,舊有的版本仍然保留
(6)可伸縮性:關系數(shù)據(jù)庫很難實現(xiàn)橫向擴展,縱向擴展的空間也比較有限。相反,HBase和BigTable這些分布式數(shù)據(jù)庫就是為了實現(xiàn)靈活的水平擴展而開發(fā)的,能夠輕易地通過在集群中增加或者減少硬件數(shù)量來實現(xiàn)性能的伸縮
二、Hbase數(shù)據(jù)模型
1、模型概述
HBase是一個稀疏、多維度、排序的映射表,這張表的索引是行鍵、列族、列限定符和時間戳
每個值是一個未經(jīng)解釋的字符串,沒有數(shù)據(jù)類型
用戶在表中存儲數(shù)據(jù),每一行都有一個可排序的行鍵和任意多的列
表在水平方向由一個或者多個列族組成,一個列族中可以包含任意多個列,同一個列族里面的數(shù)據(jù)存儲在一起
列族支持動態(tài)擴展,可以很輕松地添加一個列族或列,無需預先定義列的數(shù)量以及類型,所有列均以字符串形式存儲,用戶需要自行進行數(shù)據(jù)類型轉(zhuǎn)換
HBase中執(zhí)行更新操作時,并不會刪除數(shù)據(jù)舊的版本,而是生成一個新的版本,舊有的版本仍然保留(這是和HDFS只允許追加不允許修改的特性相關的)

2、數(shù)據(jù)坐標
HBase中需要根據(jù)行鍵、列族、列限定符和時間戳來確定一個單元格,因此,可以視為一個“四維坐標”,即[行鍵,列族, 列限定符,時間戳]
鍵 |
值 |
[“201505003”,“Info”,“email”, 1174184619081] |
“xie@qq.com” |
[“201505003”,“Info”,“email”, 1174184620720] |
“you@163.com”
|
3、概念視圖

4、物理視圖

三、HBase實現(xiàn)原理
1、HBase的實現(xiàn)包括三個主要的功能組件:
(1)庫函數(shù):鏈接到每個客戶端
(2)一個Master主服務器
(3)許多個Region服務器
主服務器Master負責管理和維護HBase表的分區(qū)信息,維護Region服務器列表,分配Region,負載均衡
Region服務器負責存儲和維護分配給自己的Region,處理來自客戶端的讀寫請求
客戶端并不是直接從Master主服務器上讀取數(shù)據(jù),而是在獲得Region的存儲位置信息后,直接從Region服務器上讀取數(shù)據(jù)
客戶端并不依賴Master,而是通過Zookeeper來獲得Region位置信息,大多數(shù)客戶端甚至從來不和Master通信,這種設計方式使得Master負載很小
2、Region
開始只有一個Region,后來不斷分裂
Region拆分操作非常快,接近瞬間,因為拆分之后的Region讀取的仍然是原存儲文件,直到“合并”過程把存儲文件異步地寫到獨立的文件之后,才會讀取新文件
同一個Region不會被分拆到多個Region服務器
每個Region服務器存儲10-1000個Region
元數(shù)據(jù)表,又名.META.表,存儲了Region和Region服務器的映射關系
當HBase表很大時, .META.表也會被分裂成多個Region
根數(shù)據(jù)表,又名-ROOT-表,記錄所有元數(shù)據(jù)的具體位置
-ROOT-表只有唯一一個Region,名字是在程序中被寫死的
Zookeeper文件記錄了-ROOT-表的位置
客戶端訪問數(shù)據(jù)時的“三級尋址”
為了加速尋址,客戶端會緩存位置信息,同時,需要解決緩存失效問題
尋址過程客戶端只需要詢問Zookeeper服務器,不需要連接Master服務器
3、HBase的三層結構中各層次的名稱和作用
層次 |
名稱 |
作用 |
第一層 |
Zookeper文件 |
記錄了-ROOT-表的位置信息 |
第二層 |
-ROOT-表 |
記錄了.META.表的Region位置信息
-ROOT-表只能有一個Region。通過-ROOT-表,就可以訪問.META.表中的數(shù)據(jù) |
第三層 |
.META.表 |
記錄了用戶數(shù)據(jù)表的Region位置信息,.META.表可以有多個Region,保存了HBase中所有用戶數(shù)據(jù)表的Region位置信息 |
四、HBase運行機制
1、HBase系統(tǒng)架構

(1、客戶端包含訪問HBase的接口,同時在緩存中維護著已經(jīng)訪問過的Region位置信息,用來加快后續(xù)數(shù)據(jù)訪問過程
(2、Zookeeper可以幫助選舉出一個Master作為集群的總管,并保證在任何時刻總有唯一一個Master在運行,這就避免了Master的“單點失效”問題
(Zookeeper是一個很好的集群管理工具,被大量用于分布式計算,提供配置維護、域名服務、分布式同步、組服務等。)

(3. Master
主服務器Master主要負責表和Region的管理工作:
管理用戶對表的增加、刪除、修改、查詢等操作
實現(xiàn)不同Region服務器之間的負載均衡
在Region分裂或合并后,負責重新調(diào)整Region的分布
對發(fā)生故障失效的Region服務器上的Region進行遷移
(4. Region服務器
Region服務器是HBase中最核心的模塊,負責維護分配給自己的Region,并響應用戶的讀寫請求
2、Region

(1、用戶讀寫數(shù)據(jù)過程
用戶寫入數(shù)據(jù)時,被分配到相應Region服務器去執(zhí)行
用戶數(shù)據(jù)首先被寫入到MemStore和Hlog中
只有當操作寫入Hlog之后,commit()調(diào)用才會將其返回給客戶端
當用戶讀取數(shù)據(jù)時,Region服務器會首先訪問MemStore緩存,如果找不到,再去磁盤上面的StoreFile中尋找
(2、緩存的刷新
系統(tǒng)會周期性地把MemStore緩存里的內(nèi)容刷寫到磁盤的StoreFile文件中,清空緩存,并在Hlog里面寫入一個標記、
每次刷寫都生成一個新的StoreFile文件,因此,每個Store包含多個StoreFile文件
每個Region服務器都有一個自己的HLog文件,每次啟動都檢查該文件,確認最近一次執(zhí)行緩存刷新操作之后是否發(fā)生新的寫入操作;如果發(fā)現(xiàn)更新,則先寫入MemStore,再刷寫到StoreFile,最后刪除舊的Hlog文件,開始為用戶提供服務
(3、StroreFile的合并
每次刷寫都生成一個新的StoreFile,數(shù)量太多,影響查找速度
調(diào)用Store.compact()把多個合并成一個
合并操作比較耗費資源,只有數(shù)量達到一個閾值才啟動合并
3、Store工作原理
Store是Region服務器的核心
多個StoreFile合并成一個
觸發(fā)分裂操作,1個父Region被分裂成兩個子Region
單個StoreFile過大時,又4、HLog工作原理
分布式環(huán)境必須要考慮系統(tǒng)出錯。HBase采用HLog保證系統(tǒng)恢復
HBase系統(tǒng)為每個Region服務器配置了一個HLog文件,它是一種預寫式日志(WriteAhead Log)
用戶更新數(shù)據(jù)必須首先寫入日志后,才能寫入MemStore緩存,并且,直到MemStore緩存內(nèi)容對應的日志已經(jīng)寫入磁盤,該緩存內(nèi)容才能被刷寫到磁盤
Zookeeper會實時監(jiān)測每個Region服務器的狀態(tài),當某個Region服務器發(fā)生故障時,Zookeeper會通知Master
Master首先會處理該故障Region服務器上面遺留的HLog文件,這個遺留的HLog文件中包含了來自多個Region對象的日志記錄
系統(tǒng)會根據(jù)每條日志記錄所屬的Region對象對HLog數(shù)據(jù)進行拆分,分別放到相應Region對象的目錄下,然后,再將失效的Region重新分配到可用的Region服務器中,并把與該Region對象相關的HLog日志記錄也發(fā)送給相應的Region服務器
Region服務器領取到分配給自己的Region對象以及與之相關的HLog日志記錄以后,會重新做一遍日志記錄中的各種操作,把日志記錄中的數(shù)據(jù)寫入到MemStore緩存中,然后,刷新到磁盤的StoreFile文件中,完成數(shù)據(jù)恢復
共用日志優(yōu)點:提高對表的寫操作性能;缺點:恢復時需要分拆日志
五、HBase性能
1、
行鍵(RowKey)
行鍵是按照字典序存儲,因此,設計行鍵時,要充分利用這個排序特點,將經(jīng)常一起讀取的數(shù)據(jù)存儲到一塊,將最近可能會被訪問的數(shù)據(jù)放在一塊。
舉個例子:如果最近寫入HBase表中的數(shù)據(jù)是最可能被訪問的,可以考慮將時間戳作為行鍵的一部分,由于是字典序排序,所以可以使用Long.MAX_VALUE- timestamp作為行鍵,這樣能保證新寫入的數(shù)據(jù)在讀取時可以被快速命中。
InMemory:創(chuàng)建表的時候,可以通過HColumnDescriptor.setInMemory(true)將表放到Region服務器的緩存中,保證在讀取的時候被cache命中。
Max Version:創(chuàng)建表的時候,可以通過HColumnDescriptor.setMaxVersions(int maxVersions)設置表中數(shù)據(jù)的最大版本,如果只需要保存最新版本的數(shù)據(jù),那么可以設置setMaxVersions(1)。
Time To Live創(chuàng)建表的時候,可以通過HColumnDescriptor.setTimeToLive(inttimeToLive)設置表中數(shù)據(jù)的存儲生命期,過期數(shù)據(jù)將自動被刪除,例如如果只需要存儲最近兩天的數(shù)據(jù),那么可以設置setTimeToLive(2* 24 * 60 * 60)。
2、HBaseMaster默認基于Web的UI服務端口為60010,HBase region服務器默認基于Web的UI服務端口為60030.如果master運行在名為master.foo.com的主機中,mater的主頁地址就是http://master.foo.com:60010,用戶可以通過Web瀏覽器輸入這個地址查看該頁面
可以查看HBase集群的當前狀態(tài)
3、
NoSQL區(qū)別于關系型數(shù)據(jù)庫的一點就是NoSQL不使用SQL作為查詢語言,至于為何在NoSQL數(shù)據(jù)存儲HBase上提供SQL接口
易使用,減少編碼
4、HBase只有一個針對行健的索引
訪問HBase表中的行,只有三種方式:
通過單個行健訪問
通過一個行健的區(qū)間來訪問
全表掃描
總結:
1、HBase數(shù)據(jù)庫是BigTable的開源實現(xiàn),和BigTable一樣,支持大規(guī)模海量數(shù)據(jù),分布式并發(fā)數(shù)據(jù)處理效率極高,易于擴展且支持動態(tài)伸縮,適用于廉價設備
2、HBase可以支持NativeJava API、HBaseShell、ThriftGateway、Hive等多種訪問接口,可以根據(jù)具體應用場合選擇相應訪問方式
3、HBase實際上就是一個稀疏、多維、持久化存儲的映射表,它采用行鍵、列鍵和時間戳進行索引,每個值都是未經(jīng)解釋的字符串。
4、HBase采用分區(qū)存儲,一個大的表會被分拆許多個Region,這些Region會被分發(fā)到不同的服務器上實現(xiàn)分布式存儲
5、HBase的系統(tǒng)架構包括客戶端、Zookeeper服務器、Master主服務器、Region服務器。客戶端包含訪問HBase的接口;Zookeeper服務器負責提供穩(wěn)定可靠的協(xié)同服務;Master主服務器主要負責表和Region的管理工作;Region服務器負責維護分配給自己的Region,并響應用戶的讀寫請求