走在架構師的大道上 Jack.Wang's home

          Java, C++, linux c, C#.net 技術,軟件架構,領域建模,IT 項目管理 Dict.CN 在線詞典, 英語學習, 在線翻譯

          BlogJava 首頁 新隨筆 聯系 聚合 管理
            195 Posts :: 3 Stories :: 728 Comments :: 0 Trackbacks

          1. 海量數據處理分析 (作者 北京邁思奇科技有限公司 戴子良) 原文地址:

          http://blog.csdn.net/DaiZiLiang/archive/2006/12/06/1432193.aspx

          筆者在實際工作中,有幸接觸到海量的數據處理問題,對其進行處理是一項艱巨而復雜的任務。原因有以

          下幾個方面:
          一、數據量過大,數據中什么情況都可能存在。如果說有10條數據,那么大不了每條去逐一檢查,人為處

          理,如果有上百條數據,也可以考慮,如果數據上到千萬級別,甚至過億,那不是手工能解決的了,必須

          通過工具或者程序進行處理,尤其海量的數據中,什么情況都可能存在,例如,數據中某處格式出了問題

          ,尤其在程序處理時,前面還能正常處理,突然到了某個地方問題出現了,程序終止了。
          二、軟硬件要求高,系統資源占用率高。對海量的數據進行處理,除了好的方法,最重要的就是合理使用

          工具,合理分配系統資源。一般情況,如果處理的數據過TB級,小型機是要考慮的,普通的機子如果有好

          的方法可以考慮,不過也必須加大CPU和內存,就象面對著千軍萬馬,光有勇氣沒有一兵一卒是很難取勝

          的。
          三、要求很高的處理方法和技巧。這也是本文的寫作目的所在,好的處理方法是一位工程師長期工作經驗

          的積累,也是個人的經驗的總結。沒有通用的處理方法,但有通用的原理和規則。
          那么處理海量數據有哪些經驗和技巧呢,我把我所知道的羅列一下,以供大家參考:
          一、選用優秀的數據庫工具
          現在的數據庫工具廠家比較多,對海量數據的處理對所使用的數據庫工具要求比較高,一般使用Oracle或

          者DB2,微軟公司最近發布的SQL Server 2005性能也不錯。另外在BI領域:數據庫,數據倉庫,多維數據

          庫,數據挖掘等相關工具也要進行選擇,象好的ETL工具和好的OLAP工具都十分必要,例如Informatic,

          Eassbase等。筆者在實際數據分析項目中,對每天6000萬條的日志數據進行處理,使用SQL Server 2000

          需要花費6小時,而使用SQL Server 2005則只需要花費3小時。
          二、編寫優良的程序代碼
          處理數據離不開優秀的程序代碼,尤其在進行復雜數據處理時,必須使用程序。好的程序代碼對數據的處

          理至關重要,這不僅僅是數據處理準確度的問題,更是數據處理效率的問題。良好的程序代碼應該包含好

          的算法,包含好的處理流程,包含好的效率,包含好的異常處理機制等。
          三、對海量數據進行分區操作
          對海量數據進行分區操作十分必要,例如針對按年份存取的數據,我們可以按年進行分區,不同的數據庫

          有不同的分區方式,不過處理機制大體相同。例如SQL Server的數據庫分區是將不同的數據存于不同的文

          件組下,而不同的文件組存于不同的磁盤分區下,這樣將數據分散開,減小磁盤I/O,減小了系統負荷,

          而且還可以將日志,索引等放于不同的分區下。
          四、建立廣泛的索引
          對海量的數據處理,對大表建立索引是必行的,建立索引要考慮到具體情況,例如針對大表的分組、排序

          等字段,都要建立相應索引,一般還可以建立復合索引,對經常插入的表則建立索引時要小心,筆者在處

          理數據時,曾經在一個ETL流程中,當插入表時,首先刪除索引,然后插入完畢,建立索引,并實施聚合

          操作,聚合完成后,再次插入前還是刪除索引,所以索引要用到好的時機,索引的填充因子和聚集、非聚

          集索引都要考慮。
          五、建立緩存機制
          當數據量增加時,一般的處理工具都要考慮到緩存問題。緩存大小設置的好差也關系到數據處理的成敗,

          例如,筆者在處理2億條數據聚合操作時,緩存設置為100000條/Buffer,這對于這個級別的數據量是可行

          的。
          六、加大虛擬內存
          如果系統資源有限,內存提示不足,則可以靠增加虛擬內存來解決。筆者在實際項目中曾經遇到針對18億

          條的數據進行處理,內存為1GB,1個P4 2.4G的CPU,對這么大的數據量進行聚合操作是有問題的,提示內

          存不足,那么采用了加大虛擬內存的方法來解決,在6塊磁盤分區上分別建立了6個4096M的磁盤分區,用

          于虛擬內存,這樣虛擬的內存則增加為 4096*6 + 1024 = 25600 M,解決了數據處理中的內存不足問題。
          七、分批處理
          海量數據處理難因為數據量大,那么解決海量數據處理難的問題其中一個技巧是減少數據量。可以對海量

          數據分批處理,然后處理后的數據再進行合并操作,這樣逐個擊破,有利于小數據量的處理,不至于面對

          大數據量帶來的問題,不過這種方法也要因時因勢進行,如果不允許拆分數據,還需要另想辦法。不過一

          般的數據按天、按月、按年等存儲的,都可以采用先分后合的方法,對數據進行分開處理。
          八、使用臨時表和中間表
          數據量增加時,處理中要考慮提前匯總。這樣做的目的是化整為零,大表變小表,分塊處理完成后,再利

          用一定的規則進行合并,處理過程中的臨時表的使用和中間結果的保存都非常重要,如果對于超海量的數

          據,大表處理不了,只能拆分為多個小表。如果處理過程中需要多步匯總操作,可按匯總步驟一步步來,

          不要一條語句完成,一口氣吃掉一個胖子。
          九、優化查詢SQL語句
          在對海量數據進行查詢處理過程中,查詢的SQL語句的性能對查詢效率的影響是非常大的,編寫高效優良

          的SQL腳本和存儲過程是數據庫工作人員的職責,也是檢驗數據庫工作人員水平的一個標準,在對SQL語句

          的編寫過程中,例如減少關聯,少用或不用游標,設計好高效的數據庫表結構等都十分必要。筆者在工作

          中試著對1億行的數據使用游標,運行3個小時沒有出結果,這是一定要改用程序處理了。
          十、使用文本格式進行處理
          對一般的數據處理可以使用數據庫,如果對復雜的數據處理,必須借助程序,那么在程序操作數據庫和程

          序操作文本之間選擇,是一定要選擇程序操作文本的,原因為:程序操作文本速度快;對文本進行處理不

          容易出錯;文本的存儲不受限制等。例如一般的海量的網絡日志都是文本格式或者csv格式(文本格式)

          ,對它進行處理牽扯到數據清洗,是要利用程序進行處理的,而不建議導入數據庫再做清洗。
          十一、       定制強大的清洗規則和出錯處理機制
          海量數據中存在著不一致性,極有可能出現某處的瑕疵。例如,同樣的數據中的時間字段,有的可能為非

          標準的時間,出現的原因可能為應用程序的錯誤,系統的錯誤等,這是在進行數據處理時,必須制定強大

          的數據清洗規則和出錯處理機制。
          十二、       建立視圖或者物化視圖
          視圖中的數據來源于基表,對海量數據的處理,可以將數據按一定的規則分散到各個基表中,查詢或處理

          過程中可以基于視圖進行,這樣分散了磁盤I/O,正如10根繩子吊著一根柱子和一根吊著一根柱子的區別


          十三、       避免使用32位機子(極端情況)
          目前的計算機很多都是32位的,那么編寫的程序對內存的需要便受限制,而很多的海量數據處理是必須大

          量消耗內存的,這便要求更好性能的機子,其中對位數的限制也十分重要。
          十四、       考慮操作系統問題
          海量數據處理過程中,除了對數據庫,處理程序等要求比較高以外,對操作系統的要求也放到了重要的位

          置,一般是必須使用服務器的,而且對系統的安全性和穩定性等要求也比較高。尤其對操作系統自身的緩

          存機制,臨時空間的處理等問題都需要綜合考慮。
          十五、       使用數據倉庫和多維數據庫存儲
          數據量加大是一定要考慮OLAP的,傳統的報表可能5、6個小時出來結果,而基于Cube的查詢可能只需要幾

          分鐘,因此處理海量數據的利器是OLAP多維分析,即建立數據倉庫,建立多維數據集,基于多維數據集進

          行報表展現和數據挖掘等。
          十六、       使用采樣數據,進行數據挖掘
          基于海量數據的數據挖掘正在逐步興起,面對著超海量的數據,一般的挖掘軟件或算法往往采用數據抽樣

          的方式進行處理,這樣的誤差不會很高,大大提高了處理效率和處理的成功率。一般采樣時要注意數據的

          完整性和,防止過大的偏差。筆者曾經對1億2千萬行的表數據進行采樣,抽取出400萬行,經測試軟件測

          試處理的誤差為千分之五,客戶可以接受。
          還有一些方法,需要在不同的情況和場合下運用,例如使用代理鍵等操作,這樣的好處是加快了聚合時間

          ,因為對數值型的聚合比對字符型的聚合快得多。類似的情況需要針對不同的需求進行處理。
          海量數據是發展趨勢,對數據分析和挖掘也越來越重要,從海量數據中提取有用信息重要而緊迫,這便要

          求處理要準確,精度要高,而且處理時間要短,得到有價值信息要快,所以,對海量數據的研究很有前途

          ,也很值得進行廣泛深入的研究。

          2. 海量數據的查詢優化及分頁算法方案

          很多人不知道SQL語句在SQL SERVER中是如何執行的,他們擔心自己所寫的SQL語句會被SQL SERVER誤解。中國自學編程網提供 www.zxbc.cn 比如:
          select * from table1 where name=’zhangsan’ and tID > 10000
           和執行:
          select * from table1 where tID > 10000 and name=’zhangsan’
            一些人不知道以上兩條語句的執行效率是否一樣,因為如果簡單的從語句先后上看,這兩個語句的確是不一樣,如果tID是一個聚合索引,那么后一句僅僅從表的10000條以后的記錄中查找就行了;而前一句則要先從全表中查找看有幾個name=’zhangsan’的,而后再根據限制條件條件tID>10000來提出查詢結果。
            事實上,這樣的擔心是不必要的。SQL SERVER中有一個“查詢分析優化器”,它可以計算出where子句中的搜索條件并確定哪個索引能縮小表掃描的搜索空間,也就是說,它能實現自動優化。
            雖然查詢優化器可以根據where子句自動的進行查詢優化,但大家仍然有必要了解一下“查詢優化器”的工作原理,如非這樣,有時查詢優化器就會不按照您的本意進行快速查詢。
            在查詢分析階段,查詢優化器查看查詢的每個階段并決定限制需要掃描的數據量是否有用。如果一個階段可以被用作一個掃描參數(SARG),那么就稱之為可優化的,并且可以利用索引快速獲得所需數據。
            SARG的定義:用于限制搜索的一個操作,因為它通常是指一個特定的匹配,一個值得范圍內的匹配或者兩個以上條件的AND連接。形式如下:
          列名 操作符 <常數 或 變量>

          <常數 或 變量> 操作符列名
            列名可以出現在操作符的一邊,而常數或變量出現在操作符的另一邊。如:
          Name=’張三’
          價格>5000
          5000<價格
          Name=’張三’ and 價格>5000
            如果一個表達式不能滿足SARG的形式,那它就無法限制搜索的范圍了,也就是SQL SERVER必須對每一行都判斷它是否滿足WHERE子句中的所有條件。所以一個索引對于不滿足SARG形式的表達式來說是無用的。
            介紹完SARG后,我們來總結一下使用SARG以及在實踐中遇到的和某些資料上結論不同的經驗:

            1、Like語句是否屬于SARG取決于所使用的通配符的類型

            如:name like ‘張%’ ,這就屬于SARG

            而:name like ‘%張’ ,就不屬于SARG。

            原因是通配符%在字符串的開通使得索引無法使用。

            2、or 會引起全表掃描

          Name=’張三’ and 價格>5000 符號SARG,而:Name=’張三’ or 價格>5000 則不符合SARG。使用or會引起全表掃描。

            3、非操作符、函數引起的不滿足SARG形式的語句

            不滿足SARG形式的語句最典型的情況就是包括非操作符的語句,如:NOT、!=、<>、!<、!>、NOT EXISTS、NOT IN、NOT LIKE等,另外還有函數。下面就是幾個不滿足SARG形式的例子:

          ABS(價格)<5000

          Name like ‘%三’

            有些表達式,如:

          WHERE 價格*2>5000

            SQL SERVER也會認為是SARG,SQL SERVER會將此式轉化為:

          WHERE 價格>2500/2 [Page]

            但我們不推薦這樣使用,因為有時SQL SERVER不能保證這種轉化與原始表達式是完全等價的。

            4、IN 的作用相當與OR

            語句:

          Select * from table1 where tid in (2,3)

            和

          Select * from table1 where tid=2 or tid=3

            是一樣的,都會引起全表掃描,如果tid上有索引,其索引也會失效。

            5、盡量少用NOT

            6、exists 和 in 的執行效率是一樣的

            很多資料上都顯示說,exists要比in的執行效率要高,同時應盡可能的用not exists來代替not in。但事實上,我試驗了一下,發現二者無論是前面帶不帶not,二者之間的執行效率都是一樣的。因為涉及子查詢,我們試驗這次用SQL SERVER自帶的pubs數據庫。運行前我們可以把SQL SERVER的statistics I/O狀態打開。

            (1)select title,price from titles where title_id in (select title_id from sales where qty>30)

            該句的執行結果為:

            表 ’sales’。掃描計數 18,邏輯讀 56 次,物理讀 0 次,預讀 0 次。

            表 ’titles’。掃描計數 1,邏輯讀 2 次,物理讀 0 次,預讀 0 次。

            (2)select title,price from titles where exists (select * from sales where sales.title_id=titles.title_id and qty>30)

            第二句的執行結果為:

            表 ’sales’。掃描計數 18,邏輯讀 56 次,物理讀 0 次,預讀 0 次。

            表 ’titles’。掃描計數 1,邏輯讀 2 次,物理讀 0 次,預讀 0 次。

            我們從此可以看到用exists和用in的執行效率是一樣的。

            7、用函數charindex()和前面加通配符%的LIKE執行效率一樣

            前面,我們談到,如果在LIKE前面加上通配符%,那么將會引起全表掃描,所以其執行效率是低下的。但有的資料介紹說,用函數charindex()來代替LIKE速度會有大的提升,經我試驗,發現這種說明也是錯誤的:

          select gid,title,fariqi,reader from tgongwen where charindex(’刑偵支隊’,reader)>0 and fariqi>’2004-5-5’

            用時:7秒,另外:掃描計數 4,邏輯讀 7155 次,物理讀 0 次,預讀 0 次

          select gid,title,fariqi,reader from tgongwen where reader like ’%’ + ’刑偵支隊’ + ’%’ and fariqi>’2004-5-5’

            用時:7秒,另外:掃描計數 4,邏輯讀 7155 次,物理讀 0 次,預讀 0 次。

            8、union并不絕對比or的執行效率高

            我們前面已經談到了在where子句中使用or會引起全表掃描,一般的,我所見過的資料都是推薦這里用union來代替or。事實證明,這種說法對于大部分都是適用的。 [Page]

          select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi=’2004-9-16’ or gid>9990000

            用時:68秒。掃描計數 1,邏輯讀 404008 次,物理讀 283 次,預讀 392163 次。

          select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi=’2004-9-16’ 

          union

          select gid,fariqi,neibuyonghu,reader,title from Tgongwen where gid>9990000

            用時:9秒。掃描計數 8,邏輯讀 67489 次,物理讀 216 次,預讀 7499 次。

            看來,用union在通常情況下比用or的效率要高的多。

            但經過試驗,筆者發現如果or兩邊的查詢列是一樣的話,那么用union則反倒和用or的執行速度差很多,雖然這里union掃描的是索引,而or掃描的是全表。

          select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi=’2004-9-16’ or fariqi=’2004-2-5’

            用時:6423毫秒。掃描計數 2,邏輯讀 14726 次,物理讀 1 次,預讀 7176 次。

          select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi=’2004-9-16’ 

          union

          select gid,fariqi,neibuyonghu,reader,title from Tgongwen where    fariqi=’2004-2-5’

            用時:11640毫秒。掃描計數 8,邏輯讀 14806 次,物理讀 108 次,預讀 1144 次。

            9、字段提取要按照“需多少、提多少”的原則,避免“select *”

            我們來做一個試驗:

          select top 10000 gid,fariqi,reader,title from tgongwen order by gid desc

            用時:4673毫秒

          select top 10000 gid,fariqi,title from tgongwen order by gid desc

            用時:1376毫秒

          select top 10000 gid,fariqi from tgongwen order by gid desc

            用時:80毫秒

            由此看來,我們每少提取一個字段,數據的提取速度就會有相應的提升。提升的速度還要看您舍棄的字段的大小來判斷。

            10、count(*)不比count(字段)慢

            某些資料上說:用*會統計所有列,顯然要比一個世界的列名效率低。這種說法其實是沒有根據的。我們來看:

          select count(*) from Tgongwen

            用時:1500毫秒

          select count(gid) from Tgongwen 

            用時:1483毫秒

          select count(fariqi) from Tgongwen

            用時:3140毫秒

          select count(title) from Tgongwen

            用時:52050毫秒

            從以上可以看出,如果用count(*)和用count(主鍵)的速度是相當的,而count(*)卻比其他任何除主鍵以外的字段匯總速度要快,而且字段越長,匯總的速度就越慢。我想,如果用count(*), SQL SERVER可能會自動查找最小字段來匯總的。當然,如果您直接寫count(主鍵)將會來的更直接些。 [Page]

            11、order by按聚集索引列排序效率最高

            我們來看:(gid是主鍵,fariqi是聚合索引列)

          select top 10000 gid,fariqi,reader,title from tgongwen

            用時:196 毫秒。 掃描計數 1,邏輯讀 289 次,物理讀 1 次,預讀 1527 次。

          select top 10000 gid,fariqi,reader,title from tgongwen order by gid asc

            用時:4720毫秒。 掃描計數 1,邏輯讀 41956 次,物理讀 0 次,預讀 1287 次。

          select top 10000 gid,fariqi,reader,title from tgongwen order by gid desc

            用時:4736毫秒。 掃描計數 1,邏輯讀 55350 次,物理讀 10 次,預讀 775 次。

          select top 10000 gid,fariqi,reader,title from tgongwen order by fariqi asc

            用時:173毫秒。 掃描計數 1,邏輯讀 290 次,物理讀 0 次,預讀 0 次。

          select top 10000 gid,fariqi,reader,title from tgongwen order by fariqi desc

            用時:156毫秒。 掃描計數 1,邏輯讀 289 次,物理讀 0 次,預讀 0 次。

            從以上我們可以看出,不排序的速度以及邏輯讀次數都是和“order by 聚集索引列” 的速度是相當的,但這些都比“order by 非聚集索引列”的查詢速度是快得多的。

            同時,按照某個字段進行排序的時候,無論是正序還是倒序,速度是基本相當的。

            12、高效的TOP

            事實上,在查詢和提取超大容量的數據集時,影響數據庫響應時間的最大因素不是數據查找,而是物理的I/0操作。如:

          select top 10 * from ( )
          AS

          DECLARE @Str nVARCHAR(4000)

          SET @Str=’SELECT     TOP ’+CAST(@RecsPerPage AS VARCHAR(20))+’ * FROM (’+@SQL+’) T WHERE T.’+@ID+’NOT IN 
          (SELECT     TOP ’+CAST((@RecsPerPage*(@Page-1)) AS VARCHAR(20))+’ ’+@ID+’ FROM (’+@SQL+’) T9 ORDER BY ’+@Sort+’) ORDER BY ’+@Sort

          PRINT @Str

          EXEC sp_ExecuteSql @Str
          GO

            其實,以上語句可以簡化為:

          SELECT TOP 頁大小 *

          FROM Table1

          WHERE (ID NOT IN

                      (SELECT TOP 頁大小*頁數 id

                     FROM 表

                     ORDER BY id))

          ORDER BY ID

            但這個存儲過程有一個致命的缺點,就是它含有NOT IN字樣。雖然我可以把它改造為:

          SELECT TOP 頁大小 *

          FROM Table1

          WHERE not exists

          (select * from (select top (頁大小*頁數) * from table1 order by id) b where b.id=a.id )

          order by id [Page]

            即,用not exists來代替not in,但我們前面已經談過了,二者的執行效率實際上是沒有區別的。

            既便如此,用TOP 結合NOT IN的這個方法還是比用游標要來得快一些。

            雖然用not exists并不能挽救上個存儲過程的效率,但使用SQL SERVER中的TOP關鍵字卻是一個非常明智的選擇。因為分頁優化的最終目的就是避免產生過大的記錄集,而我們在前面也已經提到了TOP的優勢,通過TOP 即可實現對數據量的控制。

            在分頁算法中,影響我們查詢速度的關鍵因素有兩點:TOP和NOT IN。TOP可以提高我們的查詢速度,而NOT IN會減慢我們的查詢速度,所以要提高我們整個分頁算法的速度,就要徹底改造NOT IN,同其他方法來替代它。

            我們知道,幾乎任何字段,我們都可以通過max(字段)或min(字段)來提取某個字段中的最大或最小值,所以如果這個字段不重復,那么就可以利用這些不重復的字段的max或min作為分水嶺,使其成為分頁算法中分開每頁的參照物。在這里,我們可以用操作符“>”或“<”號來完成這個使命,使查詢語句符合SARG形式。如:

          Select top 10 * from table1 where id>200

            于是就有了如下分頁方案:

          select top 頁大小 *

          from table1 

          where id>

                  (select max (id) from 

                  (select top ((頁碼-1)*頁大小) id from table1 order by id) as T

                   )     

              order by id

            在選擇即不重復值,又容易分辨大小的列時,我們通常會選擇主鍵。下表列出了筆者用有著1000萬數據的辦公自動化系統中的表,在以GID(GID是主鍵,但并不是聚集索引。)為排序列、提取gid,fariqi,title字段,分別以第1、10、100、500、1000、1萬、10萬、25萬、50萬頁為例,測試以上三種分頁方案的執行速度:(單位:毫秒)

          頁    碼
          方案1
          方案2
          方案3

          1
          60
          30
          76

          10
          46
          16
          63

          100
          1076
          720
          130

          500
          540
          12943
          83

          1000
          17110
          470
          250

          1萬
          24796
          4500
          140

          10萬
          38326
          42283
          1553

          25萬
          28140
          128720
          2330

          50萬
          121686
          127846
          7168


            從上表中,我們可以看出,三種存儲過程在執行100頁以下的分頁命令時,都是可以信任的,速度都很好。但第一種方案在執行分頁1000頁以上后,速度就降了下來。第二種方案大約是在執行分頁1萬頁以上后速度開始降了下來。而第三種方案卻始終沒有大的降勢,后勁仍然很足。

            在確定了第三種分頁方案后,我們可以據此寫一個存儲過程。大家知道SQL SERVER的存儲過程是事先編譯好的SQL語句,它的執行效率要比通過WEB頁面傳來的SQL語句的執行效率要高。下面的存儲過程不僅含有分頁方案,還會根據頁面傳來的參數來確定是否進行數據總數統計。

          -- 獲取指定頁的數據

          CREATE PROCEDURE pagination3 [Page]

          @tblName     varchar(255),         -- 表名

          @strGetFields varchar(1000) = ’*’,    -- 需要返回的列 

          @fldName varchar(255)=’’,        -- 排序的字段名

          @PageSize     int = 10,            -- 頁尺寸

          @PageIndex    int = 1,             -- 頁碼

          @doCount    bit = 0,     -- 返回記錄總數, 非 0 值則返回

          select top 10000 gid,fariqi,title from tgongwen

          where neibuyonghu=’辦公室’

          order by gid desc) as a

          order by gid asc

            這條語句,從理論上講,整條語句的執行時間應該比子句的執行時間長,但事實相反。因為,子句執行后返回的是10000條記錄,而整條語句僅返回10條語句,所以影響數據庫響應時間最大的因素是物理I/O操作。而限制物理I/O操作此處的最有效方法之一就是使用TOP關鍵詞了。TOP關鍵詞是SQL SERVER中經過系統優化過的一個用來提取前幾條或前幾個百分比數據的詞。經筆者在實踐中的應用,發現TOP確實很好用,效率也很高。但這個詞在另外一個大型數據庫ORACLE中卻沒有,這不能說不是一個遺憾,雖然在ORACLE中可以用其他方法(如:rownumber)來解決。在以后的關于“實現千萬級數據的分頁顯示存儲過程”的討論中,我們就將用到TOP這個關鍵詞。

            到此為止,我們上面討論了如何實現從大容量的數據庫中快速地查詢出您所需要的數據方法。當然,我們介紹的這些方法都是“軟”方法,在實踐中,我們還要考慮各種“硬”因素,如:網絡性能、服務器的性能、操作系統的性能,甚至網卡、交換機等。 [Page]

           三、實現小數據量和海量數據的通用分頁顯示存儲過程

            建立一個web 應用,分頁瀏覽功能必不可少。這個問題是數據庫處理中十分常見的問題。經典的數據分頁方法是:ADO 紀錄集分頁法,也就是利用ADO自帶的分頁功能(利用游標)來實現分頁。但這種分頁方法僅適用于較小數據量的情形,因為游標本身有缺點:游標是存放在內存中,很費內存。游標一建立,就將相關的記錄鎖住,直到取消游標。游標提供了對特定集合中逐行掃描的手段,一般使用游標來逐行遍歷數據,根據取出數據條件的不同進行不同的操作。而對于多表和大表中定義的游標(大的數據集合)循環很容易使程序進入一個漫長的等待甚至死機。

            更重要的是,對于非常大的數據模型而言,分頁檢索時,如果按照傳統的每次都加載整個數據源的方法是非常浪費資源的。現在流行的分頁方法一般是檢索頁面大小的塊區的數據,而非檢索所有的數據,然后單步執行當前行。

            最早較好地實現這種根據頁面大小和頁碼來提取數據的方法大概就是“俄羅斯存儲過程”。這個存儲過程用了游標,由于游標的局限性,所以這個方法并沒有得到大家的普遍認可。

            后來,網上有人改造了此存儲過程,下面的存儲過程就是結合我們的辦公自動化實例寫的分頁存儲過程:

          CREATE procedure pagination1

          (@pagesize int,    --頁面大小,如每頁存儲20條記錄

          @pageindex int     --當前頁碼

          )

          as

          set nocount on

          begin

          declare @indextable table(id int identity(1,1),nid int)    --定義表變量

          declare @PageLowerBound int    --定義此頁的底碼

          declare @PageUpperBound int    --定義此頁的頂碼

          set @PageLowerBound=(@pageindex-1)*@pagesize

          set @PageUpperBound=@PageLowerBound+@pagesize

          set rowcount @PageUpperBound

          insert into @indextable(nid) select gid from TGongwen where fariqi >dateadd(day,-365,getdate()) order by fariqi desc

          select O.gid,O.mid,O.title,O.fadanwei,O.fariqi from TGongwen O,@indextable t where O.gid=t.nid

          and t.id>@PageLowerBound and t.id<=@PageUpperBound order by t.id

          end

          set nocount off

            以上存儲過程運用了SQL SERVER的最新技術――表變量。應該說這個存儲過程也是一個非常優秀的分頁存儲過程。當然,在這個過程中,您也可以把其中的表變量寫成臨時表:CREATE TABLE #Temp。但很明顯,在SQL SERVER中,用臨時表是沒有用表變量快的。所以筆者剛開始使用這個存儲過程時,感覺非常的不錯,速度也比原來的ADO的好。但后來,我又發現了比此方法更好的方法。

            筆者曾在網上看到了一篇小短文《從數據表中取出第n條到第m條的記錄的方法》,全文如下: [Page]

          從publish 表中取出第 n 條到第 m 條的記錄: 
          SELECT TOP m-n+1 * 
          FROM publish 
          WHERE (id NOT IN 
              (SELECT TOP n-1 id 
               FROM publish)) 

          id 為publish 表的關鍵字 

            我當時看到這篇文章的時候,真的是精神為之一振,覺得思路非常得好。等到后來,我在作辦公自動化系統(ASP.NET+ C#+SQL SERVER)的時候,忽然想起了這篇文章,我想如果把這個語句改造一下,這就可能是一個非常好的分頁存儲過程。于是我就滿網上找這篇文章,沒想到,文章還沒找到,卻找到了一篇根據此語句寫的一個分頁存儲過程,這個存儲過程也是目前較為流行的一種分頁存儲過程,我很后悔沒有爭先把這段文字改造成存儲過程:

          CREATE PROCEDURE pagination2
          (
          @SQL nVARCHAR(4000),      --不帶排序語句的SQL語句
          @Page int,                --頁碼
          @RecsPerPage int,         --每頁容納的記錄數
          @ID VARCHAR(255),         --需要排序的不重復的ID號
          @Sort VARCHAR(255)        --排序字段及規則
          @OrderType bit = 0,    -- 設置排序類型, 非 0 值則降序

          @strWhere    varchar(1500) = ’’    -- 查詢條件 (注意: 不要加 where)

          AS

          declare @strSQL     varchar(5000)         -- 主語句

          declare @strTmp     varchar(110)          -- 臨時變量

          declare @strOrder varchar(400)          -- 排序類型



          if @doCount != 0

              begin

                if @strWhere !=’’

                set @strSQL = \"select count(*) as Total from [\" + @tblName + \"] where \"+@strWhere

                else

                set @strSQL = \"select count(*) as Total from [\" + @tblName + \"]\"

          end  

          --以上代碼的意思是如果@doCount傳遞過來的不是0,就執行總數統計。以下的所有代碼都是@doCount為0的情況

          else

          begin



          if @OrderType != 0

          begin

                set @strTmp = \"<(select min\"

          set @strOrder = \" order by [\" + @fldName +\"] desc\"

          --如果@OrderType不是0,就執行降序,這句很重要!

          end

          else

          begin

                set @strTmp = \">(select max\"

                set @strOrder = \" order by [\" + @fldName +\"] asc\" [Page]

          end



          if @PageIndex = 1

          begin

                if @strWhere != ’’   

                set @strSQL = \"select top \" + str(@PageSize) +\" \"+@strGetFields+ \"    from [\" + @tblName + \"] where \" + @strWhere + \" \" + @strOrder

                 else

                 set @strSQL = \"select top \" + str(@PageSize) +\" \"+@strGetFields+ \"    from [\"+ @tblName + \"] \"+ @strOrder

          --如果是第一頁就執行以上代碼,這樣會加快執行速度

          end

          else

          begin

          --以下代碼賦予了@strSQL以真正執行的SQL代碼

          set @strSQL = \"select top \" + str(@PageSize) +\" \"+@strGetFields+ \"    from [\"

                + @tblName + \"] where [\" + @fldName + \"]\" + @strTmp + \"([\"+ @fldName + \"]) from (select top \" + str((@PageIndex-1)*@PageSize) + \" [\"+ @fldName + \"] from [\" + @tblName + \"]\" + @strOrder + \") as tblTmp)\"+ @strOrder



          if @strWhere != ’’

                set @strSQL = \"select top \" + str(@PageSize) +\" \"+@strGetFields+ \"    from [\"

                    + @tblName + \"] where [\" + @fldName + \"]\" + @strTmp + \"([\"

                    + @fldName + \"]) from (select top \" + str((@PageIndex-1)*@PageSize) + \" [\"

                    + @fldName + \"] from [\" + @tblName + \"] where \" + @strWhere + \" \"

                    + @strOrder + \") as tblTmp) and \" + @strWhere + \" \" + @strOrder

          end 

          end   

          exec (@strSQL) [Page]

          GO

            上面的這個存儲過程是一個通用的存儲過程,其注釋已寫在其中了。

            在大數據量的情況下,特別是在查詢最后幾頁的時候,查詢時間一般不會超過9秒;而用其他存儲過程,在實踐中就會導致超時,所以這個存儲過程非常適用于大容量數據庫的查詢。

            筆者希望能夠通過對以上存儲過程的解析,能給大家帶來一定的啟示,并給工作帶來一定的效率提升,同時希望同行提出更優秀的實時數據分頁算法。
          四、聚集索引的重要性和如何選擇聚集索引

            在上一節的標題中,筆者寫的是:實現小數據量和海量數據的通用分頁顯示存儲過程。這是因為在將本存儲過程應用于“辦公自動化”系統的實踐中時,筆者發現這第三種存儲過程在小數據量的情況下,有如下現象:

            1、分頁速度一般維持在1秒和3秒之間。

            2、在查詢最后一頁時,速度一般為5秒至8秒,哪怕分頁總數只有3頁或30萬頁。

            雖然在超大容量情況下,這個分頁的實現過程是很快的,但在分前幾頁時,這個1-3秒的速度比起第一種甚至沒有經過優化的分頁方法速度還要慢,借用戶的話說就是“還沒有ACCESS數據庫速度快”,這個認識足以導致用戶放棄使用您開發的系統。

            筆者就此分析了一下,原來產生這種現象的癥結是如此的簡單,但又如此的重要:排序的字段不是聚集索引!

            本篇文章的題目是:“查詢優化及分頁算法方案”。筆者只所以把“查詢優化”和“分頁算法”這兩個聯系不是很大的論題放在一起,就是因為二者都需要一個非常重要的東西――聚集索引。

            在前面的討論中我們已經提到了,聚集索引有兩個最大的優勢:

            1、以最快的速度縮小查詢范圍。

            2、以最快的速度進行字段排序。

            第1條多用在查詢優化時,而第2條多用在進行分頁時的數據排序。

            而聚集索引在每個表內又只能建立一個,這使得聚集索引顯得更加的重要。聚集索引的挑選可以說是實現“查詢優化”和“高效分頁”的最關鍵因素。

            但要既使聚集索引列既符合查詢列的需要,又符合排序列的需要,這通常是一個矛盾。

            筆者前面“索引”的討論中,將fariqi,即用戶發文日期作為了聚集索引的起始列,日期的精確度為“日”。這種作法的優點,前面已經提到了,在進行劃時間段的快速查詢中,比用ID主鍵列有很大的優勢。

            但在分頁時,由于這個聚集索引列存在著重復記錄,所以無法使用max或min來最為分頁的參照物,進而無法實現更為高效的排序。而如果將ID主鍵列作為聚集索引,那么聚集索引除了用以排序之外,沒有任何用處,實際上是浪費了聚集索引這個寶貴的資源。

             為解決這個矛盾,筆者后來又添加了一個日期列,其默認值為getdate()。用戶在寫入記錄時,這個列自動寫入當時的時間,時間精確到毫秒。即使這樣,為了避免可能性很小的重合,還要在此列上創建UNIQUE約束。將此日期列作為聚集索引列。

            有了這個時間型聚集索引列之后,用戶就既可以用這個列查找用戶在插入數據時的某個時間段的查詢,又可以作為唯一列來實現max或min,成為分頁算法的參照物。

            經過這樣的優化,筆者發現,無論是大數據量的情況下還是小數據量的情況下,分頁速度一般都是幾十毫秒,甚至0毫秒。而用日期段縮小范圍的查詢速度比原來也沒有任何遲鈍。 [Page]

            聚集索引是如此的重要和珍貴,所以筆者總結了一下,一定要將聚集索引建立在:

            1、您最頻繁使用的、用以縮小查詢范圍的字段上;

            2、您最頻繁使用的、需要排序的字段上。

            結束語:

            本篇文章匯集了筆者近段在使用數據庫方面的心得,是在做“辦公自動化”系統時實踐經驗的積累。希望這篇文章不僅能夠給大家的工作帶來一定的幫助,也希望能讓大家能夠體會到分析問題的方法;最重要的是,希望這篇文章能夠拋磚引玉,掀起大家的學習和討論的興趣,以共同促進,共同為公安科技強警事業和金盾工程做出自己最大的努力。

            最后需要說明的是,在試驗中,我發現用戶在進行大數據量查詢的時候,對數據庫速度影響最大的不是內存大小,而是CPU。在我的P4 2.4機器上試驗的時候,查看“資源管理器”,CPU經常出現持續到100%的現象,而內存用量卻并沒有改變或者說沒有大的改變。即使在我們的HP ML 350 G3服務器上試驗時,CPU峰值也能達到90%,一般持續在70%左右。

            本文的試驗數據都是來自我們的HP ML 350服務器。服務器配置:雙Inter Xeon 超線程 CPU 2.4G,內存1G,操作系統Windows Server 2003 Enterprise Edition,數據庫SQL Server 2000 SP3。 



          本博客為學習交流用,凡未注明引用的均為本人作品,轉載請注明出處,如有版權問題請及時通知。由于博客時間倉促,錯誤之處敬請諒解,有任何意見可給我留言,愿共同學習進步。
          posted on 2009-04-12 09:17 Jack.Wang 閱讀(18763) 評論(7)  編輯  收藏 所屬分類: 開發技術

          Feedback

          # re: 海量數據處理匯總[未登錄] 2012-07-16 15:51 海納百川
          學習啦,寫的很詳細。謝謝!  回復  更多評論
            

          # re: 海量數據處理匯總 2013-03-14 17:02 qwre
          sfsdfsdf  回復  更多評論
            

          # re: 海量數據處理匯總[未登錄] 2013-03-14 17:06 life
          嗯,內容非常的給力,學習了!  回復  更多評論
            

          # re: 海量數據處理匯總 2013-06-23 17:21 拍磚
          in or 不走索引? not in 和 != <>才不走索引吧.  回復  更多評論
            

          # re: 海量數據處理匯總 2013-07-26 09:33 劃破
          這樣重復的文章,轉載過去,意義何在?  回復  更多評論
            

          # re: 海量數據處理匯總 2013-08-06 11:22 殘骸
          寫的不錯,學校到了,但最后的結束語有問題,內存不動,是因為數據庫和操作系統一直保存著,用來快速響應文件復制或者數據處理,他會在設定的時間后銷毀。說白了就是操作系統 或數據庫 一直占用著 快速響應你的操作。
          再說一下,你的服務器 配置好低啊~~!!!一年前(2012)我們就hp多少來著,cpu 8核 ,邏輯核16 ,內存 16G(一樣用完,操作系統 和數據庫在運行后占用,用于快速響應)。  回復  更多評論
            

          # re: 海量數據處理匯總 2013-08-06 11:24 殘骸
          沒看見你2009年,寫的,可能,服務器就那樣吧。  回復  更多評論
            

          主站蜘蛛池模板: 荆门市| 连州市| 黄大仙区| 海兴县| 通道| 治县。| 治多县| 会泽县| 蚌埠市| 佛山市| 遂溪县| 双柏县| 衡南县| 会昌县| 连云港市| 灯塔市| 准格尔旗| 临城县| 西充县| 鲁山县| 敖汉旗| 塔城市| 铜梁县| 广宁县| 安新县| 南江县| 庄河市| 盐亭县| 泽州县| 临泉县| 特克斯县| 神农架林区| 邵阳县| 大关县| 永靖县| 沈丘县| 双峰县| 谷城县| 清流县| 民权县| 汝州市|