Hibernate下數(shù)據(jù)批量處理解決方案
很多人都對java在批量數(shù)據(jù)的處理方面是否是其合適的場所持有懷疑的念頭,由此延伸,那么就會認(rèn)為orm可能也不是特別適合數(shù)據(jù)的批量處理。 其實,我想如果我們應(yīng)用得當(dāng)?shù)脑挘耆梢韵齩rm批量處理性能問題這方面的顧慮。下面以hibernate為例來做為說明,假如我們真的不得不在java中使用hibernate來對數(shù)據(jù)進行批量處理的話。 向數(shù)據(jù)庫插入100 000條數(shù)據(jù),用hibernate可能像這樣:session session = sessionfactory.opensession();
transaction tx = session.begintransaction();
for ( int i=0; i<100000; i++ ) {
customer customer = new customer(.....);
session.save(customer); }
tx.commit();
session.close();
大概在運行到第50 000條的時候,就會出現(xiàn)內(nèi)存溢出而失敗。這是hibernate把最近插入的customer都以session-level cache在內(nèi)存做緩存,我們不要忘記hiberante并沒有限制first-level cache 的緩存大小:
# 持久對象實例被管理在事務(wù)結(jié)束時,此時hibernate與數(shù)據(jù)庫同步任何已經(jīng)發(fā)生變 化的被管理的的對象。
# session實現(xiàn)了異步write-behind,它允許hibernate顯式地寫操作的批處理。 這里,我給出hibernate如何實現(xiàn)批量插入的方法:
首先,我們設(shè)置一個合理的jdbc批處理大小,hibernate.jdbc.batch_size 20。 然后在一定間隔對session進行flush()和clear()。
session session = sessionfactory.opensession();
transaction tx = session.begintransaction();
for ( int i=0; i<100000; i++ ) {
customer customer = new customer(.....);
session.save(customer);
if ( i % 20 == 0 ) {
//flush 插入數(shù)據(jù)和釋放內(nèi)存:
session.flush(); session.clear(); }
}
tx.commit();
session.close();
那么,關(guān)于怎樣刪除和更新數(shù)據(jù)呢?那好,在hibernate2.1.6或者更后版本,scroll() 這個方法將是最好的途徑:
session session = sessionfactory.opensession();
transaction tx = session.begintransaction();
scrollableresults customers = session.getnamedquery("getcustomers")
.scroll(scrollmode.forward_only);
int count=0;
while ( customers.next() ) {
customer customer = (customer) customers.get(0);
customer.updatestuff(...);
if ( ++count % 20 == 0 ) {
//flush 更新數(shù)據(jù)和釋放內(nèi)存:
session.flush(); session.clear(); } }
tx.commit(); session.close();
這種做法并不困難,也不算不優(yōu)雅。請注意,如果customer啟用了second-level caching ,我們?nèi)匀粫幸恍﹥?nèi)存管理的問題。原因就是對于用戶的每一次插入和更新,hibernate在事務(wù)處理結(jié)束后不得不通告second-level cache 。因此,我們在批處理情況下將要禁用用戶使用緩存。