午夜精品免费,精品一区二区三区影院在线午夜,韩国一区二区视频http://www.aygfsteel.com/alancxx/------簡單就是美zh-cnWed, 18 Jun 2025 15:56:45 GMTWed, 18 Jun 2025 15:56:45 GMT60oracle jdbc 邪惡數字"65536" ---批量插入10萬條記錄引發的“血案”http://www.aygfsteel.com/alancxx/articles/369106.html蜂鳥蜂鳥Tue, 31 Jan 2012 12:17:00 GMThttp://www.aygfsteel.com/alancxx/articles/369106.htmlhttp://www.aygfsteel.com/alancxx/comments/369106.htmlhttp://www.aygfsteel.com/alancxx/articles/369106.html#Feedback1http://www.aygfsteel.com/alancxx/comments/commentRss/369106.htmlhttp://www.aygfsteel.com/alancxx/services/trackbacks/369106.html1.   故事背景:

mysql數據遷移到oracle,其中有個表名叫“bil_vip”,有10萬條記錄,遷移后檢查發現oracle數據庫只插入34464條記錄,程序執行過程沒有發現任何錯誤。修改數據庫連接代碼向mysql插入10萬條記錄,結果都插入OK。

批量插入使用spring jdbctemplate.batchUpdate(sql, new BatchPreparedStatementSetter());方法,該方法的核心是PreparedStatement的executeBatch方法。

2.   繼續實驗:

新建一個Test表,只有一個name字段做實驗。

拋棄jdbctemplate,直接使用PreparedStatement做實驗,結果和jdbcTemplate是一樣的,實驗證明總是會丟失65536條記錄。

oracle 驅動的問題?換了最新driver,還是不行。繼續探索....

3.   希望之光:

早上發了個消息向大家征求思路,繼中說了一句分批處理,點亮了我的思路。按照繼中提供思路,每1萬條記錄一批,分多批發送給Oracle。

結果喜出望外,10萬條記錄全部插入成功。但是"65536"這個數字是什么意思呢......     

在網上搜索文章發現,這個65536是一個bug。當PreparedStatement批量處理正好65536個記錄時候,程序會掛死。我試了一下真的掛死了,太嚇人了,這坑夠深的。

4.   解決方案:

spring jdbctemplate還是很好用的,而且業務已經被我封裝了,如果使用PreparedStatement意味著多了一個處理分支,以后維護會很麻煩。

我新建一個MyJdbcTemplate類,繼承 jdbctemplate類,并覆蓋了batchUpdate方法。這下舒服了,系統又恢復了整潔。      

5.   ★ 結論和收獲:

ü  有事多思考,多請教身邊同事。

ü  堅持Open-close原則(Open for extension, Closed for modification)會系統更好的擴展,非常容易維護,關鍵是要堅持這個原則,如果我因為一個特殊分支使用了PreparedStatement,這樣勢必破壞了這個原則,日后的維護必然會很麻煩。

ü  基于oracle數據如果使用jdbc批量,一定要分批發送數據oracle,否則正好發一個65536系統就掛死,大于65536數據就丟失,杯具呀......

6.   題目何以為“血案”:

周二打球回家就想這個問題,打開筆記本調試,不知不覺搞到很晚,影響媳婦睡覺(媳婦早上5:30上班),被痛罵一頓,趕緊上床睡覺,我媳婦氣的不行,手痛砸了一下床板(我們的床撤掉了床墊,只有床架和木板),床一下子塌了,把媳婦嚇壞了,把我腿弄傷了一塊,唉,“血案”呀。



蜂鳥 2012-01-31 20:17 發表評論
]]>
打jar把第三方的jar也打進去http://www.aygfsteel.com/alancxx/articles/369033.html蜂鳥蜂鳥Mon, 30 Jan 2012 08:58:00 GMThttp://www.aygfsteel.com/alancxx/articles/369033.htmlhttp://www.aygfsteel.com/alancxx/comments/369033.htmlhttp://www.aygfsteel.com/alancxx/articles/369033.html#Feedback0http://www.aygfsteel.com/alancxx/comments/commentRss/369033.htmlhttp://www.aygfsteel.com/alancxx/services/trackbacks/369033.html     之前在我的blog中寫道,關于這個問題,以前是不知道怎么實現?地址.后來自己在網上查了,有各種不同的說法,感覺都不怎么實用.
     前幾天在看<<Eclipse從入門到精通>>一書,看到一節關于eclipse打包的介紹,感覺有方法了.
     大家都知道打java包,需要一個清單文件,MANIFEST.MF,內容無非就是
Manifest-Version: 1.0
Main
-Class: awt.MyGuiImp
     實際上,清單文件中還有一個重要的,就是Class-Path,大家一看就知道這個是用來干什么的了.不錯,這個就是程序運行的支持庫的路徑.后來上網查了一下,MANIFEST.MF的具體解釋是這樣:
      打包清單.它是打包的關鍵性文件,主要是設置執行入口類和支持庫的路徑,在運行java應用程序時要根據此文件中給出的信息來查找入口類和支持庫.
      我們以前只注意了MANIFEST.MF中的入口類,也就是我們常說的主類(有main方法的類),卻忽視了支持庫.
      Class-Path:指定支持庫的路徑,"."指程序運行目錄,即到處的jar包所在目錄.程序運行時依據Class-Path項的設置路徑來查找支持庫.每一個支持庫之間用空格格開.
     后來我自己用到的jar,放一個文件夾lib,lib就放在和jar包一個文件夾下,清單文件這樣寫
Manifest-Version: 1.0
Main
-Class: awt.MyGuiImp
Class
-Path: ./lib/jacob.jar ./lib/jdom.jar ./lib/log4j.jar
    移到別的計算機,運行jar,就不會出現任何問題了,前提是該計算機必須裝jdk.

蜂鳥 2012-01-30 16:58 發表評論
]]>
linux 部署記錄http://www.aygfsteel.com/alancxx/archive/2011/10/26/362096.html蜂鳥蜂鳥Wed, 26 Oct 2011 06:23:00 GMThttp://www.aygfsteel.com/alancxx/archive/2011/10/26/362096.htmlhttp://www.aygfsteel.com/alancxx/comments/362096.htmlhttp://www.aygfsteel.com/alancxx/archive/2011/10/26/362096.html#Feedback0http://www.aygfsteel.com/alancxx/comments/commentRss/362096.htmlhttp://www.aygfsteel.com/alancxx/services/trackbacks/362096.html    1  ll
    2  cd Server/
    3  ll
    4  rpm -Uvh setarch-2*
    5  rpm -Uvh make-3*
    6  rpm -Uvh glibc-2*
    7  rpm -Uvh libaio-0*
    8  rpm -Uvh compat-libstdc++-33-3*
    9  rpm -Uvh compat-gcc-34-3*
   10  rpm -Uvh compat-gcc-34-c++-3*
   11  rpm -Uvh gcc-4*
   12  rpm -Uvh libXp-1*
   13  rpm -Uvh openmotif-2*
   14  rpm -Uvh compat-db-4*
   15  cd /opt
   16  ll
   17  mkdir u01
   18  ll
   19  ln -s /opt/u01/ /u01
   20  cd /
   21  ll
   22  cd u-1
   23  cd u01
   24  ll
   25  mkdir -p /u01/app/oracle/product/10.2.0/db_1
   26  chown -R oracle.oinstall /u01
   27  chown -R oracle.oinstall /opt/u01
   28  cd /etc
   29  ll
   30  vi redhat-release
   31  cd /home/oracle/.bash_profile
   32  vi /home/oracle/.bash_profile
   33  su - oracle
   34  /u01/app/oracle/product/10.2.0/db/root.sh
   35  ifconfig
   36  cd /opt
   37  ll
   38  mkdir u02
   39  ln -s /opt/u02 /u02
   40  cd /
   41  ll
   42  chown -R oracle:oinstall /opt/u02
   43  chown -R oracle:oinstall /u02
   44  su - oracle
   45  fdisk -l
   46  fdisk /dev/sdb
   47  fdisk -l
   48  partprobe
   49  mkfs.ext3 /dev/sdb1
   50  mkfs.ext2 /dev/sdb1
   51  mke2fs /dev/sdb1
   52  mkfs -t ext3 -j /dev/sdb1
   53  mkfs -t ext2 -j /dev/sdb1
   54  fdisk /dev/sdb
   55  fdisk /dev/sdb
   56  fdisk -l
   57  mkfs.ext3 /dev/sdb1
   58  mkdir /opt/newdis
   59  mount /dev/sdb1 /opt/newdis/
   60  vi /etc/fstab
   61  touch test /opt/newdis/
   62  cd /opt/newdis/
   63  ls
   64  ls
   65  touch test
   66  ls
   67  reboot
   68  df -lh
   69  cd /opt/newdis/
   70  ls
   71  su - oracle
   72  rm -rf u02
   73  ll
   74  cd /
   75  ll
   76  rm -rf u02
   77  ll
   78  ln -s /opt/newdis/u02 /u02
   79  ll
   80  chown -R oracle:oinstall /u02
   81  ll
   82  su - oracle
   83  chown -R oracle:oinstall /opt/newdis/
   84  su - oracle
   85  mount 192.168.6.138:/u02/dmp /u02/dmp/
   86  cd /u02/dmp/
   87  ll
   88  ll
   89  ll
   90  lsnrctl status
   91  su - oracle
   92  service syslog status
   93  netstat -tlnp |grep syslog
   94  netstat -an |grep syslog
   95  service syslog status
   96  clean
   97  clear
   98  netstat -an |grep syslog
   99  clear
  100  service syslog status
  101  service iptables status
  102  last
  103  who
  104  service iptables status
  105  service iptables start
  106  service iptables status
  107  cd /root/
  108  mkdir .ssh
  109  cd .ssh/
  110  rz
  111  cp /root/Identity ./id_rsa
  112  ssh-keygen
  113  sftp alan@192.168.50.42
  114  cd /root/.ssh/
  115  ls
  116  ssh-keygen
  117  ls
  118  vi id_rsa.pub
  119  ls
  120  rm -rf *
  121  cp /root/Identity ./id_rsa
  122  ls
  123  ls
  124  sftp alan@192.168.50.40
  125  sftp alan@192.168.50.42
  126  ls
  127  rm -rf known_hosts
  128  ls
  129  sftp root@192.168.50.42
  130  ssh-keygen
  131  sftp root@192.168.50.42
  132  ssh-keygen
  133  sftp root@192.168.50.42
  134  ssh-keygen
  135  sftp root@192.168.50.42
  136  ifconfig
  137  init 0
  138  ntpdate 192.168.191.240
  139  echo "ntpdate 192.168.191.240" >> /etc/rc.local
  140  echo "0 12 * * * ntpdate 192.168.191.240" >> /var/spool/cron/root
  141  at 18:01
  142  last
  143  last | less
  144  shutdown -h now
  145  exit
  146  mv ~/master_key ~/.ssh/authorized_keys
  147  chmod 600 ~/.ssh/authorized_keys
  148  gzip -d hadoop-0.21.0.tar.gz
  149  tar -xf hadoop-0.21.0.tar
  150  java
  151  ll
  152  ll /opt/
  153  ll /usr/
  154  ll
  155  ./jdk-6u5-linux-x64.bin
  156  chmod +w jdk-6u5-linux-x64.bin
  157  ./jdk-6u5-linux-x64.bin
  158  ll
  159  chmod +x jdk-6u5-linux-x64.bin
  160  ./jdk-6u5-linux-x64.bin
  161  ll
  162  rm jdk-6u5-linux-x64.bin
  163  ll
  164  java
  165  sudo gedit /etc/profile
  166  vi /etc/profile
  167  java
  168  export PATH USER LOGNAME MAIL HOSTNAME HISTSIZE INPUTRC Java Home CLASSPATH JRE_HOME
  169  java
  170  vi /etc/profile
  171  export PATH USER LOGNAME MAIL HOSTNAME HISTSIZE INPUTRC Java Home CLASSPATH JRE_HOME
  172  java
  173  export PATH USER LOGNAME MAIL HOSTNAME HISTSIZE INPUTRC Java Home CLASSPATH JRE_HOME JAVA_HOME
  174  ll
  175  vi /etc/profile
  176  java
  177  reboot
  178  echo PATH
  179  export
  180  echo $PATH
  181  mv ~/master_key ~/.ssh/authorized_keys
  182  chmod 600 ~/.ssh/authorized_keys
  183  vi /etc/profile
  184  vi /etc/bashrc
  185  jps
  186  less /root/hadoop-0.21.0/bin/../logs/hadoop-root-namenode-tibcotest.alan.com.out
  187  ll hadoop-0.21.0/logs/hadoop-root-datanode-localhost.localdomain.log
  188  less hadoop-0.21.0/logs/hadoop-root-datanode-localhost.localdomain.log
  189  rm -rf hadoop-0.21.0/logs/*
  190  ll
  191  cd hadoop-0.21.0/logs
  192  ll
  193  less hadoop-root-datanode-localhost.localdomain.log
  194  less hadoop-root-tasktracker-localhost.localdomain.log
  195  jps
  196  less hadoop-root-tasktracker-localhost.localdomain.log
  197  cd ..
  198  vi conf/mapred-site.xml
  199  vi conf/mapred-site.xml
  200  jps
  201  less hadoop-root-tasktracker-localhost.localdomain.log
  202  cd logs
  203  less hadoop-root-tasktracker-localhost.localdomain.log
  204  cd ..
  205  vi conf/core-site.xml
  206  jps
  207  vi conf/mapred-site.xml
  208  jps
  209  jps
  210  ll /tmp/hadoop-root/dfs/data/current/finalized/
  211  vi ll /tmp/hadoop-root/dfs/data/current/finalized/blk_-6267353868788565174
  212  vi ll /tmp/hadoop-root/dfs/data/current/finalized/blk_-6267353868788565174_1102.meta
  213  less /tmp/hadoop-root/dfs/data/current/finalized/blk_-6267353868788565174_1102.meta
  214  less /tmp/hadoop-root/dfs/data/current/finalized/blk_-6267353868788565174
  215  cd hadoop-0.21.0
  216  ll
  217  vi conf/hdfs-site.xml
  218  cd /opt
  219  mkdir hadoop
  220  mkdir hadoop/data1
  221  mkdir hadoop/data2
  222  ll hadoop/data1/
  223  ll hadoop/data1/
  224  cd /root/hadoop-0.21.0/conf/
  225  ll
  226  vi hdfs-site.xml
  227  tail -fn500 /root/hadoop-0.21.0/bin/../logs/hadoop-root-tasktracker-localhost.localdomain.out
  228  cd ../logs
  229  ll
  230  tail -fn500 hadoop-root-datanode-localhost.localdomain.log
  231  jps
  232  vi ../conf/hdfs-site.xml
  233  tail -fn500 hadoop-root-datanode-localhost.localdomain.log
  234  vi ../conf/hdfs-site.xml
  235  tail -fn500 hadoop-root-datanode-localhost.localdomain.log
  236  ll /opt/hadoop/data2
  237  ll /opt/hadoop/data1
  238  rm rm -rf /opt/hadoop/data1/*
  239  rm rm -rf /opt/hadoop/data2/*
  240  tail -fn500 hadoop-root-datanode-localhost.localdomain.log
  241  vi ../conf/hdfs-site.xml
  242  mkdir /opt/hadoop/data3
  243  cd /root/hadoop-0.21.0
  244  cd bin
  245  ll
  246  less start-dfs.sh
  247  cd hadoop-0.21.0/conf
  248  vi excludes
  249  vi hdfs-site.xml
  250  vi excludes
  251  rm -rf /opt/hadoop/data/*
  252  jps
  253  cd hadoop-0.21.0/bin/
  254  ll
  255  ./hadoop-daemon.sh start datanode
  256  ./hadoop
  257  sh start-dfs.sh
  258  vi start-dfs.sh
  259  vi stop-dfs.sh
  260  ll
  261  vi hadoop-daemon.sh
  262  ll
  263  sh hadoop-daemon.sh start datanode
  264  jps
  265  sh hadoop-daemon.sh start datanode
  266  jps
  267  sh hadoop-daemon.sh stop datanode
  268  rm rm -rf /opt/hadoop/data1/*
  269  rm -rf /opt/hadoop/data2/*
  270  ll /opt/hadoop/
  271  ll /opt/hadoop/data3
  272  rm -rf /opt/hadoop/data3/*
  273  chown -fR hadoop /opt/hadoop
  274  su hadoop
  275  ll /opt
  276  vi /etc/bashrc
  277  vi /etc/profile
  278  vi /etc/bashrc
  279  ll
  280  cd /root
  281  ll
  282  cp -rf jdk1.6.0_05 /opt/
  283  cd /opt/
  284  ll
  285  vi /etc/profile
  286  su hadoop
  287  vi /etc/bashrc
  288  exit
  289  gzip -d hadoop-0.20.203.0rc1.tar.gz
  290  tar -xvf hadoop-0.20.203.0rc1.tar
  291  cd hadoop-0.20.203.0
  292  \cp -a ../hadoop-0.21.0/conf/core-site.xml conf/core-site.xml
  293  \cp -a ../hadoop-0.21.0/conf/hdfs-site.xml conf/hdfs-site.xml
  294  \cp -a ../hadoop-0.21.0/conf/mapred-site.xml conf/mapred-site.xml
  295  \cp -a ../hadoop-0.21.0/conf/masters conf/masters
  296  \cp -a ../hadoop-0.21.0/conf/slaves conf/slaves
  297  jps
  298  kill -9 3588
  299  cd ..
  300  cp -rf hadoop-0.20.203.0 /opt/hadoop
  301  useradd hadoop
  302  passwd hadoop
  303  mkdir ~/.ssh
  304  chmod 700 ~/.ssh
  305  mv ~/authorized_keys ~/.ssh/
  306  chmod 600 ~/.ssh/authorized_keys
  307  su hadoop
  308  java
  309  su hadoop
  310  less /etc/profile
  311  jps
  312  su hadoop
  313  cp zookeeper-3.3.3.tar.gz /opt/hadoop/
  314  su hadoop
  315  vi /etc/profile
  316  cd
  317  cp hbase-0.90.3.tar.gz /opt/hadoop/
  318  su hadoop
  319  \cp -a hbase-site.xml hdfs-site.xml hbase-env.sh regionservers /opt/hadoop/hbase/conf/
  320  chown -fR hadoop /opt/hadoop/
  321  df
  322  cd /opt
  323  ll
  324  rm -rf full.dmp
  325  jps
  326  ps -ef |grep 13026
  327  ps -ef |grep 13026
  328  cp /opt/hadoop/zookeeper-3.3.3/conf/zoo.cfg /opt/jdk1.6.0_05/lib
  329  zookeeper-3.3.3/bin/zkServer.sh stop
  330  su hadoop
  331  su hadoop
  332  cp hbase-*.xml /opt/hadoop/hbase/conf/
  333  rm -rf /opt/hadoop/hbase/conf/hbase-default.xml
  334  cp hbase-*.xml /opt/hadoop/hbase/conf/
  335  vi /etc/hosts
  336  less /etc/bashrc
  337  su hadoop
  338  su hadoop
  339  vi /etc/hosts
  340  vi /etc/hosts
  341  jps
  342  vi /etc/hosts
  343  vi etc/hosts
  344  vi /etc/hosts
  345  vi /opt/hadoop/hbase/conf/hbase-site.xml
  346  jps
  347  kill -9 23754
  348  vi /etc/hosts
  349  jps
  350  kill -9 23987
  351  jps
  352  kill -9 24355
  353  jps
  354  jps
  355  kill -9 24682 24585
  356  jps
  357  kill -9 24887 24984
  358  jps
  359  kill -9 HQuorumPeer HRegionServer
  360  kill -9 25286 25185
  361  vi /opt/hadoop/hbase/conf/hbase-site.xml
  362  jps
  363  kill -9 25582 25485
  364  su hadoop
  365  vi /etc/sysctl.conf
  366  reboot
  367  cat /proc/sys/net/ipv6/conf/all/disable_ipv6
  368  jps
  369  vi /etc/bashrc
  370  vi /etc/hosts
  371  jps
  372  kill -9 5014 5111
  373  su hadoop
  374  less /opt/hadoop/hadoop-0.20.203.0/conf/hdfs-site.xml
  375  less /opt/hadoop/hadoop-0.20.203.0/conf/core-site.xml
  376  jps
  377  kill -9 12414 12317
  378  vi /opt/hadoop/hadoop-0.20.203.0/conf/core-site.xml
  379  jps
  380  kill -9 19312
  381  vi /etc/profile
  382  jps
  383  kill -9 19563 19472
  384  su hadoop
  385  vi /etc/profile
  386  su hadoop
  387  jps
  388  su hadoop
  389  ll
  390  su hadoop
  391  jps
  392  vi /etc/profile
  393  vi /etc/profile
  394  exit
  395  jps
  396  kill -9 17930
  397  jps
  398  jps
  399  kill -9 20659
  400  jps
  401  jps
  402  kill -9 29834 29935
  403  su hadoop
  404  su hadoop
  405  su hadoop
  406  which java
  407  mkdir /opt/oracle
  408  mv apache-tomcat-6.0.30_V1.4.zip /opt/oracle/
  409  cd /opt/oracle/
  410  ll
  411  unzip apache-tomcat-6.0.30_V1.4.zip
  412  ll
  413  cd tomcatTemplate/
  414  ll
  415  cd bin
  416  ll
  417  chmod +x *.sh
  418  ./createInstance.sh
  419  ./createInstance.sh -h
  420  ll ../..
  421  cd ../../tomcat
  422  ll
  423  cd ..
  424  rm -rf tomcat
  425  cd tomcatTemplate/bin
  426  cd ../../
  427  cp tomcatTemplate/ tomact-sso
  428  cp -rf tomcatTemplate/ tomact-sso
  429  ll
  430  mv tomact-sso tomcat-sso
  431  ll
  432  cd tomcat-sso
  433  cd bin
  434  ll
  435  cd ..
  436  cd ..
  437  rm -rf tomcat-sso
  438  ll
  439  cd tomcatTemplate/bin
  440  sh createInstance.sh tomcatServer47-0
  441  cd ../..
  442  ll
  443  cd tomcat
  444  ll
  445  cd tomcatServer47-0/
  446  ll
  447  less conf/catalina.properties
  448  cd ..
  449  cd bin
  450  ll
  451  cd tomcatServer47-0/
  452  ll
  453  cd bin
  454  ll
  455  vi resource.properties
  456  ./createResource.sh
  457  cd
  458  mv if-sso-token-server.war /opt/oracle/tomcat/tomcatServer47-0/webapps/
  459  cd  /opt/oracle/tomcat/tomcatServer47-0/bin
  460  ./catalina.sh start
  461  tail -fn100 ../logs/catalina.out
  462  tail -fn100 ../logs/localhost.2011-09-07.log
  463  ./catalina.sh stop
  464  ./catalina.sh start
  465  ./catalina.sh stop
  466  ./catalina.sh start
  467  ./catalina.sh stop
  468  ./catalina.sh start
  469  mv if-sso-token-server.war /opt/oracle/tomcat/tomcatServer47-0/webapps/
  470  rm -rf /opt/oracle/tomcat/tomcatServer47-0/webapps/if-sso-token-server
  471  less /nfs/envconfig/pmd/jms.properties
  472  ll
  473  mkdir /nfs
  474  ll
  475  cd /nfs
  476  ll
  477  mkdir envconfig/pmd
  478  mkdir envconfig
  479  mkdir envconfig/pmd
  480  vi /nfs/envconfig/pmd/jms.properties
  481  vi /nfs/envconfig/pmd/jms.properties
  482  vi /nfs/envconfig/pmd/orm.properties
  483  tail -fn100 /opt/oracle/tomcat/tomcatServer47-0/logs/localhost.2011-09-07.log
  484  tail -fn100 /opt/log/sso.token.server.log
  485  ps -ef|grep tomcat
  486  ps -ef|grep tomcat
  487  cd /opt/oracle/tomcat/tomcatServer47-0/
  488  ll
  489  ll webapps/
  490  cd /opt/oracle/
  491  ls
  492  cd tomcat
  493  ls
  494  cd tomcatServer47-0/
  495  ls
  496  cd conf
  497  ls
  498  less context.xml
  499  cat /etc/redhat-release
  500  exit
  501  ls
  502  cd opt
  503  ls
  504  cd /opt/oracle/
  505  ls
  506  cd tomcat
  507  ls
  508  cd tomcatServer47-0/
  509  ls
  510  cd webapps/
  511  ls
  512  cd ..
  513  ls
  514  cd conf
  515  ls
  516  less context.xml
  517  cd ..
  518  ls
  519  cd /opt
  520  ls
  521  pwd
  522  cd /opt
  523  ls
  524  cd oracle/bea/
  525  cd oracle/
  526  ls
  527  cd ..
  528  cd bea
  529  cd /opt
  530  ls
  531  cd  oracle/
  532  ls
  533  cd tomcat
  534  ls
  535  cd tomcatServer47-0/
  536  ls
  537  cd webapps/
  538  ls
  539  cd ..
  540  ls
  541  cd conf
  542  ls
  543  less context.xml
  544  cd /opt/
  545  ls
  546  cd oracle/
  547  ls
  548  cd tomcat/tomcatServer47-0/
  549  cd webapps/
  550  ls
  551  ls ..
  552  history
  553  cd /opt/oracle/
  554  ls
  555  cd tomcat
  556  ls
  557  cd ..
  558  ls
  559  cd tomcatTemplate/
  560  ls
  561  cd bin
  562  ls
  563  sh createInstance.sh tomcatServer47-1
  564  cd ../../
  565  ls
  566  cd tomcat
  567  ls
  568  ll
  569  cd ..
  570  ls
  571  ll
  572  history



蜂鳥 2011-10-26 14:23 發表評論
]]>
Oracle 與 Mysql 常用命令對比http://www.aygfsteel.com/alancxx/articles/350284.html蜂鳥蜂鳥Sun, 15 May 2011 11:05:00 GMThttp://www.aygfsteel.com/alancxx/articles/350284.htmlhttp://www.aygfsteel.com/alancxx/comments/350284.htmlhttp://www.aygfsteel.com/alancxx/articles/350284.html#Feedback0http://www.aygfsteel.com/alancxx/comments/commentRss/350284.htmlhttp://www.aygfsteel.com/alancxx/services/trackbacks/350284.html
Oracle mysql
對比版本 Enterprise Oracle10g Release 10.2.0.1.0 mysql 4.1.21-nt
默認安裝目錄 ..\oracle\product\10.2.0 ..\MySQL\MySQL Server 4.1
各種實用程序所在目錄 ..\oracle\product\10.2.0\db_1\BIN ..\MySQL\MySQL Server 4.1\bin
客戶程序 SQL*Plus mysql
安裝后系統默認用戶(庫) sys
system
scott
mysql
test
顯示所有用戶(庫) SQL >select * from all_users; mysql> show databases;
退出命令 SQL> exit
SQL> quit
mysql> exit
mysql> quit
改變連接用戶(庫) SQL> conn 用戶名/密碼@主機字符串 mysql> use 庫名
查詢當前所有的表 SQL> select * from tab;
SQL> select * from cat;
mysql> show tables;
F:MySQLbin>mysqlshow 庫名
顯示當前連接用戶(庫) SQL> show user mysql> connect
查看幫助 SQL> ? mysql> help
顯示表結構 SQL> desc 表名
SQL> describe 表名
mysql> desc 表名;
mysql> describe 表名;
mysql> show columns from 表名;
F:MySQLbin>mysqlshow 庫名 表名
日期函數 SQL> select sysdate from dual; mysql> select now();
mysql> select sysdate();
mysql> select curdate();
mysql> select current_date;
mysql> select curtime();
mysql> select current_time;
日期格式化 SQL> select to_char(sysdate,'yyyy-mm-dd') from dual;
SQL> select to_char(sysdate,'hh24-mi-ss') from dual;
mysql> select date_format(now(),'%Y-%m-%d');
mysql> select time_format(now(),'%H-%i-%S');
日期函數
(增加一個月)
SQL> select to_char(add_months(to_date('20000101','yyyymmdd'),1),'yyyy-mm-dd') from dual;
結果:2000-02-01
SQL> select to_char(add_months(to_date('20000101','yyyymmdd'),5),'yyyy-mm-dd') from dual;
結果:2000-06-01
mysql> select date_add('2000-01-01',interval 1 month);
結果:2000-02-01
mysql> select date_add('2000-01-01',interval 5 month);
結果:2000-06-01
別名 SQL> select 1 a from dual; mysql> select 1 as a;
字符串截取函數 SQL> select substr('abcdefg',1,5) from dual;
SQL> select substrb('abcdefg',1,5) from dual;
結果:abcde
mysql> select substring('abcdefg',2,3);
結果:bcd
mysql> select mid('abcdefg',2,3);
結果:bcd
mysql> select substring('abcdefg',2);
結果:bcdefg
mysql> select substring('abcdefg' from 2);
結果:bcdefg
另有SUBSTRING_INDEX(str,delim,count)函數
返回從字符串str的第count個出現的分隔符delim之后的子串。
如果count是正數,返回最后的分隔符到左邊(從左邊數) 的所有字符。
如果count是負數,返回最后的分隔符到右邊的所有字符(從右邊數)。
執行外部腳本命令 SQL >@f:\sql\a.sql 1:mysql> source f:/sql/a.sql
2:F:MySQLbin>mysql 3:F:MySQLbin>mysql 庫名
改表名 SQL> rename a to b; mysql> alter table a rename b;
執行命令 ;<回車>
/
r
run
;<回車>
go
ego
distinct用法 SQL> select distinct 列1 from 表1;
SQL> select distinct 列1,列2 from 表1;
mysql> select distinct 列1 from 表1;
mysql> select distinct 列1,列2 from 表1;
注釋 --
/*與*/
#
--
/*與*/
限制返回記錄條數 SQL> select * from 表名 where rownum<5; mysql> select * from 表名 limit 5;
新建用戶(庫) SQL> create user 用戶名 identified by 密碼; mysql> create database 庫名;
刪用戶(庫) SQL> drop user 用戶名; mysql> drop database 庫名;
外連接 使用(+) 使用left join
查詢索引 SQL> select index_name,table_name from user_indexes; mysql> show index from 表名 [FROM 庫名];
通配符 “%” “%”和“_”
SQL語法 SELECT selection_list 選擇哪些列
FROM table_list 從何處選擇行
WHERE primary_constraint 行必須滿足什么條件
GROUP BY grouping_columns 怎樣對結果分組
HAVING secondary_constraint 行必須滿足的第二條件
ORDER BY sorting_columns 怎樣對結果排序
SELECT selection_list 選擇哪些列
FROM table_list 從何處選擇行
WHERE primary_constraint 行必須滿足什么條件
GROUP BY grouping_columns 怎樣對結果分組
HAVING secondary_constraint 行必須滿足的第二條件
ORDER BY sorting_columns 怎樣對結果排序



蜂鳥 2011-05-15 19:05 發表評論
]]>
Hadoop介紹http://www.aygfsteel.com/alancxx/articles/350080.html蜂鳥蜂鳥Thu, 12 May 2011 03:14:00 GMThttp://www.aygfsteel.com/alancxx/articles/350080.htmlhttp://www.aygfsteel.com/alancxx/comments/350080.htmlhttp://www.aygfsteel.com/alancxx/articles/350080.html#Feedback0http://www.aygfsteel.com/alancxx/comments/commentRss/350080.htmlhttp://www.aygfsteel.com/alancxx/services/trackbacks/350080.html這里先大致介紹一下Hadoop.
    本文大部分內容都是從官網
Hadoop上來的。其中有一篇介紹HDFS的pdf文檔,里面對Hadoop介紹的比較全面了。我的這一個系列的Hadoop學習筆記也是從這里一步一步進行下來的,同時又參考了網上的很多文章,對學習Hadoop中遇到的問題進行了歸納總結。
    言歸正傳,先說一下Hadoop的來龍去脈。談到Hadoop就不得不提到
LuceneNutch。首先,Lucene并不是一個應用程序,而是提供了一個純Java的高性能全文索引引擎工具包,它可以方便的嵌入到各種實際應用中實現全文搜索/索引功能。Nutch是一個應用程序,是一個以Lucene為基礎實現的搜索引擎應用,Lucene 為Nutch提供了文本搜索和索引的API,Nutch不光有搜索的功能,還有數據抓取的功能。在nutch0.8.0版本之前,Hadoop還屬于 Nutch的一部分,而從nutch0.8.0開始,將其中實現的NDFS和MapReduce剝離出來成立一個新的開源項目,這就是Hadoop,而 nutch0.8.0版本較之以前的Nutch在架構上有了根本性的變化,那就是完全構建在Hadoop的基礎之上了。在Hadoop中實現了 Google的GFS和MapReduce算法,使Hadoop成為了一個分布式的計算平臺。
   其實,Hadoop并不僅僅是一個用于存儲的分布式文件系統,而是設計用來在由通用計算設備組成的大型集群上執行分布式應用的框架。

   Hadoop包含兩個部分:

   1、HDFS

      即Hadoop Distributed File System (Hadoop分布式文件系統)
      HDFS 具有高容錯性,并且可以被部署在低價的硬件設備之上。HDFS很適合那些有大數據集的應用,并且提供了對數據讀寫的高吞吐率。HDFS是一個 master/slave的結構,就通常的部署來說,在master上只運行一個Namenode,而在每一個slave上運行一個Datanode。
      HDFS 支持傳統的層次文件組織結構,同現有的一些文件系統在操作上很類似,比如你可以創建和刪除一個文件,把一個文件從一個目錄移到另一個目錄,重命名等等操 作。Namenode管理著整個分布式文件系統,對文件系統的操作(如建立、刪除文件和文件夾)都是通過Namenode來控制。 
     下面是HDFS的結構:


      從上面的圖中可以看 出,Namenode,Datanode,Client之間的通信都是建立在TCP/IP的基礎之上的。當Client要執行一個寫入的操作的時候,命令 不是馬上就發送到Namenode,Client首先在本機上臨時文件夾中緩存這些數據,當臨時文件夾中的數據塊達到了設定的Block的值(默認是 64M)時,Client便會通知Namenode,Namenode便響應Client的RPC請求,將文件名插入文件系統層次中并且在 Datanode中找到一塊存放該數據的block,同時將該Datanode及對應的數據塊信息告訴Client,Client便這些本地臨時文件夾中 的數據塊寫入指定的數據節點。
      HDFS采取了副本策略,其目的是為了提高系統的可靠性,可用性。HDFS的副本放置策略是三個副本, 一個放在本節點上,一個放在同一機架中的另一個節點上,還有一個副本放在另一個不同的機架中的一個節點上。當前版本的hadoop0.12.0中還沒有實 現,但是正在進行中,相信不久就可以出來了。

   2、MapReduce的實現

      
MapReduce是Google 的一項重要技術,它是一個編程模型,用以進行大數據量的計算。對于大數據量的計算,通常采用的處理手法就是并行計算。至少現階段而言,對許多開發人員來 說,并行計算還是一個比較遙遠的東西。MapReduce就是一種簡化并行計算的編程模型,它讓那些沒有多少并行計算經驗的開發人員也可以開發并行應用。
      MapReduce的名字源于這個模型中的兩項核心操作:Map和 Reduce。也許熟悉Functional Programming(
函數式編程) 的人見到這兩個詞會倍感親切。簡單的說來,Map是把一組數據一對一的映射為另外的一組數據,其映射的規則由一個函數來指定,比如對[1, 2, 3, 4]進行乘2的映射就變成了[2, 4, 6, 8]。Reduce是對一組數據進行歸約,這個歸約的規則由一個函數指定,比如對[1, 2, 3, 4]進行求和的歸約得到結果是10,而對它進行求積的歸約結果是24。
      關于MapReduce的內容,建議看看孟巖的這篇
MapReduce:The Free Lunch Is Not Over!

   好了,作為這個系列的第一篇就寫這么多了,我也是剛開始接觸Hadoop,下一篇就是講Hadoop的部署,談談我在部署Hadoop時遇到的問題,也給大家一個參考,少走點彎路。


蜂鳥 2011-05-12 11:14 發表評論
]]>
Spring中的ServletContext使用http://www.aygfsteel.com/alancxx/articles/349896.html蜂鳥蜂鳥Tue, 10 May 2011 02:02:00 GMThttp://www.aygfsteel.com/alancxx/articles/349896.htmlhttp://www.aygfsteel.com/alancxx/comments/349896.htmlhttp://www.aygfsteel.com/alancxx/articles/349896.html#Feedback0http://www.aygfsteel.com/alancxx/comments/commentRss/349896.htmlhttp://www.aygfsteel.com/alancxx/services/trackbacks/349896.html

Spring 不但提供了一個功能全面的應用開發框架,本身還擁有眾多可以在程序編寫時直接使用的工具類,您不但可以在 Spring 應用中使用這些工具類,也可以在其它的應用中使用,這些工具類中的大部分是可以在脫離 Spring 框架時使用的。了解 Spring 中有哪些好用的工具類并在程序編寫時適當使用,將有助于提高開發效率、增強代碼質量。

在這個分為兩部分的文章中,我們將從眾多的 Spring 工具類中遴選出那些好用的工具類介紹給大家。第 1 部分將介紹與文件資源操作和 Web 相關的工具類。在 第 2 部分 中將介紹特殊字符轉義和方法入參檢測工具類。

文件資源操作

文件資源的操作是應用程序中常見的功能,如當上傳一個文件后將其保存在特定目錄下,從指定地址加載一個配置文件等等。我們一般使用 JDK 的 I/O 處理類完成這些操作,但對于一般的應用程序來說,JDK 的這些操作類所提供的方法過于底層,直接使用它們進行文件操作不但程序編寫復雜而且容易產生錯誤。相比于 JDK 的 File,Spring 的 Resource 接口(資源概念的描述接口)抽象層面更高且涵蓋面更廣,Spring 提供了許多方便易用的資源操作工具類,它們大大降低資源操作的復雜度,同時具有更強的普適性。這些工具類不依賴于 Spring 容器,這意味著您可以在程序中象一般普通類一樣使用它們。

加載文件資源

Spring 定義了一個 org.springframework.core.io.Resource 接口,Resource 接口是為了統一各種類型不同的資源而定義的,Spring 提供了若干 Resource 接口的實現類,這些實現類可以輕松地加載不同類型的底層資源,并提供了獲取文件名、URL 地址以及資源內容的操作方法。

訪問文件資源

假設有一個文件地位于 Web 應用的類路徑下,您可以通過以下方式對這個文件資源進行訪問:

通過 FileSystemResource 以文件系統絕對路徑的方式進行訪問; 
通過 ClassPathResource 以類路徑的方式進行訪問; 
通過 ServletContextResource 以相對于Web應用根目錄的方式進行訪問。 
相比于通過 JDK 的 File 類訪問文件資源的方式,Spring 的 Resource 實現類無疑提供了更加靈活的操作方式,您可以根據情況選擇適合的 Resource 實現類訪問資源。下面,我們分別通過 FileSystemResource 和 ClassPathResource 訪問同一個文件資源:


清單 1. FileSourceExample
package com.baobaotao.io;
import java.io.IOException;
import java.io.InputStream;
import org.springframework.core.io.ClassPathResource;
import org.springframework.core.io.FileSystemResource;
import org.springframework.core.io.Resource;
public class FileSourceExample {
    public static void main(String[] args) {
        try {
            String filePath = 
            "D:/masterSpring/chapter23/webapp/WEB-INF/classes/conf/file1.txt";
            // ① 使用系統文件路徑方式加載文件
            Resource res1 = new FileSystemResource(filePath); 
            // ② 使用類路徑方式加載文件
            Resource res2 = new ClassPathResource("conf/file1.txt");
            InputStream ins1 = res1.getInputStream();
            InputStream ins2 = res2.getInputStream();
            System.out.println("res1:"+res1.getFilename());
            System.out.println("res2:"+res2.getFilename());
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
}


在獲取資源后,您就可以通過 Resource 接口定義的多個方法訪問文件的數據和其它的信息:如您可以通過 getFileName() 獲取文件名,通過 getFile() 獲取資源對應的 File 對象,通過 getInputStream() 直接獲取文件的輸入流。此外,您還可以通過 createRelative(String relativePath) 在資源相對地址上創建新的資源。

在 Web 應用中,您還可以通過 ServletContextResource 以相對于 Web 應用根目錄的方式訪問文件資源,如下所示:

<%@ page language="java" contentType="text/html; charset=utf-8" pageEncoding="utf-8"%>
<jsp:directive.page import="
    org.springframework.web.context.support.ServletContextResource"/>
<jsp:directive.page import="org.springframework.core.io.Resource"/>
<%
    // ① 注意文件資源地址以相對于 Web 應用根路徑的方式表示
    Resource res3 = new ServletContextResource(application, 
        "/WEB-INF/classes/conf/file1.txt");
    out.print(res3.getFilename());
%>


對于位于遠程服務器(Web 服務器或 FTP 服務器)的文件資源,您則可以方便地通過 UrlResource 進行訪問。

為了方便訪問不同類型的資源,您必須使用相應的 Resource 實現類,是否可以在不顯式使用 Resource 實現類的情況下,僅根據帶特殊前綴的資源地址直接加載文件資源呢?Spring 提供了一個 ResourceUtils 工具類,它支持“classpath:”和“file:”的地址前綴,它能夠從指定的地址加載文件資源,請看下面的例子:


清單 2. ResourceUtilsExample
package com.baobaotao.io;
import java.io.File;
import org.springframework.util.ResourceUtils;
public class ResourceUtilsExample {
    public static void main(String[] args) throws Throwable{
        File clsFile = ResourceUtils.getFile("classpath:conf/file1.txt");
        System.out.println(clsFile.isFile());

        String httpFilePath = "file:D:/masterSpring/chapter23/src/conf/file1.txt";
        File httpFile = ResourceUtils.getFile(httpFilePath);
        System.out.println(httpFile.isFile());        
    }
}


ResourceUtils 的 getFile(String resourceLocation) 方法支持帶特殊前綴的資源地址,這樣,我們就可以在不和 Resource 實現類打交道的情況下使用 Spring 文件資源加載的功能了。

本地化文件資源

本地化文件資源是一組通過本地化標識名進行特殊命名的文件,Spring 提供的 LocalizedResourceHelper 允許通過文件資源基名和本地化實體獲取匹配的本地化文件資源并以 Resource 對象返回。假設在類路徑的 i18n 目錄下,擁有一組基名為 message 的本地化文件資源,我們通過以下實例演示獲取對應中國大陸和美國的本地化文件資源:


清單 3. LocaleResourceTest
package com.baobaotao.io;
import java.util.Locale;
import org.springframework.core.io.Resource;
import org.springframework.core.io.support.LocalizedResourceHelper;
public class LocaleResourceTest {
    public static void main(String[] args) {
        LocalizedResourceHelper lrHalper = new LocalizedResourceHelper();
        // ① 獲取對應美國的本地化文件資源
        Resource msg_us = lrHalper.findLocalizedResource("i18n/message", ".properties", 
        Locale.US);
        // ② 獲取對應中國大陸的本地化文件資源
        Resource msg_cn = lrHalper.findLocalizedResource("i18n/message", ".properties", 
        Locale.CHINA);
        System.out.println("fileName(us):"+msg_us.getFilename()); 
        System.out.println("fileName(cn):"+msg_cn.getFilename());
    }
}


雖然 JDK 的 java.util.ResourceBundle 類也可以通過相似的方式獲取本地化文件資源,但是其返回的是 ResourceBundle 類型的對象。如果您決定統一使用 Spring 的 Resource 接表征文件資源,那么 LocalizedResourceHelper 就是獲取文件資源的非常適合的幫助類了。

文件操作

在使用各種 Resource 接口的實現類加載文件資源后,經常需要對文件資源進行讀取、拷貝、轉存等不同類型的操作。您可以通過 Resource 接口所提供了方法完成這些功能,不過在大多數情況下,通過 Spring 為 Resource 所配備的工具類完成文件資源的操作將更加方便。

文件內容拷貝

第一個我們要認識的是 FileCopyUtils,它提供了許多一步式的靜態操作方法,能夠將文件內容拷貝到一個目標 byte[]、String 甚至一個輸出流或輸出文件中。下面的實例展示了 FileCopyUtils 具體使用方法:


清單 4. FileCopyUtilsExample
package com.baobaotao.io;
import java.io.ByteArrayOutputStream;
import java.io.File;
import java.io.FileReader;
import java.io.OutputStream;
import org.springframework.core.io.ClassPathResource;
import org.springframework.core.io.Resource;
import org.springframework.util.FileCopyUtils;
public class FileCopyUtilsExample {
    public static void main(String[] args) throws Throwable {
        Resource res = new ClassPathResource("conf/file1.txt");
        // ① 將文件內容拷貝到一個 byte[] 中
        byte[] fileData = FileCopyUtils.copyToByteArray(res.getFile());
        // ② 將文件內容拷貝到一個 String 中
        String fileStr = FileCopyUtils.copyToString(new FileReader(res.getFile()));
        // ③ 將文件內容拷貝到另一個目標文件
        FileCopyUtils.copy(res.getFile(), 
        new File(res.getFile().getParent()+ "/file2.txt"));

        // ④ 將文件內容拷貝到一個輸出流中
        OutputStream os = new ByteArrayOutputStream();
        FileCopyUtils.copy(res.getInputStream(), os);
    }
}


往往我們都通過直接操作 InputStream 讀取文件的內容,但是流操作的代碼是比較底層的,代碼的面向對象性并不強。通過 FileCopyUtils 讀取和拷貝文件內容易于操作且相當直觀。如在 ① 處,我們通過 FileCopyUtils 的 copyToByteArray(File in) 方法就可以直接將文件內容讀到一個 byte[] 中;另一個可用的方法是 copyToByteArray(InputStream in),它將輸入流讀取到一個 byte[] 中。

如果是文本文件,您可能希望將文件內容讀取到 String 中,此時您可以使用 copyToString(Reader in) 方法,如 ② 所示。使用 FileReader 對 File 進行封裝,或使用 InputStreamReader 對 InputStream 進行封裝就可以了。

FileCopyUtils 還提供了多個將文件內容拷貝到各種目標對象中的方法,這些方法包括:

方法 說明 
static void copy(byte[] in, File out) 將 byte[] 拷貝到一個文件中 
static void copy(byte[] in, OutputStream out) 將 byte[] 拷貝到一個輸出流中 
static int copy(File in, File out) 將文件拷貝到另一個文件中 
static int copy(InputStream in, OutputStream out) 將輸入流拷貝到輸出流中 
static int copy(Reader in, Writer out) 將 Reader 讀取的內容拷貝到 Writer 指向目標輸出中 
static void copy(String in, Writer out) 將字符串拷貝到一個 Writer 指向的目標中

在實例中,我們雖然使用 Resource 加載文件資源,但 FileCopyUtils 本身和 Resource 沒有任何關系,您完全可以在基于 JDK I/O API 的程序中使用這個工具類。

屬性文件操作

我們知道可以通過 java.util.Properties的load(InputStream inStream) 方法從一個輸入流中加載屬性資源。Spring 提供的 PropertiesLoaderUtils 允許您直接通過基于類路徑的文件地址加載屬性資源,請看下面的例子:

package com.baobaotao.io;
import java.util.Properties;
import org.springframework.core.io.support.PropertiesLoaderUtils;
public class PropertiesLoaderUtilsExample {
    public static void main(String[] args) throws Throwable {    
        // ① jdbc.properties 是位于類路徑下的文件
        Properties props = PropertiesLoaderUtils.loadAllProperties("jdbc.properties");
        System.out.println(props.getProperty("jdbc.driverClassName"));
    }
}


一般情況下,應用程序的屬性文件都放置在類路徑下,所以 PropertiesLoaderUtils 比之于 Properties#load(InputStream inStream) 方法顯然具有更強的實用性。此外,PropertiesLoaderUtils 還可以直接從 Resource 對象中加載屬性資源:

方法 說明 
static Properties loadProperties(Resource resource) 從 Resource 中加載屬性 
static void fillProperties(Properties props, Resource resource) 將 Resource 中的屬性數據添加到一個已經存在的 Properties 對象中

特殊編碼的資源

當您使用 Resource 實現類加載文件資源時,它默認采用操作系統的編碼格式。如果文件資源采用了特殊的編碼格式(如 UTF-8),則在讀取資源內容時必須事先通過 EncodedResource 指定編碼格式,否則將會產生中文亂碼的問題。


清單 5. EncodedResourceExample
package com.baobaotao.io;
import org.springframework.core.io.ClassPathResource;
import org.springframework.core.io.Resource;
import org.springframework.core.io.support.EncodedResource;
import org.springframework.util.FileCopyUtils;
public class EncodedResourceExample {
        public static void main(String[] args) throws Throwable {
            Resource res = new ClassPathResource("conf/file1.txt");
            // ① 指定文件資源對應的編碼格式(UTF-8)
            EncodedResource encRes = new EncodedResource(res,"UTF-8");
            // ② 這樣才能正確讀取文件的內容,而不會出現亂碼
            String content = FileCopyUtils.copyToString(encRes.getReader());
            System.out.println(content); 
    }
}


EncodedResource 擁有一個 getResource() 方法獲取 Resource,但該方法返回的是通過構造函數傳入的原 Resource 對象,所以必須通過 EncodedResource#getReader() 獲取應用編碼后的 Reader 對象,然后再通過該 Reader 讀取文件的內容。


回頁首 

Web 相關工具類

您幾乎總是使用 Spring 框架開發 Web 的應用,Spring 為 Web 應用提供了很多有用的工具類,這些工具類可以給您的程序開發帶來很多便利。在這節里,我們將逐一介紹這些工具類的使用方法。

操作 Servlet API 的工具類

當您在控制器、JSP 頁面中想直接訪問 Spring 容器時,您必須事先獲取 WebApplicationContext 對象。Spring 容器在啟動時將 WebApplicationContext 保存在 ServletContext的屬性列表中,通過 WebApplicationContextUtils 工具類可以方便地獲取 WebApplicationContext 對象。

WebApplicationContextUtils

當 Web 應用集成 Spring 容器后,代表 Spring 容器的 WebApplicationContext 對象將以 WebApplicationContext.ROOT_WEB_APPLICATION_CONTEXT_ATTRIBUTE 為鍵存放在 ServletContext 屬性列表中。您當然可以直接通過以下語句獲取 WebApplicationContext:

WebApplicationContext wac = (WebApplicationContext)servletContext.
getAttribute(WebApplicationContext.ROOT_WEB_APPLICATION_CONTEXT_ATTRIBUTE);


但通過位于 org.springframework.web.context.support 包中的 WebApplicationContextUtils 工具類獲取 WebApplicationContext 更方便:

WebApplicationContext wac =WebApplicationContextUtils.
getWebApplicationContext(servletContext);


當 ServletContext 屬性列表中不存在 WebApplicationContext 時,getWebApplicationContext() 方法不會拋出異常,它簡單地返回 null。如果后續代碼直接訪問返回的結果將引發一個 NullPointerException 異常,而 WebApplicationContextUtils 另一個 getRequiredWebApplicationContext(ServletContext sc) 方法要求 ServletContext 屬性列表中一定要包含一個有效的 WebApplicationContext 對象,否則馬上拋出一個 IllegalStateException 異常。我們推薦使用后者,因為它能提前發現錯誤的時間,強制開發者搭建好必備的基礎設施。

WebUtils

位于 org.springframework.web.util 包中的 WebUtils 是一個非常好用的工具類,它對很多 Servlet API 提供了易用的代理方法,降低了訪問 Servlet API 的復雜度,可以將其看成是常用 Servlet API 方法的門面類。

下面這些方法為訪問 HttpServletRequest 和 HttpSession 中的對象和屬性帶來了方便:

方法 說明 
Cookie getCookie(HttpServletRequest request, String name) 獲取 HttpServletRequest 中特定名字的 Cookie 對象。如果您需要創建 Cookie, Spring 也提供了一個方便的 CookieGenerator 工具類; 
Object getSessionAttribute(HttpServletRequest request, String name) 獲取 HttpSession 特定屬性名的對象,否則您必須通過request.getHttpSession.getAttribute(name) 完成相同的操作; 
Object getRequiredSessionAttribute(HttpServletRequest request, String name) 和上一個方法類似,只不過強制要求 HttpSession 中擁有指定的屬性,否則拋出異常; 
String getSessionId(HttpServletRequest request) 獲取 Session ID 的值; 
void exposeRequestAttributes(ServletRequest request, Map attributes) 將 Map 元素添加到 ServletRequest 的屬性列表中,當請求被導向(forward)到下一個處理程序時,這些請求屬性就可以被訪問到了;

此外,WebUtils還提供了一些和ServletContext相關的方便方法:

方法 說明 
String getRealPath(ServletContext servletContext, String path) 獲取相對路徑對應文件系統的真實文件路徑; 
File getTempDir(ServletContext servletContext) 獲取 ServletContex 對應的臨時文件地址,它以 File 對象的形式返回。

下面的片斷演示了使用 WebUtils 從 HttpSession 中獲取屬性對象的操作:

protected Object formBackingObject(HttpServletRequest request) throws Exception {
    UserSession userSession = (UserSession) WebUtils.getSessionAttribute(request, 
        "userSession");
    if (userSession != null) {
        return new AccountForm(this.petStore.getAccount(
        userSession.getAccount().getUsername()));
    } else {
        return new AccountForm();
    }
}


Spring 所提供的過濾器和監聽器

Spring 為 Web 應用提供了幾個過濾器和監聽器,在適合的時間使用它們,可以解決一些常見的 Web 應用問題。

延遲加載過濾器

Hibernate 允許對關聯對象、屬性進行延遲加載,但是必須保證延遲加載的操作限于同一個 Hibernate Session 范圍之內進行。如果 Service 層返回一個啟用了延遲加載功能的領域對象給 Web 層,當 Web 層訪問到那些需要延遲加載的數據時,由于加載領域對象的 Hibernate Session 已經關閉,這些導致延遲加載數據的訪問異常。

Spring 為此專門提供了一個 OpenSessionInViewFilter 過濾器,它的主要功能是使每個請求過程綁定一個 Hibernate Session,即使最初的事務已經完成了,也可以在 Web 層進行延遲加載的操作。

OpenSessionInViewFilter 過濾器將 Hibernate Session 綁定到請求線程中,它將自動被 Spring 的事務管理器探測到。所以 OpenSessionInViewFilter 適用于 Service 層使用HibernateTransactionManager 或 JtaTransactionManager 進行事務管理的環境,也可以用于非事務只讀的數據操作中。

要啟用這個過濾器,必須在 web.xml 中對此進行配置:


<filter>
    <filter-name>hibernateFilter</filter-name>
    <filter-class>
    org.springframework.orm.hibernate3.support.OpenSessionInViewFilter
    </filter-class>
</filter>
<filter-mapping>
    <filter-name>hibernateFilter</filter-name>
    <url-pattern>*.html</url-pattern>
</filter-mapping>

上面的配置,我們假設使用 .html 的后綴作為 Web 框架的 URL 匹配模式,如果您使用 Struts 等 Web 框架,可以將其改為對應的“*.do”模型。 
中文亂碼過濾器

在您通過表單向服務器提交數據時,一個經典的問題就是中文亂碼問題。雖然我們所有的 JSP 文件和頁面編碼格式都采用 UTF-8,但這個問題還是會出現。解決的辦法很簡單,我們只需要在 web.xml 中配置一個 Spring 的編碼轉換過濾器就可以了:

<web-app>
<!---listener的配置-->
<filter>
    <filter-name>encodingFilter</filter-name>
    <filter-class>
        org.springframework.web.filter.CharacterEncodingFilter ① Spring 編輯過濾器
    </filter-class>
    <init-param> ② 編碼方式
        <param-name>encoding</param-name>
        <param-value>UTF-8</param-value>
    </init-param>
    <init-param> ③ 強制進行編碼轉換
        <param-name>forceEncoding</param-name>
        <param-value>true</param-value>
    </init-param>
    </filter>
    <filter-mapping> ② 過濾器的匹配 URL
        <filter-name>encodingFilter</filter-name>
        <url-pattern>*.html</url-pattern>
    </filter-mapping>

<!---servlet的配置-->
</web-app>


這樣所有以 .html 為后綴的 URL 請求的數據都會被轉碼為 UTF-8 編碼格式,表單中文亂碼的問題就可以解決了。

請求跟蹤日志過濾器

除了以上兩個常用的過濾器外,還有兩個在程序調試時可能會用到的請求日志跟蹤過濾器,它們會將請求的一些重要信息記錄到日志中,方便程序的調試。這兩個日志過濾器只有在日志級別為 DEBUG 時才會起作用:

方法 說明 
org.springframework.web.filter.ServletContextRequestLoggingFilter 該過濾器將請求的 URI 記錄到 Common 日志中(如通過 Log4J 指定的日志文件); 
org.springframework.web.filter.ServletContextRequestLoggingFilter 該過濾器將請求的 URI 記錄到 ServletContext 日志中。

以下是日志過濾器記錄的請求跟蹤日志的片斷:

(JspServlet.java:224) -     JspEngine --> /htmlTest.jsp
(JspServlet.java:225) -       ServletPath: /htmlTest.jsp
(JspServlet.java:226) -          PathInfo: null
(JspServlet.java:227) -          RealPath: D:\masterSpring\chapter23\webapp\htmlTest.jsp
(JspServlet.java:228) -        RequestURI: /baobaotao/htmlTest.jsp


通過這個請求跟蹤日志,程度調試者可以詳細地查看到有哪些請求被調用,請求的參數是什么,請求是否正確返回等信息。雖然這兩個請求跟蹤日志過濾器一般在程序調試時使用,但是即使程序部署不將其從 web.xml 中移除也不會有大礙,因為只要將日志級別設置為 DEBUG 以上級別,它們就不會輸出請求跟蹤日志信息了。

轉存 Web 應用根目錄監聽器和 Log4J 監聽器

Spring 在 org.springframework.web.util 包中提供了幾個特殊用途的 Servlet 監聽器,正確地使用它們可以完成一些特定需求的功能。比如某些第三方工具支持通過 ${key} 的方式引用系統參數(即可以通過 System.getProperty() 獲取的屬性),WebAppRootListener 可以將 Web 應用根目錄添加到系統參數中,對應的屬性名可以通過名為“webAppRootKey”的 Servlet 上下文參數指定,默認為“webapp.root”。下面是該監聽器的具體的配置:


清單 6. WebAppRootListener 監聽器配置

<context-param>
    <param-name>webAppRootKey</param-name>
    <param-value>baobaotao.root</param-value> ① Web 應用根目錄以該屬性名添加到系統參數中
</context-param>

② 負責將 Web 應用根目錄以 webAppRootKey 上下文參數指定的屬性名添加到系統參數中
<listener>
    <listener-class> 
    org.springframework.web.util.WebAppRootListener
    </listener-class>
</listener>


這樣,您就可以在程序中通過 System.getProperty("baobaotao.root") 獲取 Web 應用的根目錄了。不過更常見的使用場景是在第三方工具的配置文件中通過${baobaotao.root} 引用 Web 應用的根目錄。比如以下的 log4j.properties 配置文件就通過 ${baobaotao.root} 設置了日志文件的地址:

log4j.rootLogger=INFO,R
log4j.appender.R=org.apache.log4j.RollingFileAppender
log4j.appender.R.File=${baobaotao.root}/WEB-INF/logs/log4j.log ① 指定日志文件的地址
log4j.appender.R.MaxFileSize=100KB
log4j.appender.R.MaxBackupIndex=1
log4j.appender.R.layout.ConversionPattern=%d %5p [%t] (%F:%L) - %m%n


另一個專門用于 Log4J 的監聽器是 Log4jConfigListener。一般情況下,您必須將 Log4J 日志配置文件以 log4j.properties 為文件名并保存在類路徑下。Log4jConfigListener 允許您通過 log4jConfigLocation Servlet 上下文參數顯式指定 Log4J 配置文件的地址,如下所示:

① 指定 Log4J 配置文件的地址
<context-param>
    <param-name>log4jConfigLocation</param-name>
    <param-value>/WEB-INF/log4j.properties</param-value>
</context-param>

② 使用該監聽器初始化 Log4J 日志引擎
<listener>
    <listener-class>
    org.springframework.web.util.Log4jConfigListener
    </listener-class>
</listener>

提示

一些Web應用服務器(如 Tomcat)不會為不同的Web應用使用獨立的系統參數,也就是說,應用服務器上所有的 Web 應用都共享同一個系統參數對象。這時,您必須通過webAppRootKey 上下文參數為不同Web應用指定不同的屬性名:如第一個 Web 應用使用 webapp1.root 而第二個 Web 應用使用 webapp2.root 等,這樣才不會發生后者覆蓋前者的問題。此外,WebAppRootListener 和 Log4jConfigListener 都只能應用在 Web 應用部署后 WAR 文件會解包的 Web 應用服務器上。一些 Web 應用服務器不會將Web 應用的 WAR 文件解包,整個 Web 應用以一個 WAR 包的方式存在(如 Weblogic),此時因為無法指定對應文件系統的 Web 應用根目錄,使用這兩個監聽器將會發生問題。


Log4jConfigListener 監聽器包括了 WebAppRootListener 的功能,也就是說,Log4jConfigListener 會自動完成將 Web 應用根目錄以 webAppRootKey 上下文參數指定的屬性名添加到系統參數中,所以當您使用 Log4jConfigListener 后,就沒有必須再使用 WebAppRootListener了。

Introspector 緩存清除監聽器

Spring 還提供了一個名為 org.springframework.web.util.IntrospectorCleanupListener 的監聽器。它主要負責處理由 JavaBean Introspector 功能而引起的緩存泄露。IntrospectorCleanupListener 監聽器在 Web 應用關閉的時會負責清除 JavaBean Introspector 的緩存,在 web.xml 中注冊這個監聽器可以保證在 Web 應用關閉的時候釋放與其相關的 ClassLoader 的緩存和類引用。如果您使用了 JavaBean Introspector 分析應用中的類,Introspector 緩存會保留這些類的引用,結果在應用關閉的時候,這些類以及Web 應用相關的 ClassLoader 不能被垃圾回收。不幸的是,清除 Introspector 的唯一方式是刷新整個緩存,這是因為沒法準確判斷哪些是屬于本 Web 應用的引用對象,哪些是屬于其它 Web 應用的引用對象。所以刪除被緩存的 Introspection 會導致將整個 JVM 所有應用的 Introspection 都刪掉。需要注意的是,Spring 托管的 Bean 不需要使用這個監聽器,因為 Spring 的 Introspection 所使用的緩存在分析完一個類之后會馬上從 javaBean Introspector 緩存中清除掉,并將緩存保存在應用程序特定的 ClassLoader 中,所以它們一般不會導致內存資源泄露。但是一些類庫和框架往往會產生這個問題。例如 Struts 和 Quartz 的 Introspector 的內存泄漏會導致整個的 Web 應用的 ClassLoader 不能進行垃圾回收。在 Web 應用關閉之后,您還會看到此應用的所有靜態類引用,這個錯誤當然不是由這個類自身引起的。解決這個問題的方法很簡單,您僅需在 web.xml 中配置 IntrospectorCleanupListener 監聽器就可以了:

<listener>
    <listener-class>
    org.springframework.web.util.IntrospectorCleanupListener
    </listener-class>
</listener>


回頁首 

小結

本文介紹了一些常用的 Spring 工具類,其中大部分 Spring 工具類不但可以在基于 Spring 的應用中使用,還可以在其它的應用中使用。使用 JDK 的文件操作類在訪問類路徑相關、Web 上下文相關的文件資源時,往往顯得拖泥帶水、拐彎抹角,Spring 的 Resource 實現類使這些工作變得輕松了許多。

在 Web 應用中,有時你希望直接訪問 Spring 容器,獲取容器中的 Bean,這時使用 WebApplicationContextUtils 工具類從 ServletContext 中獲取 WebApplicationContext 是非常方便的。WebUtils 為訪問 Servlet API 提供了一套便捷的代理方法,您可以通過 WebUtils 更好的訪問 HttpSession 或 ServletContext 的信息。

Spring 提供了幾個 Servlet 過濾器和監聽器,其中 ServletContextRequestLoggingFilter 和 ServletContextRequestLoggingFilter 可以記錄請求訪問的跟蹤日志,你可以在程序調試時使用它們獲取請求調用的詳細信息。WebAppRootListener 可以將 Web 應用的根目錄以特定屬性名添加到系統參數中,以便第三方工具類通過 ${key} 的方式進行訪問。Log4jConfigListener 允許你指定 Log4J 日志配置文件的地址,且可以在配置文件中通過 ${key} 的方式引用 Web 應用根目錄,如果你需要在 Web 應用相關的目錄創建日志文件,使用 Log4jConfigListener 可以很容易地達到這一目標。

Web 應用的內存泄漏是最讓開發者頭疼的問題,雖然不正確的程序編寫可能是這一問題的根源,也有可能是一些第三方框架的 JavaBean Introspector 緩存得不到清除而導致的,Spring 專門為解決這一問題配備了 IntrospectorCleanupListener 監聽器,它只要簡單在 web.xml 中聲明該監聽器就可以了。



蜂鳥 2011-05-10 10:02 發表評論
]]>
hibernate Restrictions用法 MatchMode.ANYWHEREhttp://www.aygfsteel.com/alancxx/articles/349490.html蜂鳥蜂鳥Wed, 04 May 2011 06:09:00 GMThttp://www.aygfsteel.com/alancxx/articles/349490.htmlhttp://www.aygfsteel.com/alancxx/comments/349490.htmlhttp://www.aygfsteel.com/alancxx/articles/349490.html#Feedback0http://www.aygfsteel.com/alancxx/comments/commentRss/349490.htmlhttp://www.aygfsteel.com/alancxx/services/trackbacks/349490.html

方法

說明

Restrictions.eq

Restrictions.allEq

利用Map來進行多個等于的限制

Restrictions.gt

Restrictions.ge

>=

Restrictions.lt

Restrictions.le

<=

Restrictions.between

BETWEEN

Restrictions.like

LIKE

Restrictions.in

in

Restrictions.and

and

Restrictions.or

or

Restrictions.sqlRestriction

用SQL限定查詢


QBC常用限定方法

Restrictions.eq --> equal,等于.

Restrictions.allEq --> 參數為Map對象,使用key/value進行多個等于的比對,相當于多個Restrictions.eq 的效果

Restrictions.gt --> great-than > 大于

Restrictions.ge --> great-equal >= 大于等于

Restrictions.lt --> less-than, < 小于

Restrictions.le --> less-equal <= 小于等于

Restrictions.between --> 對應SQL的between子句

Restrictions.like --> 對應SQL的LIKE子句

Restrictions.in --> 對應SQL的in子句

Restrictions.and --> and 關系

Restrictions.or --> or 關系

Restrictions.isNull --> 判斷屬性是否為空,為空則返回true

Restrictions.isNotNull --> 與isNull相反

Restrictions.sqlRestriction --> SQL限定的查詢

Order.asc --> 根據傳入的字段進行升序排序

Order.desc --> 根據傳入的字段進行降序排序

MatchMode.EXACT --> 字符串精確匹配.相當于"like 'value'"

MatchMode.ANYWHERE --> 字符串在中間匹配.相當于"like '%value%'"

MatchMode.START --> 字符串在最前面的位置.相當于"like 'value%'"

MatchMode.END --> 字符串在最后面的位置.相當于"like '%value'"

例子
查詢年齡在20-30歲之間的所有學生對象
List list = session.createCriteria(Student.class)
       .add(Restrictions.between("age",new Integer(20),new Integer(30)).list();
查詢學生姓名在AAA,BBB,CCC之間的學生對象
String[] names = {"AAA","BBB","CCC"};
List list = session.createCriteria(Student.class)
       .add(Restrictions.in("name",names)).list();
查詢年齡為空的學生對象
List list = session.createCriteria(Student.class)
       .add(Restrictions.isNull("age")).list();
查詢年齡等于20或者年齡為空的學生對象
List list = session.createCriteria(Student.class)
       .add(Restrictions.or(Restrictions.eq("age",new Integer(20)),
                 Restrictions.isNull("age")).list();

--------------------------------------------------------------------
使用QBC實現動態查詢 
public List findStudents(String name,int age){

Criteria criteria = session.createCriteria(Student.class);
if(name != null){
   criteria.add(Restrictions.liek("name",name,MatchMode.ANYWHERE));
}
if(age != 0){
   criteria.add(Restrictions.eq("age",new Integer(age)));
}
criteria.addOrder(Order.asc("name"));//根據名字升序排列
return criteria.list();
}

-----------------------------------------------------------------------------------

今天用了寫hibernate高級查詢時用了Restrictions(當然Expression也是可以以的)這個類.感覺不錯.
下面的代碼寫的不易讀.其實核心就是一句
Restrictions.or(Restrictions.like(),Restrictions.or(Restrictions.like,........))
里面的or可以無限加的.還是比較好用

Session session = getHibernateTemplate().getSessionFactory()
                .openSession();
        Criteria criteria = session.createCriteria(Film.class);
        List<Film> list = criteria.add(
            Restrictions.or(Restrictions.like("description", key,MatchMode.ANYWHERE),
            Restrictions.or(Restrictions.like("name", key,MatchMode.ANYWHERE),
                Restrictions.or(    Restrictions.like("direct", key,MatchMode.ANYWHERE),
                Restrictions.or(Restrictions.like("mainplay",key,MatchMode.ANYWHERE),
                        Restrictions.like("filearea", key,MatchMode.ANYWHERE)))))).list();

        session.close();
        return list;



蜂鳥 2011-05-04 14:09 發表評論
]]>
Fedora Core 4下的GPG加密解密及文件完整性驗證http://www.aygfsteel.com/alancxx/articles/348896.html蜂鳥蜂鳥Sat, 23 Apr 2011 15:02:00 GMThttp://www.aygfsteel.com/alancxx/articles/348896.htmlhttp://www.aygfsteel.com/alancxx/comments/348896.htmlhttp://www.aygfsteel.com/alancxx/articles/348896.html#Feedback0http://www.aygfsteel.com/alancxx/comments/commentRss/348896.htmlhttp://www.aygfsteel.com/alancxx/services/trackbacks/348896.html
準備知識:
對稱加密:
發送方: 010111 XOR 101100 = 111011   (101100為加密密鑰)
接收方: 111011 XOR 101100 = 010111
公鑰加密:
發送方產生兩把密鑰:公鑰(Public Key)&私鑰(Private Key),也就是密鑰對(Key Pair)
明文->公鑰加密->密文->私鑰解密->明文
數字簽名:
....


-----------------------------發送方的操作-------------------------------------
sh# mkdir ~/.gnupg   //默認是把密鑰對存在此目錄
sh# gpg --gen-key //生成公鑰pubring.gpg,私鑰secring.gpg,郵箱是很重要的
sh# gpg --list-keys //查看所有密鑰,如果生成了多個密鑰對的話就有多個了
sh# gpg --list-public-key //查看所有公鑰,注意pub后面的*號字符串,pub xxxxx/******** 2007-07-10,它就是以下可能用到的KEYID
sh# gpg --list-secret-key //查看所有密鑰
sh# gpg --list-sig //查看所有簽名
sh# gpg --export-secret-keys -a -o secring.asc //導出私鑰,作為備份
sh# gpg -a --export zjstandup@126.com >test.gpg //導出公鑰,郵箱名是第一步填的,對應于zjstandup@126.com的公匙信息就保存到了test.gpg文件中,此文件可以由郵箱發送或上傳至公鑰服務器供別人下載(如subkeys.pgp.net),有點像BT種子,哈哈

/**此處將演示怎么把公鑰上傳至公鑰服務器上,可以直接去網站上傳,也可以像以下這樣用命令上傳
sh# gpg --send-keys KEYID //KEYID用以上那個代替,默認好像是傳到了subkeys.pgp.net,文件名就不是test.gpg了,這些公鑰服務器好像是全球同步更新!厲害阿!

**/


sh# gedit test.txt //生成一個文本,里面輸入點東西,用于以下測試

將演示兩種驗證方式和一個數字簽名
一種是公鑰驗證,大概是用于驗證文件完整性,相當于:sh#md5sum ***;
另一種是私鑰驗證,控制只讓那些知道密碼的人能打開看

sh# gpg --clearsign test.txt //使用私匙對數據進行簽名,生成test.txt.asc,打開此文件還是可以看到內容的,只是多了一些東西,把這個發給其他人,這個演示公鑰驗證
sh# gpg --output test.txt.gpg -r zjstandup@126.com -as --encrypt test.txt //導入私鑰,數據被加密成了test.txt.gpg,打開此文件看不到原信息的,把這個發給對方,這個演示私鑰驗證
sh# gpg --output test.sig --sign test.txt //這個演示數字簽名



---------------------------接收方的操作------------------------------------------
/**下載公鑰,由郵件接收或者從服務器上下載,此處演示從服務器下載
sh# gpg --search-keys zjstandup@126.com //搜索公鑰,啟動了全球搜索?!然后填入1就下載!

**/
sh# gpg --import test.gpg //導入公鑰至本機,test.gpg由發送方郵件傳輸過來或從公鑰服務器下載過來的

/**以下一段不太清楚,好像是防止公鑰被篡改,驗證公鑰的完整性
sh# gpg --fingerprint zjstandup@126.com //指紋取樣,防偽造的公鑰,執行后可以看到密鑰指紋,可以通過其他通訊方式咨詢對方,是否是這個公鑰(應該是上方讓大家注意的pub后面的字符串)
sh# gpg --sign-key zjstandup@126.com
sh# gpg --check-sigs zjstandup@126.com
sh# gpg --edit-key zjstandup@126.com
sh# trust
sh# quit
**/

1:公鑰驗證
sh# gpg --verify test.txt.asc //將有信息表明是完整的簽字,假如改變了這個文件里面的信息再執行此命令,將出現不同的結果哦!

2:私鑰驗證
sh# gpg --decrypt test.txt.gpg > zjstandup.txt //執行,要輸入正確的密碼(在發送端生成密鑰對時的那個)才能生成txt

3;數字簽名
sh# gpg --output sig.txt --decrypt test.sig //將顯示完整的簽字并還原內容生成sig.txt


sh# gpg --help >> manule.txt
sh# gedit manule.txt

//將看到以下說明
gpg (GnuPG) 1.4.1
Copyright (C) 2005 Free Software Foundation, Inc.
This program comes with ABSOLUTELY NO WARRANTY.
This is free software, and you are welcome to redistribute it
under certain conditions. See the file COPYING for details.

Home: ~/.gnupg
支持的算法:
公鑰:RSA, RSA-E, RSA-S, ELG-E, DSA
對稱加密:3DES, CAST5, BLOWFISH, AES, AES192, AES256, TWOFISH
散列:MD5, SHA1, RIPEMD160, SHA256, SHA384, SHA512
壓縮:不壓縮, ZIP, ZLIB, BZIP2

語法:gpg [選項] [文件名]
簽字、檢查、加密或解密
默認的操作依輸入數據而定

指令:

-s, --sign [文件名]           生成一份簽字
     --clearsign [文件名]      生成一份明文簽字
-b, --detach-sign             生成一份分離的簽字
-e, --encrypt                 加密數據
-c, --symmetric               僅使用對稱加密
-d, --decrypt                 解密數據(默認)
     --verify                  驗證簽字
     --list-keys               列出密鑰
     --list-sigs               列出密鑰和簽字
     --check-sigs              列出并檢查密鑰簽字
     --fingerprint             列出密鑰和指紋
-K, --list-secret-keys        列出私鑰
     --gen-key                 生成一副新的密鑰對
     --delete-keys             從公鑰鑰匙環里刪除密鑰
     --delete-secret-keys      從私鑰鑰匙環里刪除密鑰
     --sign-key                為某把密鑰添加簽字
     --lsign-key               為某把密鑰添加本地簽字
     --edit-key                編輯某把密鑰或為其添加簽字
     --gen-revoke              生成一份吊銷證書
     --export                  導出密鑰
     --send-keys               把密鑰導出到某個公鑰服務器上
     --recv-keys               從公鑰服務器上導入密鑰
     --search-keys             在公鑰服務器上搜尋密鑰
     --refresh-keys            從公鑰服務器更新所有的本地密鑰
     --import                  導入/合并密鑰
     --card-status             打印卡狀態
     --card-edit               更改卡上的數據
     --change-pin              更改卡的 PIN
     --update-trustdb          更新信任度數據庫
     --print-md 算法 [文件]    使用指定的散列算法打印報文散列值

選項:

-a, --armor                   輸出經 ASCII 封裝
-r, --recipient 某甲          為收件者“某甲”加密
-u, --local-user              使用這個用戶標識來簽字或解密
-z N                          設定壓縮等級為 N (0 表示不壓縮)
     --textmode                使用標準的文本模式
-o, --output                  指定輸出文件
-v, --verbose                 詳細模式
-n, --dry-run                 不做任何改變
-i, --interactive             覆蓋前先詢問
     --openpgp                 行為嚴格遵循 OpenPGP 定義
     --pgp2                    生成與 PGP 2.x 兼容的報文

(請參考在線說明以獲得所有命令和選項的完整清單)

范例:

-se -r Bob [文件名]          為 Bob 這個收件人簽字及加密
--clearsign [文件名]         做出明文簽字
--detach-sign [文件名]       做出分離式簽字
--list-keys [某甲]           顯示密鑰
--fingerprint [某甲]         顯示指紋

請向 <gnupg-bugs@gnu.org> 報告程序缺陷。
請向 <zuxyhere@eastday.com> 反映簡體中文翻譯的問題。


蜂鳥 2011-04-23 23:02 發表評論
]]>
GPG(pgp)加解密詳述http://www.aygfsteel.com/alancxx/articles/348895.html蜂鳥蜂鳥Sat, 23 Apr 2011 14:55:00 GMThttp://www.aygfsteel.com/alancxx/articles/348895.htmlhttp://www.aygfsteel.com/alancxx/comments/348895.htmlhttp://www.aygfsteel.com/alancxx/articles/348895.html#Feedback0http://www.aygfsteel.com/alancxx/comments/commentRss/348895.htmlhttp://www.aygfsteel.com/alancxx/services/trackbacks/348895.html一、介紹

我們都知道,互聯網是不安全的,但其上所使用的大部分應用,如Web、Email等一般都只提供明文傳輸方式(用https、smtps等例外)。所以,當我們需要傳輸重要文件時,應該對當中的信息加密。非對稱密碼系統是其中一種常見的加密手段。而在基于PGP方式加密的中文介紹少之又少,所以萌生了寫一個完整教程的想法,當然本文部分資料是我搜遍網絡整理出來的,并不能保證百分之百的原創

GnuPG 是一個用來進行非對稱加密(PGP)的免費軟件,簡稱GPG(是不是有的童鞋已經被PGP和GPG給搞昏了)。先說說什么是非對稱加密。傳統的加密手段往往是使用同一個密碼進行加密和解密。例如你加密時用的密碼是“abc”, 則解密時也要使用“abc”才行。這樣就存在一個問題,你不能夠把一段加密信息發送給你的朋友。試想,如果采用這種加密方式把信息發送給你的朋友時,你的 朋友必須要知道你的密碼才能把你的信息解密出來。但你如何保證你的朋友是絕對可靠的呢?也就是說,如果你的朋友把你的密碼告訴了別人,你的密碼就不再安全 了。
非對稱加密采用的是另一種思想。它會給你產生兩個密鑰,一個稱為“公鑰”,另一個稱為“私鑰”。公鑰是可以公開的,你盡管把它傳給別 人;私鑰你一定要保管好不讓其他任何人知道。當某人得到你的公鑰后,他就可以給你發送加密信息了。具體來說,他把他要發給你的信息用你的公鑰加密后發給 你,加密的信息只能用你的私鑰去解密。這樣,因為世界上除了你以外沒有別人知道你的私鑰,所以即使別人看到發送給你的加密信息他也無法解密,甚至連發送者 本人也不行。因為他不知道你的私鑰。簡單說來,就是用公鑰去加密;用對應的私鑰去解密。想給誰發送加密信息,首先要得到他的公鑰。
支持非 對稱加密的軟件有多種,最著名的可能是美國的PGP了,不過它是個商業軟件,價格不便宜。對于加密軟件,我反對使用破解軟件,因為如果信息需要加密的話, 肯定是非常重要的信息,破解軟件無法保證加密的安全可靠。因此我建議使用免費開源的GnuPG軟件進行信息的加密和解密。

二、使用:

1.生成密鑰對
要使用GnuPG加密,首先需要創建密鑰對,執行:

# gpg –gen-key
gpg (GnuPG) 1.4.5; Copyright (C) 2006 Free Software Foundation, Inc.
This program comes with ABSOLUTELY NO WARRANTY.
This is free software, and you are welcome to redistribute it
under certain conditions. See the file COPYING for details.

 

請選擇您要使用的密鑰種類:
(1) DSA 和 ElGamal (默認)
(2) DSA (僅用于簽名)
(5) RSA (僅用于簽名)
您的選擇? 1  ←只有1可以用于加密,其他種類只能用于簽名
DSA 密鑰對會有 1024 位。
ELG-E 密鑰長度應在 1024 位與 4096 位之間。
您想要用多大的密鑰尺寸?(2048)  ←選擇密碼的位數,位數越大,越安全,但速度越慢
您所要求的密鑰尺寸是 2048 位
請設定這把密鑰的有效期限。
0 = 密鑰永不過期
<n>  = 密鑰在 n 天后過期
<n>w = 密鑰在 n 周后過期
<n>m = 密鑰在 n 月后過期
<n>y = 密鑰在 n 年后過期
密鑰的有效期限是?(0) 0  ←根據實際情況選擇密鑰期限
密鑰永遠不會過期
以上正確嗎?(y/n)y  ←確認

您需要一個用戶標識來辨識您的密鑰;本軟件會用真實姓名、注釋和電子郵件地址組合
成用戶標識,如下所示:
“Heinrich Heine (Der Dichter) <heinrichh@duesseldorf.de>”

真實姓名:Hyphen Wang  ←請填入真實姓名,后面會用到
電子郵件地址:gpgencrypt@linuxfly.org  ←郵件作為標記之一,不能重復
注釋:Use for GPG Encrypt  ←僅是注釋而已
您選定了這個用戶標識:
“Hyphen Wang (Use for GPG Encrypt) <gpgencrypt@linuxfly.org>”

更改姓名(N)、注釋(C)、電子郵件地址(E)或確定(O)/退出(Q)?O  ←輸入“O”確認
您需要一個密碼來保護您的私鑰。  ←輸入兩次用于訪問私鑰的密碼,緊記,不能公開或丟失

我們需要生成大量的隨機字節。這個時候您可以多做些瑣事(像是敲打鍵盤、移動
鼠標、讀寫硬盤之類的),這會讓隨機數字發生器有更好的機會獲得足夠的熵數。
++++++++++…++++++++++..++++++++

隨機字節不夠多。請再做一些其他的瑣事,以使操作系統能搜集到更多的熵數!
(還需要274字節)  ←運行一些的程序,以便在內存中獲得更多隨機數
我們需要生成大量的隨機字節。這個時候您可以多做些瑣事(像是敲打鍵盤、移動
鼠標、讀寫硬盤之類的),這會讓隨機數字發生器有更好的機會獲得足夠的熵數。
+++++++++++++++++++++++++.+++++.+++++.++++++++++.+++<+++++..+++++^^^
gpg: 密鑰 A3942296 被標記為絕對信任  ←密鑰ID
公鑰和私鑰已經生成并經簽名。

gpg: 正在檢查信任度數據庫
gpg: 需要 3 份勉強信任和 1 份完全信任,PGP 信任模型
gpg: 深度:0 有效性:  2 已簽名:  0 信任度:0-,0q,0n,0m,0f,2u
pub   1024D/A3942296 2008-12-19
密鑰指紋 = E95E 1F77 6C4E 33BD 740C  19AB EEF9 A67E A394 2296
uid                  Hyphen Wang (Use for GPG Encrypt) <gpgencrypt@linuxfly.org>
sub   2048g/911E677B 2008-12-19

2.密鑰的回收
當您的密鑰對生成之后,您應該立即做一個公鑰回收證書,如果您忘記了您的私鑰的口令或者您的私鑰丟失或者被盜竊,您可以發布這個證書來聲明以前的公鑰不再有效。生成回收證書的選項是”–gen-revoke”。

gpg –output revoke.asc –gen-revoke mykeyID

其中mykey 參數是可以表示的密鑰標識,產生的回收證書放在revoke.asc文件里,一旦回收證書被發放,以前的證書就不能再被其他用戶訪問,因此以前的公鑰也就失效了。

PS:如果一旦決定撤銷已經上傳的公鑰,就需要將該密鑰的回收證書上傳至密鑰服務器完成回收工作。

gpg –keyserver Server Address –send-keys mykeyID

3.密鑰的上傳

當上述工作完成以后,為了讓盡可能多的人獲取您的公鑰,您可以將公鑰郵寄出去,或者貼在自己的個人主頁上,當然還有一種更好的方法就是上傳到全球性的密鑰服務器,其他用戶可以通過您提供的公鑰ID來搜索并獲得您的公鑰。

通過如下命令可以將你的key發布到服務器上:

gpg –keyserver Server Address –send-keys mykeyID
PS:當然您也可以定義默認的服務器key server,一般安裝好后的默認key server都是subkeys.pgp.net。你也可以通過修改.gnupg/gpg.conf中的keyserver信息來改變你的key server。
4.密鑰的導出/導入

我們通常需要導出公鑰和私鑰保存起來,當然公鑰是可以滿世界的潑灑,但是私鑰請務必保存好,否則你的密鑰對將會永久性的失去威力。
  • 公鑰的導出:

gpg -o keyfilename –export mykeyID

如果沒有mykeyID則是備份所有的公鑰,-o表示輸出到文件keyfilename中,如果加上-a的參數則輸出文本格式( ASCII )的信息,否則輸出的是二進制格式信息。

  • 私鑰的導出:

gpg -o keyfilename –export-secret-keys mykeyID

如果沒有mykeyID則是備份所有的私鑰,-o表示輸出到文件keyfilename中,如果加上-a的參數則輸出文本格式的信息,否則輸出的是二進制格式信息。

  • 密鑰的導入:

gpg –import filename

PS:用戶可以使用gpg –list-keys命令查看是否成功導入了密鑰。

5.加密解密和數字簽名

通過上述的密鑰生成以及公鑰分發后,加密和解密數據變得非常容易,用戶可以通過使用該功能來達到安全地在網絡上傳輸自己的隱密數據的目的。

如果用戶patterson要給用戶liyang發送一個加密文件,則他可以使用liyang的公鑰加密這個文件,并且這個文件也只有liyang使用自己的密鑰才可以解密查看。下面給出加解密的步驟:

  • 用戶patterson使用liyang的公鑰加密文件test,使用下面的指令:

# gpg -e test

You did not specify a user ID. (you may use “-r”)

Enter the user ID. End with an empty line: liyang

Added 1024g/C50E455A 2006-01-02 “liyang (hello) < liyang@sina.com>”

這樣,就可以將gpg.conf文件加密成test.gpg,一般用戶是無法閱讀的

PS:當然你也可以直接指定使用哪個用戶的公鑰進行加密:

gpg -e -r liyang test  (-r 表示指定用戶)

還可以加上參數 -a 來輸出ASCII編碼的文件test.asc(test.gpg是二進制編碼的,不可用文本讀)

gpg -ea -r liyang test

  • 用戶liyang 使用自己的私鑰來解密該文件,如下所示:

# gpg -d test.gpg

You need a passphrase to unlock the secret key for

user: “liyang (hello) < liyang@sina.com>”

1024-bit ELG-E key, ID C50E455A, created 2006-01-02 (main key ID 378D11AF)

GnuPG提示用戶,需要輸入生成私鑰使用的密碼:

Enter passphrase:

gpg: encrypted with 1024-bit ELG-E key, ID C50E455A, created 2006-01-02

“liyang (hello) < liyang@sina.com>”

PS:無論加密解密,都可以加上-o參數來指定加密和解密后的輸出文件,例如

#gpg -o doc.gpg -er name doc
其中name是選擇誰的公鑰加密,即誰是文件的接收者。
doc為要加密的文件,即原文件
doc.gpg為命令執行后生成的加密的文件,這里要先指定好文件名

  • 對文件進行簽名

1、數字簽名
命令格式:
#gpg -o doc.sig -s doc
其中doc是原文件,doc.sig包含了原文件和簽名,是二進制的。這個命令會要求你輸入你的私鑰的密碼句。
#gpg -o doc.sig -ser name doc
既簽名又加密

2、文本簽名
#gpg -o doc.sig –clearsign doc
這樣產生的doc.sig同樣包含原文件和簽名,其中簽名是文本的,而原文件不變。

3、分離式簽名
#gpg -o doc.sig -ab doc
doc.sig僅包括簽名,分離式簽名的意思是原文件和簽名是分開的。
b 表示分離式簽名detach-sign

4、驗證簽名
#gpg –verify doc.sig [doc]
驗證之前必須導入文件作者的公鑰,對于分離式簽名,最后還要加上原文件,即后面的doc。

  • 密匙簽名和用戶信任(進階功能)

盡管在理論上講,具備了公匙和私匙就可以實現安全的信息通訊,但是在實際應用中,還必須對公匙進行有效確認。因為,確實存在偽造公匙信息的可能。

由此,在GPG中引入了一個復雜的信任系統,以幫助我們區分哪些密匙是真的,哪些密匙是假的。這個信任系統是基于密匙的,主要包括密匙簽名。

當收到熟人的公匙并且GPG告知不存在任何實體可信信息附加于這個公匙后,首要的事情就是對這個密匙進行“指紋采樣”(fingerprint)。例如,我們對來自mike的公匙進行了導入操作,并且GPG告知我們不存在這個密匙的附加可信信息,這時候,我們首先要做的工作就是對這個新密匙進行“指紋采樣 ”,相關命令及執行情況如下:

$ gpg –fingerprint mike@hairnet.orgpub 1024D/4F03BD39 2001-01-15 Mike Socks (I’m WIRED) Key fingerprint = B121 5431 8DE4 E3A8 4AA7 737D 20BE 0DB8 4F03 BD39sub 1024g/FDBB477D 2001-01-15$

這樣,就從密匙數據中生成了其指紋信息,并且應該是唯一的。然后,我們打電話給mike,確認兩件事情。首先,他是否發送給我們了密匙;其次,他的公匙的指紋信息是什么。如果Mike確認了這兩件事情,我們就可以確信這個密匙是合法的。接下來,我們對密匙進行簽名操作,以表示這個密匙來自Mike而且我們對密匙的信任,相關命令及執行情況如下:

$ gpg –sign-key mike@hairnet.orgpub 1024D/4F03BD39 created: 2001-01-15 expires: neversub 1024g/FDBB477D created: 2001-01-15 expires: never(1) Mike Socks (I’m WIRED) pub 1024D/4F03BD39 created: 2001-01-15 expires: neverFingerprint = B121 5431 8DE4 E3A8 4AA7 737D 20BE 0DB8 4F03 BD39Mike Socks (I’m WIRED) Are you really sure that you want to sign this keywith your key: Ima User (I’m just ME) Really sign? yYou need a passphrase to unlock the secret key foruser: Ima User (I’m just ME) 1024-bit DSA key, ID D9BAC463, created 2001-01-03Enter passphrase:$

執行到此,使用我們的私匙完成了對Mike的公匙的簽名操作,任何持有我們的公匙的人都可以查證簽名確實屬于我們自己。這個附加到Mike的公匙上的簽名信息將隨它環游Internet世界,我們使用個人信譽,也就是我們自己的私匙,保證了那個密匙確實屬于Mike。這是一個多么感人的充滿誠信的故事啊 :-) 現實世界的人們是否應該從這嚴格的技術標準中反思些什么呢?

還是回到這里。獲取附加于一個公匙上的簽名信息列表的命令是:

gpg –check-sigs mike@hairnet.org

簽名列表越長,密匙的可信度越大。其實,正是簽名系統本身提供了密匙查證功能。假設我們接收到一個簽名為Mike的密匙,通過Mike的公匙,我們驗證出簽名確實屬于Mike,那么我們就信任了這個密匙。推而廣之,我們就可以信任Mike簽名的任何密匙。

為了更加穩妥,GPG還引入了另一個附加功能:可信級別(trust level)。使用它,我們可以為我們擁有的任何密匙的所有者指定可信級別。例如,即使我們知道Mike的公匙是可信的,但是事實上我們不能信任Mike在對其他密匙簽名時的判斷;我們會想,Mike也許只對少數密匙進行了簽名,但卻沒有好好地檢查一遍。

設置可信級別的命令及執行情況如下:

$ gpg –edit-key mike@hairnet.orgpub 1024D/4F03BD39 created: 2001-01-15 expires: never trust: -/fsub 1024g/FDBB477D created: 2001-01-15 expires: never(1) Mike Socks (I’m WIRED) Command> trust 1 = Don’t know 2 = I do NOT trust 3 = I trust marginally 4 = I trust fully s = please show me more information m = back to the main menuYour decision? 2Command> quit$

在命令編輯環境中執行trust,然后選擇級別2(I do NOT trust),這樣我們割斷了任何信任鏈,使每個密匙都必須經過Mike的簽名。

6.刪除密鑰

從私鑰鑰匙環里刪除密鑰:

# gpg –delete-secret-keys hyphenwang@redflag-linux.com
gpg (GnuPG) 1.4.5; Copyright (C) 2006 Free Software Foundation, Inc.
This program comes with ABSOLUTELY NO WARRANTY.
This is free software, and you are welcome to redistribute it
under certain conditions. See the file COPYING for details.

 

sec  1024D/A3942296 2008-12-19 Hyphen Wang (Use for GPG Encrypt) <gpgencrypt@linuxfly.org>

要從鑰匙環里刪除這把密鑰嗎?(y/N)y
這是一把私鑰!――真的要刪除嗎?(y/N)y

必須先刪除私鑰,然后才能刪除公鑰。
從公鑰鑰匙環里刪除密鑰:

# gpg –delete-keys hyphenwang@redflag-linux.com
gpg (GnuPG) 1.4.5; Copyright (C) 2006 Free Software Foundation, Inc.
This program comes with ABSOLUTELY NO WARRANTY.
This is free software, and you are welcome to redistribute it
under certain conditions. See the file COPYING for details.

 

sec  1024D/A3942296 2008-12-19 Hyphen Wang (Use for GPG Encrypt) <gpgencrypt@linuxfly.org>

要從鑰匙環里刪除這把密鑰嗎?(y/N)y

三.對稱加密:

當然GPG同樣具備普通的對稱加密功能,這時候就不需要密鑰,直接用密碼加密即可(注意,這里的密碼不一定是你私鑰的密碼,您大可以隨意設定)

gpg -o doc.gpg -c doc

---------------------------------------------

四.GPG常用參數:

語法:gpg [選項] [文件名]
簽字、檢查、加密或解密
默認的操作依輸入數據而定

指令:

-s, –sign [文件名]           生成一份簽字
–clearsign [文件名]      生成一份明文簽字
-b, –detach-sign             生成一份分離的簽字
-e, –encrypt                 加密數據
-c, –symmetric               僅使用對稱加密
-d, –decrypt                 解密數據(默認)
–verify                  驗證簽字
–list-keys               列出密鑰
–list-sigs               列出密鑰和簽字
–check-sigs              列出并檢查密鑰簽字
–fingerprint             列出密鑰和指紋
-K, –list-secret-keys        列出私鑰
–gen-key                 生成一副新的密鑰對
–delete-keys             從公鑰鑰匙環里刪除密鑰
–delete-secret-keys      從私鑰鑰匙環里刪除密鑰
–sign-key                為某把密鑰添加簽字
–lsign-key               為某把密鑰添加本地簽字
–edit-key                編輯某把密鑰或為其添加簽字
–gen-revoke              生成一份吊銷證書
–export                  導出密鑰
–send-keys               把密鑰導出到某個公鑰服務器上
–recv-keys               從公鑰服務器上導入密鑰
–search-keys             在公鑰服務器上搜尋密鑰
–refresh-keys            從公鑰服務器更新所有的本地密鑰
–import                  導入/合并密鑰
–card-status             打印卡狀態
–card-edit               更改卡上的數據
–change-pin              更改卡的 PIN
–update-trustdb          更新信任度數據庫
–print-md 算法 [文件]    使用指定的散列算法打印報文散列值

選項:

-a, –armor                   輸出經 ASCII 封裝
-r, –recipient 某甲          為收件者“某甲”加密
-u, –local-user              使用這個用戶標識來簽字或解密
-z N                          設定壓縮等級為 N (0 表示不壓縮)
–textmode                使用標準的文本模式
-o, –output                  指定輸出文件
-v, –verbose                 詳細模式
-n, –dry-run                 不做任何改變
-i, –interactive             覆蓋前先詢問
–openpgp                 行為嚴格遵循 OpenPGP 定義
–pgp2                    生成與 PGP 2.x 兼容的報文

(請參考在線說明以獲得所有命令和選項的完整清單)

范例:

-se -r Bob [文件名]          為 Bob 這個收件人簽字及加密
–clearsign [文件名]         做出明文簽字
–detach-sign [文件名]       做出分離式簽字
–list-keys [某甲]           顯示密鑰
–fingerprint [某甲]         顯示指紋

———————————————————————————–



蜂鳥 2011-04-23 22:55 發表評論
]]>
GPG 簡單使用http://www.aygfsteel.com/alancxx/articles/GPG.html蜂鳥蜂鳥Sat, 23 Apr 2011 14:39:00 GMThttp://www.aygfsteel.com/alancxx/articles/GPG.htmlhttp://www.aygfsteel.com/alancxx/comments/348893.htmlhttp://www.aygfsteel.com/alancxx/articles/GPG.html#Feedback0http://www.aygfsteel.com/alancxx/comments/commentRss/348893.htmlhttp://www.aygfsteel.com/alancxx/services/trackbacks/348893.html

The GNU Privacy Guard

Private和public的鑰匙是gpg加密和解密過程的主要部分,所以第一步就是創建為自己創建一對密匙.

  1. 生成私鑰

    $gpg --gen-key

    你需要回答一些這個命令提出的問題

    1. 私鑰的種類和size,這里缺省的答案已經足夠好了

    2. 私鑰的有效期,我通常選擇不會過期,呵呵

    3. 你的真實的姓名和e-mail地址,這些是用來從一大堆鑰匙中找到你的鑰匙的

    4. 關于你的鑰匙的comment,可以為空,我一般填一個昵稱

    5. 鑰匙的密碼. 千萬別忘了,否則所有你加密過的文件都沒用了

  2. 為你的私鑰生成一個公鑰(文本文件),這是我的:aubrey.asc.zip

    $ gpg --armor --output public.key --export <your email>

    你可以分發這個文件了,給你的朋友,或者貼到你的個人網站上, or whatever.

  3. 為自己加密一個文件. 這里--recipient可以是你的全名,也可以是你的郵件地址
    #gpg --encrypt --recipient 'Your Name' foo.txt
  4. 密這個文件. 這里不加--output選項的話,解密的內容將被送到屏幕上
    #gpg --output foo.txt --decrypt foo.txt.gpg
  5. 別人加密一個文件. 這里首先要import別人的公鑰,然后加密。注意這里變化的只是--recipient選項
    #gpg --import key.asc
    #gpg --list-keys
    #gpg --encrypt --recipient 'myfriend@his.isp.net' foo.txt

  6. 解密一個從別人那里發來的文件. 這個和本機加密的文件解密沒什么區別.
    #gpg --output foo.txt --decrypt foo.txt.gpg          



蜂鳥 2011-04-23 22:39 發表評論
]]>
主站蜘蛛池模板: 宣武区| 泸溪县| 辽阳市| 禹城市| 仙游县| 安阳市| 安达市| 西吉县| 五原县| 商城县| 安仁县| 花莲县| 教育| 泗洪县| 彭泽县| 集安市| 阳泉市| 定襄县| 新闻| 宝兴县| 京山县| 济宁市| 光泽县| 阿瓦提县| 江津市| 吉林省| 华宁县| 沁阳市| 彭水| 义马市| 桐梓县| 扶风县| 遵化市| 林口县| 桂林市| 眉山市| 罗甸县| 平泉县| 蚌埠市| 黎川县| 盱眙县|