`
文章列表
前言在平时开发、测试过程中、甚至是生产环境中,有时会遇到OutOfMemoryError,Java堆溢出了,这表明程序有严重的问题。我们需要找造成OutOfMemoryError原因。一般有两种情况: 1、内存泄露,对象已经死了,无法通过垃圾收集器进行自动回收,通过找出泄露的代码位置和原因,才好确定解决方案;2、内存溢出,内存中的对象都还必须存活着,这说明Java堆分配空间不足,检查堆设置大小(-Xmx与-Xms),检查代码是否存在对象生命周期太长、持有状态时间过长的情况。以上是处理Java堆问题的思路,具体是怎么进行分析,这里介绍的是使用Eclipse Memory Analyzer t ...
linux用dd测试磁盘速度   首先要了解两个特殊的设备: /dev/null:回收站、无底洞 /dev/zero:产生字符   测试磁盘写能力 time dd if=/dev/zero of=/test.dbf bs=8k count=300000 因为/dev//zero是一个伪设备,它只产生空字符流,对它不会产生IO,所以,IO都会集中在of文件中,of文件只用于写,所以这个命令相当于测试磁盘的写能力。 测试磁盘读能力 time dd if=/dev/sdb1 of=/dev/null bs=8k 因为/dev/sdb1是一个物理分区,对它的读取会产生IO,/de ...

hadoop版本

Apache版本下载 (1) 各版本说明:http://hadoop.apache.org/releases.html。   (2) 下载稳定版:找到一个镜像,下载stable文件夹下的版本。   (3) Hadoop最全版本:http://svn.apache.org/repos/asf/hadoop/common/branches/,可直接导到eclipse中。   CDH版本下载 (1) 版本含义介绍:   https://ccp.cloudera.com/display/DOC/CDH+Version+and+Packaging+Information   (2 ...

Hbase安装

    Hbase安装   1、查看安装需求      安装java 1.6及hadoop 1.x   2、安装Hbase        tar -xvf hbase-x.y.z.tar.gz(本次安装为hbase-0.92.2.tar)      将解压后的hbase-0.92.2.tar文件放在系统的/home/hadoop/中。        在/etc/profile中添加: export HBASE_HOME=/home/hadoop/hbase-0.92.2 export PATH=$HBASE_HOME/bin:$PATH 配置hbase-env.sh ...
    #coding=utf-8 #自动清理时间到期的文件夹 import os import time import datetime #删除文件夹下所有文件和子文件夹 def delete_file_folder(src): '''delete files and folders''' if os.path.isfile(src): try: os.remove(src) except: pass elif os.path.isdir(src): ...
  创建用户 useradd -d /home/test -s /bin/bash test chown -R test:test /home/test cp /etc/skel/* /home/test passwd test  
  数据流可分节点流(想象成一管子直接接文件或内存等上),处理流(套在节点流之外使用).   一、理解数据流: 流一般分为输入流Input Stream和输出流Output Stream. Java的标准数据流: 指在字符方式下,程序与系统进行交互的方式.标 ...
  最近apache2.2+tomcat5.5.28(两个)的系统,客户反映说访问时报告了 503 错误,需要不断的刷新。 apache2.2使用的是mod_proxy_ajp与tomcat5连接。     apache错误日志:   [Fri Mar 23 15:36:57 2012] [error] proxy: dialog to **.***.*.**:8109 (**.***.*.**) failed [Fri Mar 23 15:37:54 2012] [error] proxy: BALANCER: (balancer://cluster). All workers ...
  最近在Tomcat与apache2集群的问题的应用程序中, 有一个文件下载的功能。在连续多次点击下载,然后再打开的下载对话框点击【取消】之后。出现服务器无法访问503的错误。   错误日志: catalina.out: Exception thrown whilst processing POSTed parameters java.io.IOException at org.apache.jk.common.JkInputStream.receive(JkInputStream.java:205) at org.apache.jk.common.JkInputSt ...
   JVM参数的设置(特别是 –Xmx –Xms –Xmn -XX:SurvivorRatio -XX:MaxTenuringThreshold等参数的设置没有一个固定的公式,需要根据PV old区实际数据 YGC次数等多方面来衡量。为了避免promotion faild可能会导致xmn设置偏小,也意味着YGC的次数会增多,处理并发访问的能力下降等问题。每个参数的调整都需要经过详细的性能测试,才能找到特定应用的最佳配置。    promotion failed:    垃圾回收时promotion failed是个很头痛的问题,一般可能是两种原因产生,第一个原因是救助空间不够,救助空间里的对 ...
转载请注明原文链接:http://kenwublog.com/understand-shallow-and-retained-size-in-hprofling   所有包含Heap Profling功能的工具(MAT, Yourkit, JProfiler, TPTP等)都会使用到两个名词,一个是Shallow Size,另一个是 Retained Size.这是两个在平时不太常见的 ...
  利用闪回查看oracle的记录的历史记录, 通过历史时间:     SELECT * FROM TABLE_NAME AS OF TIMESTAMP SYSDATE - 1 WHERE COL_A = '##';  
  前几天Java应用程序调用AIX下的Oracle时,报ORA-00600: internal error code, arguments: [13310], [], [], [], [], [], [], []的错误。   原因:是AIX系统的/etc/hosts文件的权限被修改了,变成750了(安全部门做系统加固引起的),修改回755后问题解决。   紧记:不要随便修改系统文件的权限,随便进行安全加固。  
处理对象类型 SCHEMA_EXPORT/TABLE/STATISTICS/TABLE_STATISTICS ORA-39125: 在 KUPW$WORKER.PUT_DDLS 中 Worker 发生意外的致命错误 (在调用 DBMS_METADATA.CONVERT [TABLE_STATISTICS] 时) ORA-06502: PL/SQL: 数字或值错误 LPX-00225: end-element tag "HIST_GRAM_LIST_ITEM" does not match start-element tag "EPVALUE" ...

删除oracle表空间

  drop tablespace tbname;  --将表空间删除(表空间中无对象存在)drop tablespace tbname  including contents(将表空间及存在其中的对象一起删除) 以上两个语句都不能物理的将表空间数据文件删除,如果想将文件一起删除,则需要下面语法:drop tablespace tbname  including contents and datafiles;
Global site tag (gtag.js) - Google Analytics