HBASE遇到的java.lang.OutOfMemoryE

简单分享一下,类似问题的解决方法

创新互联长期为1000+客户提供的网站建设服务,团队从业经验10年,关注不同地域、不同群体,并针对不同对象提供差异化的产品和服务;打造开放共赢平台,与合作伙伴共同营造健康的互联网生态环境。为徐汇企业提供专业的网站设计、成都网站建设,徐汇网站改版等技术服务。拥有10多年丰富建站经验和众多成功案例,为您定制开发。

刚才在某机器上上xxx用户下压测时遇到这个问题,连xxx都进不去了

说明xxx用户下无法创建跟多的线程了(当然root用户没这个问题)

 

系统能够创建的最大线程数:(MaxProcessMemory - JVMMemory – 系统内存) / (ThreadStackSize) = Number of threads

有两种方式:

          减少xxx下的ThreadStackSize

          增加xxx下的nproc数量

修改

[lsmpusr@wxlab28bin]$ ulimit -a

core filesize          (blocks, -c) 0

data segsize           (kbytes, -d)unlimited

schedulingpriority            (-e) 0

filesize              (blocks, -f) unlimited

pendingsignals                (-i) 256636

max lockedmemory       (kbytes, -l) 64

max memorysize         (kbytes, -m) unlimited

openfiles                     (-n) 65536

pipesize            (512bytes, -p) 8

POSIX messagequeues     (bytes, -q) 819200

real-timepriority             (-r) 0

stacksize             (kbytes, -s) 10240-----可以减小这个,建议在jvm –xss中减少

cputime              (seconds, -t) unlimited

max userprocesses             (-u) 1024-----可以增加这个到32000

virtualmemory          (kbytes, -v)unlimited

filelocks                     (-x) unlimited

修改/etc/security/limits.conf

*    soft    nofile    65536
*    hard    nofile    65536
xxx soft nproc  32000
xxx hard nproc  32000
xxx soft stack  1024
xxx hard stack  1024

其中 xxx表示启动hbase的用户,如使用hadoop启动hbase,则配置如下:

* - nproc 102400
* - nofile 102400

hadoop           hard    nproc           32000

hadoop           soft    nproc           32000

hadoop           hard    stack           1024

hadoop           soft    stack           1024


网页名称:HBASE遇到的java.lang.OutOfMemoryE
本文链接:http://scyanting.com/article/gjedos.html