HBASE遇到的java.lang.OutOfMemoryE
简单分享一下,类似问题的解决方法
创新互联长期为1000+客户提供的网站建设服务,团队从业经验10年,关注不同地域、不同群体,并针对不同对象提供差异化的产品和服务;打造开放共赢平台,与合作伙伴共同营造健康的互联网生态环境。为徐汇企业提供专业的网站设计、成都网站建设,徐汇网站改版等技术服务。拥有10多年丰富建站经验和众多成功案例,为您定制开发。
刚才在某机器上上xxx用户下压测时遇到这个问题,连xxx都进不去了
说明xxx用户下无法创建跟多的线程了(当然root用户没这个问题)
系统能够创建的最大线程数:(MaxProcessMemory - JVMMemory – 系统内存) / (ThreadStackSize) = Number of threads
有两种方式:
减少xxx下的ThreadStackSize
增加xxx下的nproc数量
修改
[lsmpusr@wxlab28bin]$ ulimit -a
core filesize (blocks, -c) 0
data segsize (kbytes, -d)unlimited
schedulingpriority (-e) 0
filesize (blocks, -f) unlimited
pendingsignals (-i) 256636
max lockedmemory (kbytes, -l) 64
max memorysize (kbytes, -m) unlimited
openfiles (-n) 65536
pipesize (512bytes, -p) 8
POSIX messagequeues (bytes, -q) 819200
real-timepriority (-r) 0
stacksize (kbytes, -s) 10240-----可以减小这个,建议在jvm –xss中减少
cputime (seconds, -t) unlimited
max userprocesses (-u) 1024-----可以增加这个到32000
virtualmemory (kbytes, -v)unlimited
filelocks (-x) unlimited
修改/etc/security/limits.conf
* soft nofile 65536
* hard nofile 65536
xxx soft nproc 32000
xxx hard nproc 32000
xxx soft stack 1024
xxx hard stack 1024
其中 xxx表示启动hbase的用户,如使用hadoop启动hbase,则配置如下:
* - nproc 102400
* - nofile 102400
hadoop hard nproc 32000
hadoop soft nproc 32000
hadoop hard stack 1024
hadoop soft stack 1024
网页名称:HBASE遇到的java.lang.OutOfMemoryE
本文链接:http://scyanting.com/article/gjedos.html