器量大者,福泽必厚
全部博文(587)
发布时间:2012-12-25 20:56:54
在老东家工作的时候,有一次用户突然投诉说db很慢,我nload查看时发现网络流量很大,按照经验可能是mysql服务器受到攻击!当时的情况见附件:按照正常的操作应该是>show processlist;找到奇怪的连接(进程),然后kill掉它!但我在kill的时候却遇到一个奇怪的问题,提示找不到该进程!大概过了10几分钟机器就恢复正常了!我认为这种情况大量的出现是mysql服务器遭到攻击所致!老外的解释见附件!关于--skip-name-resolve有一个博客解释的很清楚:......【阅读全文】
发布时间:2012-12-22 19:16:14
1:Unix-like的操作系统中,文件分为几种一般文件: -目录:d设备文件:字符文件:c 、磁盘文件:b内部进程通信文件:有socket文件:s、连接文件:p2:文件的权限:s:特殊权限set user id(s)、set group id(s)及sticky bit(t),简称为sst3:!的理解[!0-9]:非数字[!a-z]:非英文小写字母[!A-Z]:非英文大写字母注意:若!不放在集合的开头,就失去“非”的含义!例如:[0-9!]代表数字或感叹号例如:[\!0-9]代表感叹号或数字4:不同的脚本方式例如: source /root/test.sh 或. /root/test.sh&......【阅读全文】
发布时间:2012-12-15 20:02:08
run-parts通俗的说就是执行目录下的所有的脚本的意思!开始我在root用户下使用crontab -e在文件中写入:49 19 * * * root run-parts /usr/local/scripts但到了19:49时,却不工作! 尽管后台日志中提示已经运行,见附件!我的/usr/local/scripts文件下的脚本内容为:但到/home/xliu目录下却没有a、b、c相关目录!显然cron job没有工作!于是考虑到是否应该将49 19 * * * root run-parts /usr/local/scripts放入到/etc/crontab文件中。添加后入下:同时后台的cro......【阅读全文】
发布时间:2012-10-28 16:22:59
hadoop上默认块的大小为64M当文件小于64M时,以一个block计算,在实际的文件系统中,仅占原始文件的大小,外加一个.meta文件例如:中等文件,40M[root@ungeo12 current]# [root@ungeo8 xliu]# /usr/local/hadoop/bin/hadoop dfs -put /home/xliu/hadoop-0.20.3-dev.tar.gz /.........【阅读全文】