Chinaunix首页 | 论坛 | 博客
  • 博客访问: 73132
  • 博文数量: 33
  • 博客积分: 2000
  • 博客等级: 大尉
  • 技术积分: 305
  • 用 户 组: 普通用户
  • 注册时间: 2009-07-17 15:59
文章分类

全部博文(33)

文章存档

2011年(1)

2010年(6)

2009年(26)

我的朋友

分类: Mysql/postgreSQL

2009-08-06 10:59:49

mysql> select distinct uid from stat_login_200907 order by rand() limit 10000;
uid去重分布式提取10000个数据,distinct加order by rand() 会很慢

mysql> create table sjdel_login200907 select distinct(uid) as uid from stat_login_200907 ;
新建个表把uid写到新表中
 
mysql> select uid from sjdel_login200907 order by rand() limit 10000 into outfile '/tmp/user200907.txt';
在新的表中分布式提取10000个uid,命令分开写快了很多很多。。。。。
 
 
[root@waptx126 chen]# cat user200907.txt | sort -u | wc -l 
10000
无重复!!!!!
 
 
 
数据提取脚本,
#!/bin/sh
while read uid
do
#echo $uid
/usr/local/mysql/bin/mysql --defaults-file=/data/txdata/test/my.cnf txtest -e "select i_uid,i_money,s_regtime,s_lasttime from alluser where i_uid='$uid'"|sed 1d >>userresult200907.txt
done
 
 
[root@waptx126 chen]# cat userresult200907.txt | awk '{print $2}' >123.txt
[root@waptx126 chen]# awk '{sum += $1};END {print sum}' 123.txt
15251108
阅读(1175) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~