总所周知,Spark在内存计算领域非常强势,是未来计算的方向。Spark支持类Sql的语法,方便我们对DataFrame的数据进行统计操作。
但是,作为初学者,我们今天暂且不讨论Spark的用法。我给自己提出了一个有意思的思维游戏:Java里面的随机数算法真的是随机的吗?
好,思路如下:
1. 取样,利用Java代码随机生成2000万条0-1000的整数(包括0,但是不包括1000)
2. 分析每个整数的出现次数。
如果出现次数分布非常均匀,那么可以证明随机数算法还是比较靠谱的。
那么,现在就动手:
第一步:编写java代码往数据库里面造数据
这里我选择的是sqlite数据库的内存模式,之所以这样选择,是因为文件型数据库的内存模式可以节省网络开销,小巧精悍:
java代码:
package com.lnwazg.dbkit.controller;
import java.sql.SQLException;
import java.util.ArrayList;
import java.util.List;
import org.apache.commons.lang3.RandomUtils;
import com.lnwazg.dbkit.dao.SqliteDao;
import com.lnwazg.dbkit.jdbc.MyJdbc;
import com.lnwazg.dbkit.proxy.MyDaoProxy;
import com.lnwazg.dbkit.utils.DbKit;
import com.lnwazg.dbkit.vo.Record;
import com.lnwazg.kit.testframework.TF;
import com.lnwazg.kit.testframework.anno.AfterFinalOnce;
import com.lnwazg.kit.testframework.anno.PrepareStartOnce;
import com.lnwazg.kit.testframework.anno.TestCase;
/**
 * 随机插入2000万条随机数
 * @author nan.li
 * @version 2016年6月2日
 */
public class SqliteTest2
{
    MyJdbc jdbc = null;
    
    SqliteDao sqliteDao = null;
    
    @PrepareStartOnce
    void prepareStartOnce()
    {
        //初始化jdbc连接
        jdbc = DbKit.getJdbc("sqlite3.properties");
        sqliteDao = MyDaoProxy.proxyDaoInterface(SqliteDao.class, jdbc);//根据接口生成动态代理类
    }
    
    @AfterFinalOnce
    void afterFinalOnce()
    {
    }
    
    @TestCase
    void doTest()
        throws SQLException
    {
        //插入2000万条数据,然后用sql计算出分布情况
        //        每次10000条记录,循环2000次
        sqliteDao.createTable(Record.class);
        for (int i = 0; i < 200; i++)
        {
            List<Record> list = new ArrayList<>();
            for (int j = 0; j < 100000; j++)
            {
                list.add(new Record().setNumber(RandomUtils.nextInt(0, 1000)));//随机数,值为0-999
            }
            sqliteDao.insertBatch(list, 50000);//批量插入,batchSize设置为50000
            System.out.println(String.format("第%s次插入成功!", i + 1));
        }
    }
    
    public static void main(String[] args)
    {
        TF.l(SqliteTest2.class);
    }
}
数据库配置:
url=jdbc:sqlite://d:/largeData.db
username=
password=
Record类结构:
package com.lnwazg.dbkit.vo;
import org.apache.commons.lang3.builder.ToStringBuilder;
import org.apache.commons.lang3.builder.ToStringStyle;
import com.lnwazg.dbkit.anno.AutoIncrement;
import com.lnwazg.dbkit.anno.Id;
public class Record
{
    @Id
    @AutoIncrement
    private Integer id;
    
    private Integer number;
    
    public Integer getId()
    {
        return id;
    }
    
    public Record setId(Integer id)
    {
        this.id = id;
        return this;
    }
    
    public Integer getNumber()
    {
        return number;
    }
    
    public Record setNumber(Integer number)
    {
        this.number = number;
        return this;
    }
    
    @Override
    public String toString()
    {
        return ToStringBuilder.reflectionToString(this, ToStringStyle.JSON_STYLE);
    }
    
}
好了,代码跑起来,每插入10w条数据需要消耗37秒钟,每秒钟插入成功2702条数据,这个效率我还是比较满意的。
大约等了2个钟头,全部数据就造好了,占用230MB大小。

第二步:开始分析
表结构以及数据如下:

先验证一下记录数对不对:

OK,2000万条数据,如假包换。
好了,开始分组分析:



可以看到,最小的随机数是0,最大的随机数是999。 所有的随机数的出现次数都趋近于20000次,分布情况相当均匀,最大误差不超过450。
这个数字,跟我们期待的值是一致的: 20000000条记录 / 1000种数字 = 20000条记录/种数字。
由此可以证明,java里面的随机数算法还是相当可靠的。
 
 
 
 
 
 
 