推荐
专栏
教程
课程
飞鹅
本次共找到655条
样本量
相关的信息
helloworld_14431207
•
3年前
年轻人,劝你不要做前端
好买网(www.goodmai.com)IT技术交易平台这些年前端有点热闹。github刷量,vue撕x,版本帝angularJs……想要混前端,除了要有足够强的学习力。还得有一颗天天过山车的心。➢大家的锅就是你的锅曾经在会议上和领导据理力争过。领导说:“所有测试的bug都要先指派给前端,前端查清原因后再指给当事人”。意思是测试人员在手工测试交互流程时遇到
Wesley13
•
3年前
java java中subString、split、stringTokenizer三种截取字符串方法的性能比较
最近在阅读java.lang下的源码,读到String时,突然想起面试的时候曾经被人问过:都知道在大数据量情况下,使用String的split截取字符串效率很低,有想过用其他的方法替代吗?用什么替代?我当时的回答很斩钉截铁:没有。google了一下,发现有2中替代方法,于是在这里我将对这三种方式进行测试。测试的软件环境为:WindowsXP、ecl
Easter79
•
3年前
Spring原生Rpc六种实现的正确打开方式
前言在java生态圈谈到Rpc,很多人可能就会想到Dubbo、Motan、Grpc等框架。但是你知道吗?作为Java编程全家桶的Spring已经内置了多种RPC的实现方式,可以直接使用。存在即合理,有些场景下其实并不需要Dubbo,Grpc等重量级的RPC组件,那么Spring的轻量封装就可以派上用场了。下面就来探索下Spring中的RPC的实现方
Stella981
•
3年前
Discuz 7.2坑爹集锦
Discuz7.2坑爹集锦SQL篇DZ使用的是MySQL的MyISAM引擎,特点是简单快速,非常适合网络扁平数据。当数据量超过一定规模(大概300万),数据关联复杂(表连接增多)后性能急剧下降。并且在高读写并发时锁表严重(MyISAM是表锁,InnoDB有行锁),甚至导致表损坏。DZ7.2代码中SQL写法存在不标准的问题,虽然不影响执行但对维
Stella981
•
3年前
Goroutine(协程)为何能处理大并发?
简单来说:协程十分轻量,可以在一个进程中执行有数以十万计的协程,依旧保持高性能。进程、线程、协程的关系和区别:进程拥有自己独立的堆和栈,既不共享堆,亦不共享栈,进程由操作系统调度。线程拥有自己独立的栈和共享的堆,共享堆,不共享栈,线程亦由操作系统调度(标准线程是的)。协程和线程一样共享堆
Wesley13
•
3年前
MYSQL与TiDB的执行计划
前言这里采用了tpch一个数据库的数据量来进行查询计划的对比。并借助tpch中的22条查询语句进行执行计划分析。mysql采用的是标准安装,TiDB采用的是单机测试版,这里的性能结果不能说明其性能差异本文章主要目的是对比Mysql与TiDB在执行sql查询时的差异。mysql版本5.7 TiDB版本v2.0.0rc.4准备
Stella981
•
3年前
Linux进程间通信(上)之管道、消息队列实践
1、进程间通信简述进程间通信的几种方式:无名管道、有名管道、消息队列、共享内存、信号、信号量、套接字(socket)。进程间通信是不同进程直接进行的一些接触,这种接触有简单,有复杂。机制不同,复杂度也不同。通信是一个广义上的意义,不仅指大批量数据传送,还包括控制信息的传送,但是使用的方法都是大同小异的。!(https
Wesley13
•
3年前
Java小白入门系列 第二篇 开发环境搭建
2018年8月31日 郑州 多云 昨天发了第一篇博文,当时就有好多老师和同学支持点赞,非常感谢大家!今天早上看了看,阅读量有四五十,感觉还行,毕竟刚开始做,嗯,还有人在看,有人支持,会继续努力哒! 这几天在学习前端的一些东西,像html、xml、json,现在学到了css,因为主学的Java,是后端,对于前端的这些东西要求不太高,学
Wesley13
•
3年前
NEO从源码分析看网络通信
_0x00前言_NEO被称为中国版的Ethereum,支持C和java开发,并且在社区的努力下已经把SDK拓展到了js,python等编程环境,所以进行NEO开发的话是没有太大语言障碍的。比特币在解决拜占庭错误这个问题时除了引入了区块链这个重要的概念之外,还引入了工作量证明(PoW)这个机智的解决方案,通过数学意义上的难题来保证每个
Wesley13
•
3年前
5000多张数据表,如何用SQL迁移到数据仓库?
点击关注上方“SQL数据库开发”,设为“置顶或星标”,第一时间送达干货需求背景最近公司打算集中梳理几大业务系统的数据,希望将各个业务系统中的数据集中到数据仓库中。总共有5000多张数据表,但是好在业务数据量没有像电商那么庞大,也就几十个G。需求分析其实这个需求很简单,就是把这50
1
•••
50
51
52
•••
66