东方客主 东方客主
4年前
PHP实现文本快速查找 - 二分查找法
起因先说说事情的起因,最近在分析数据时经常遇到一种场景,代码需要频繁的读某一张数据库的表,比如根据地区ID获取地区名称、根据网站分类ID获取分类名称、根据关键词ID获取关键词等。虽然以上需求都可以在原始建表时,通过冗余数据来解决。但仍有部分业务存的只是关联表的ID,数据分析时需要频繁的查表。所读的表存在共同的特点数据几乎不会变更数据量适中,从一万
HCl4y HCl4y
4年前
XCTF hello_pwn
使用file查看文件是多少位Linux系统下的64位ELF文件用checksec检查文件保护没有canary保护IDA中汇编出伪C代码从unk_601068中读取10个字节,再读取dword_60106C中数据与1853186401比较,unk_601068,dword_60106C都是在段中exp打远程得到flag
Peter20 Peter20
4年前
Redis集群的三种模式
一、主从模式通过持久化功能,Redis保证了即使在服务器重启的情况下也不会损失(或少量损失)数据,因为持久化会把内存中数据保存到硬盘上,重启会从硬盘上加载数据。但是由于数据是存储在一台服务器上的,如果这台服务器出现硬盘故障等问题,也会导致数据丢失。为了避免单点故障,通常的做法是将数据库复制多个副本以部署在不同的服务器上,这样即使有一台服务器出现故障,其他
lix_uan lix_uan
3年前
MySQL学习总结
数据库的三大范式第一范式:每个列都不可以再拆分第二范式:在第一范式的基础上,非主键列完全依赖于主键第三范式:在第二范式上,非主键列只依赖主键,不依赖其他非主键事务的并发问题脏读:事务A读取了事务B更新的数据,然后数据B回滚,那么A读到的是脏数据不可重复读:事务A多次读取同一数据,事务B在事务A读取的过程中对数据进行了修改并提交,导致A多次读的数据
Wesley13 Wesley13
4年前
mysql 查询近7天数据,缺失补0
相信很多人的项目都有这种需求,就是查询近7天的记录,但是这7天总有那么几天是没数据的,所以缺失的只能补0 下面的代码不知道能不能看懂,我简单的说一下思路1)先查询红色字体的近7天,再转换成日期2)我的字段使用的是时间戳的方式去保存,只能是先数据库字段先转日期2.1)先查询自己想要的数据,用每天分组,计算好总数后2.2)时间戳字段先转日期
Wesley13 Wesley13
4年前
mysql触发器 当记录的指定字段发生变化时,更新表中的另外一个字段,或者更新另外一张关联表中关联记录的字段
注意:语句中出现的old,new,now(),都为数据库自带的关键字,此处不做解释。两种情况:    第一种:一张表中,更新某条记录的其中的一个字段,触发指定的触发器,记录时间即更新到这条记录中的另一个字段中。    第二种:两张表,当A表更新其中某条记录的某个字段时,触发指定的触发器,更新B表与A表关联的记录的某个字段。对于
Wesley13 Wesley13
4年前
mysql 事物四大特性和事物的四个隔离
1、事物四大特性(ACID)1.原子性(atomicity):一个事务必须视为一个不可分割的最小工作单元,整个事务中的所有操作要么全部提交成功,要么全部失败回滚,对于一个事务来说,不可能只执行其中的一部分操作,这就是事务的原子性。2.一致性(consistency):数据库总数从一个一致性的状态转换到另一个一致性的状态。3.隔离性
Wesley13 Wesley13
4年前
MySQL初始化数据的一点分析(r12笔记第72天)
  今天在昨天的基础上又做了一些对比测试,也算是对昨天的一个补充和升华。  而这部分内容其实内容量还不少,所以我准备成了ppt的形式,也在团队内部做了一些交流,感兴趣可以直接点击文末的原文来看。初始化数据的必要性  在开始之前还是简单说说初始化数据的必要性,我们做数据库问题定位,性能分析时,如果表里就几条,几十条数据,做性能比对得到的结
Cindy-wallys Cindy-wallys
2年前
Wallys DR9074 4x4 Wlan module work on X86 device/DR9074 应用在X86。
ThisPDFisabouthowwemakeourWallysDR90744x4WlanmoduleworkonX86deviceHardwareweusedLinuxPCx1(Ubuntu22.04)DR90745Gwlanmodulex1DR3G11
sum墨 sum墨
1年前
《花100块做个摸鱼小网站! 》第四篇—前端应用搭建和完成第一个热搜组件
在本系列文章的早期章节中,我们已经成功地购买了服务器并配置了MySQL、Redis等核心中间件。紧接着,我们不仅建立了后端服务,还开发了我们的首个爬虫程序。后面我们还把爬取到的数据进行了保存,生成了一整套MVC的后端代码,并且提供了一个接口出来。