推荐
专栏
教程
课程
飞鹅
本次共找到10000条
数据与信息
相关的信息
芝士年糕
•
3年前
linux系统下如何更改在使用中的MySQL数据存放位置?
背景日常实施中可能会出现在部署mysql时未更改数据默认存储路径(默认:/var/lib/mysql),然而一般分配服务器的人只会给系统分区分配50G的空间,这导致后续空间不够用的情况,也就出现了需要迁移数据的问题测试环境租的3A服务器,带宽高root@wangcat/etc/redhatreleaseCentOSLinuxrelease7.6
Karen110
•
4年前
手把手教你用Python网络爬虫爬取新房数据
项目背景大家好,我是J哥。新房数据,对于房地产置业者来说是买房的重要参考依据,对于房地产开发商来说,也是分析竞争对手项目的绝佳途径,对于房地产代理来说,是踩盘前的重要准备。今天J哥以「惠民之家」为例,手把手教你利用Python将惠州市新房数据批量抓取下来,共采集到近千个楼盘,包含楼盘名称、销售价格、主力户型、开盘时间、容积率、绿化率等「41个字段」。数
Stella981
•
4年前
Linux系统:Centos7下搭建PostgreSQL关系型数据库
本文源码:GitHub·点这里(https://www.oschina.net/action/GoToLink?urlhttps%3A%2F%2Fgithub.com%2Fcicadasmile%2Flinuxsystembase)||GitEE·点这里(https://gitee.com/cicadasmile/linuxsystem
Stella981
•
4年前
Redis缓存和MySQL数据一致性方案(转)
需求起因在高并发的业务场景下,数据库大多数情况都是用户并发访问最薄弱的环节。所以,就需要使用redis做一个缓冲操作,让请求先访问到redis,而不是直接访问MySQL等数据库。!(https://oscimg.oschina.net/oscnet/34e6b909457749e8d213be3b82a76662fc0.png)这个业务场景,主要
Stella981
•
4年前
PingCAP 开源分布式数据库 TiDB 论文入选 VLDB
8月31日9月4日,第46届VLDB会议以线上直播的方式举行(原定于日本东京召开),PingCAP团队的论文《TiDB:ARaftbasedHTAPDatabase》入选VLDB2020,成为业界第一篇RealtimeHTAP分布式数据库工业实现的论文。PingCAP联合创始人、CTO黄东旭获邀在会上
Easter79
•
4年前
SpringCloud实现分库分表模式下,数据库实时扩容方案
本文源码:GitHub·点这里(https://www.oschina.net/action/GoToLink?urlhttps%3A%2F%2Fgithub.com%2Fcicadasmile%2Fspringcloudbase)||GitEE·点这里(https://gitee.com/cicadasmile/springcloud
Stella981
•
4年前
DRF框架中链表数据通过ModelSerializer深度查询方法汇总
DRF框架中链表数据通过ModelSerializer深度查询方法汇总一.准备测试和理解准备创建类classTest1(models.Model):idmodels.IntegerField(primary_k
Wesley13
•
4年前
spring+mybatis 根据业务场景访问不同数据库,读写分离
//配置文件<beanid"sqlSessionFactory1"class"org.mybatis.spring.SqlSessionFactoryBean" <propertyname"dataSource"ref"DataSource1"/ <propertyname"configLocat
Stella981
•
4年前
CDA LEVEL I 数据分析认证考试模拟题库(五)
嗨喽,各位同学又到了公布CDA数据分析师认证考试LEVELI的模拟试题时间了,今天给大家带来的是模拟试题(一)中的2125题。不过,在出题前,要公布下上一期1620题的答案,大家一起来看!16、D17、D18、A19、C20、B你答对了吗?21.如果多元线性回归模型中残差不等于0,而是一个常数,那么()A.
3A网络
•
3年前
明明加了唯一索引,为什么还是产生了重复数据?
明明加了唯一索引,为什么还是产生了重复数据?前言前段时间我踩过一个坑:在mysql8的一张innodb引擎的表中,加了唯一索引,但最后发现数据竟然还是重复了。到底怎么回事呢?本文通过一次踩坑经历,聊聊唯一索引,一些有意思的知识点。1.还原问题现场前段时间,为了防止商品组产生重复的数据,我专门加了一张防重表。如果大家对防重表,比较感兴趣,可以看看
1
•••
953
954
955
•••
1000