冴羽 冴羽
3年前
VuePress 博客之 SEO 优化(六)站长工具
前言在中,我们使用VuePress搭建了一个博客,最终的效果查看:。本篇接着讲讲SEO优化会用到的站长平台和工具等。1.百度统计地址:网站流量分析工具,能够告诉用户访客是如何找到并浏览用户的网站,在网站上做了些什么2.百度搜索资源平台地址:在添加站点后,可以看到自己站点在百度搜索结果中的一些表现:百度搜索中心也提供了一些教程如:1.《平
Sherwei Sherwei
3年前
JavaScript学习资源大全
在线文档类|名称及链接|特点|评分||||||现代JavaScript教程(https://zh.javascript.info/)|是React与MDN并列推荐的JavaScript学习教程,以最新的JavaSc
把帆帆喂饱 把帆帆喂饱
4年前
爬虫
爬虫什么是爬虫使用编程语言所编写的一个用于爬取web或app数据的应用程序怎么爬取数据1.找到要爬取的目标网站、发起请求2.分析URL是如何变化的和提取有用的URL3.提取有用的数据爬虫数据能随便爬取吗?遵守robots.txt协议爬虫的分类通用网络爬虫百度,Google等搜索引擎,从一些初识的URL扩展到整个网站,主要为门户站点搜索引擎和大型网站服务采
Wesley13 Wesley13
4年前
C#连接MYSQL数据库并进行查询
原文链接(https://www.oschina.net/action/GoToLink?urlhttp%3A%2F%2Fclick.aliyun.com%2Fm%2F25382%2F)
Stella981 Stella981
4年前
Mac快捷键以及谷歌浏览器快捷键
分为通用快捷键和谷歌浏览器下快捷键,常用的已做加粗。1\.标签页和窗口快捷键⌘N打开新窗口。⌘T打开新标签页。⌘ShiftN在隐身模式下打开新窗口。按 ⌘O,然后选择文件。在Chrome浏览器中打开计算机中的文件。按住 ⌘ 的同时点击链接。或用鼠标中键(或鼠标滚轮)点击链接。从后台在新标签页
Stella981 Stella981
4年前
Selenium使用代理出现弹窗验证如何处理
部分商业网站对爬虫程序限制较多,在数据采集的过程中对爬虫请求进行了多种验证,导致爬虫程序需要深入分析目标网站的反爬策略,定期更新和维护爬虫程序,增加了研发的时间和投入成本。这种情况下,使用无头浏览器例如Selenium,模拟用户的请求进行数据采集是更加方便快捷的方式。同时为了避免目标网站出现IP限制,配合爬虫代理,实现每次请求自动切换IP,能够保证长期稳定
Wesley13 Wesley13
4年前
20165305 苏振龙《信息安全系统设计基础》第一周学习总结
第一章:计算机系统漫游一、信息二进制(位串)上下文二、C语言代码转汇编代码命令:gccShello.iohello.s三、源程序翻译过程:源程序文本→预处理器(预处理)→编译器(编译)→汇编器(汇编)→链接器(链接)→可执行目标程序(二进制)四、了解编译系统工作原理的益处:1、优化程序性能2
Wesley13 Wesley13
4年前
30 天学习 30 种新技术系列
编者注:我们发现了比较有趣的系列文章《30天学习30种新技术》,准备翻译,一天一篇更新,年终礼包。以下是译文,英文标题表示还未翻译,附原文链接;中文标题表示已翻译,附译文链接。更新:全系列已经全部翻译完成。让你30天学习30种新技术,你会觉得这是挑战吗?!img1(http://segmentfault.com/img/b
Stella981 Stella981
4年前
Chrome 或将于2018年正式弃用 HPKP 公钥固定标准
早些年谷歌工程师为了提高互联网整体的安全性避免因证书颁发机构违规操作而设计了HPKP公钥固定标准。公钥固定允许网站在服务器部署证书颁发机构的哈希值,若网站使用的证书与固定的哈希不对应则拒绝连接。公钥固定的现实意义在于如果有CA证书颁发机构违规向某个域名私自签发证书那么也无法实现对网站的劫持。但是现在谷歌浏览器已经决定弃用HPKP公钥固定标准
Stella981 Stella981
4年前
Linux文件删除原理及案例分析
谨记:大多数服务在运行时,是不能删除对应的服务正在写入的日志文件,会带来意料之外的结果!!!    Linux是通过link的数量来控制文件删除的,link包括被调用的数量和硬链接数量。真正的删除一个文件,只有在文件未被进程调用的情况下,删除该文件的所有硬链接数即可。    如果在进程调用时,通