推荐
专栏
教程
课程
飞鹅
本次共找到4482条
静态方法
相关的信息
风花雪月
•
3年前
python-随机函数
random.sample()可以从指定的序列中,随机的截取指定长度的片断,不作原地修改,不重复。random.random()函数是这个模块中最常用的方法了,它会生成一个随机的浮点数,范围是在0.01.0之间。random.uniform()正好弥补了上面函数的不足,它可以设定浮点数的范围,一个是上限,一个是下限。random.randint()随机生一个
公众号:码农乐园
•
4年前
基于Xposed自动化框架XposedAppium
基于Xposed做的一款自动化点击,滑动框架(基于安卓原生的事件分发)。可以模拟手指的一切操作,基于Xpath表达式获取View。此框架在virjar大佬的框架基础上进行的修改的,修复了部分Bug,添加常用方法等.在登入页面输入账号密码后,跳转到第二个Activity并点击对话框确定按钮。Xposed模块:很简单,添加对应的Activity,需要实Page
python知道
•
3年前
Python初学者必备书籍《Python入门经典》高清PDF版|百度网盘免费下载|Python初学者,自学Python必读
提取码:1028以及前文提到的学习路线图内容简介Python是一种解释型、面向对象、动态数据类型的高级程序设计语言。Python可以用于很多的领域,从科学计算到游戏开发。《Python入门经典》是面向Python初学者的学习指南,详细介绍了Python编程基础,以及一些高级概念,如面向对象编程。全书分为24章。第1章介绍了Python的背景和安装方法。第2章
徐小夕
•
4年前
基于create-react-app打包编译自己的第三方UI组件库并发布到npm
前言这篇文章主要是总结一下我们在工作中如何为公司开发内部的第三方UI组件,并通过npminstall的方式安装的一些步骤和思路。在学习完这套发布方法后大家也可以快速的发布自己的UI库到npm,供他人使用,就比如elementUI或者AntDesign。如果想学习如何发布一个js库或者框架,那么使用rollup更为适合,可以参考如下文章:前端组
Wesley13
•
3年前
java增量发布工具
有些公司由于没有使用maven作为构建工具,全量发布时没问题,而修改bug增量发布往往是将改动的代码手动编译后,从classes目录下拷贝到jar中然后再放到tomcat目录下发布,这种方法准确度不高,当修复bug时间跨度较大且文件较多时就不好提供了,下面介绍下一个增量打包工具https://gitee.com/lpxs/ProjectPatch.git
Wesley13
•
3年前
MATLAB常微分方程数值解——欧拉法、改进的欧拉法与四阶龙格库塔方法
MATLAB常微分方程数值解作者:凯鲁嘎吉博客园 http://www.cnblogs.com/kailugaji/(https://www.oschina.net/action/GoToLink?urlhttp%3A%2F%2Fwww.cnblogs.com%2Fkailugaji%2F)1.一阶
Wesley13
•
3年前
MySQL数据库(一)编译安装、安装后优化操作及超户忘记数据库密码的解决方法
MySQL的下载地址:http://www.dev.mysql.com/downloads准备工作:卸载rpm方式安装的mysqlserver、mysql rpmqa|grepmysql若存在,用rpmemysqlservermysqlnodeps命令卸载安装ncursesdevel与cmake包
Wesley13
•
3年前
Intellij IDEA 最新版中文输入框不跟随解决办法
在idea中输入中文时,打字只显示第一个字母,也就是光标不跟随解决方法:1\.升级jdk至最新版本(以1.8.0\_73为例),安装的过程中同时安装jre; 2\.关掉idea,然后去idea安装路径下把jre64文件夹重命名掉,或删掉,最好是重命名掉,出问题后还能恢复过来,下面的图片中是重命名成jre642了;!
Stella981
•
3年前
Linux 的shell脚本的分享,运用了多个不同的方法,实现使用脚本批量巡检服务器,非常有借鉴作用
1、今天分享一个以前坐项目使用过的巡检脚本,是使用bashshell去编写的,对于经常使用shell脚本去完成日常巡检的同行,非常有借鉴作用;2、脚本使用的一些变量以及模块都很有用,如果是初学习shell的脚本使用,参考这个脚本,绝对能让你快速的提升,具体代码如下:!/bin/bash
Stella981
•
3年前
Nginx优化防爬虫 限制http请求方法 CDN网页加速 架构优化 监牢模式 控制并发量以及客户端请求速率
Nginx防爬虫优化Robots协议(也称为爬虫协议,机器人协议等)的全称是“网络爬虫排除标准”(RobotsExclusionProtocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。我理解的是robots.txt是通过代码控制搜索引擎蜘蛛索引的一个手段,以便减轻网站服务器的带宽使用率,从
1
•••
397
398
399
•••
449