推荐
专栏
教程
课程
飞鹅
本次共找到680条
深度好文
相关的信息
Peter20
•
4年前
MySQL InnoDB MVCC机制吐血总结
:谈到MySQL事务,必然离不开InnoDB和MVCC机制,同时,MVCC也是数据库面试中的杀手问题,写这篇总结的目的,就是为了让自己加深映像,这样面试就不会忘记了。在搜索时发现关于MVCC的文章真的是参差不齐(老子真的是零零散散看了三个月都迷迷糊糊),所以这里集合了各家所言之后进行了自我总结,苦苦研究了许久,才得到的比较清晰的认知,这可能也是我目前最有深度
Stella981
•
4年前
MapReduce 社交好友推荐算法
原理如果A和B具有好友关系,B和C具有好友关系,而A和C却不是好友关系,那么我们称A和C这样的关系为:二度好友关系。在生活中,二度好友推荐的运用非常广泛,比如某些主流社交产品中都会有"可能认识的人"这样的功能,一般来说可能认识的人就是通过二度好友关系搜索得到的,在传统的关系型数据库中,可以通过图的广度优先遍历算法实现,而且深度限定为2,然而在
Stella981
•
4年前
ImageNet Classification with Deep Convolutional Neural Networks
摘要我们训练了一个大型的深度卷积神经网络,将ImageNetlsvprc2010竞赛中的120万幅高分辨率图像分成1000个不同的类。在测试数据上,我们实现了top1名的错误率为37.5%,top5名的错误率为17.0%,大大优于之前的水平。该神经网络有6000万个参数和65万个神经元,由5个卷积层和3个完全连接的层组成,其中一些卷积层之
helloworld_91538976
•
3年前
深入了解神经网络
深入了解神经网络本章将介绍用于解决实际问题的深度学习架构的不同模块。前一章使用PyTorch的低级操作构建了如网络架构、损失函数和优化器这些模块。本章将介绍用于解决真实问题的神经网络的一些重要组件,以及PyTorch如何通过提供大量高级函数来抽象出复杂度。本章还将介绍用于解决真实问题的算法,如回归、二分类、多类别分类等。本章将讨论如下主题:详解神经网络的不
天翼云开发者社区
•
2年前
人民日报:天翼云持续拓展云网基础设施覆盖广度和深度
5月31日,由人民日报文化传媒有限公司主办的2023数字经济论坛在北京举行,本次论坛主题为“发展数字经济,共建数字中国”。人民日报社副总编辑徐立京、中国国际经济交流中心副理事长王一鸣、科学技术部高技术研究发展中心主任张洪刚、工业和信息化部信息技术发展司一级巡视员王建伟、中央网信办数据与技术保障中心主任张鹏、中国信息通信研究院副院长王志勤,浙江、重庆、贵州、宁夏、福建、河北等省市数字经济主管部门及相关地市党政负责人,以及中国电信等社会各界嘉宾共150余人出席论坛。
爱学it学无止境
•
1年前
ES8搜索引擎从基础入门到深度原理,实现综合运用实战(完结)
核心代码,注释必读//download:3w52xueitcomvue2.x响应式Object.defineProperty基本用法复制//Object.defineProperty的基本用法constdataconstname'zhangsan'Obje
贾蔷
•
5个月前
牛客13279题解:利用递归与深度优先搜索计算树的最大高度(附完整代码)
一、题目解读牛客13279题要求计算给定树的最大高度。题目输入一棵以邻接表形式表示的树(节点从0开始编号),需要输出从根节点到最深叶节点的最长路径长度。树的结构由n个节点和n1条边构成,保证为连通无环图。理解题目核心在于准确获取树的拓扑关系,并设计算法遍历
京东云开发者
•
3星期前
并发丢数据深度剖析:MySQL锁机制与事务实战踩坑及解决方案
1、理论来源于实践现象:于2025081321:45:35,事实逻辑表将自身的指标与维度同步到原子服务的实现时,出现同步过来的指标与维度丢失。核心原因:两次重复的事实逻辑表同步时间非常相近,导致同步过来的指标与维度丢失。2、倒带进事故现场逻辑表向原子服务同
helloworld_54277843
•
3年前
深入了解神经网络
深入了解神经网络本章将介绍用于解决实际问题的深度学习架构的不同模块。前一章使用PyTorch的低级操作构建了如网络架构、损失函数和优化器这些模块。本章将介绍用于解决真实问题的神经网络的一些重要组件,以及PyTorch如何通过提供大量高级函数来抽象出复杂度。本章还将介绍用于解决真实问题的算法,如回归、二分类、多类别分类等。本章将讨论如下主题:详解神经网络的不
helloworld_91538976
•
3年前
PyTorch已为我们实现了大多数常用的非线性激活函数
PyTorch已为我们实现了大多数常用的非线性激活函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在PyTorch中使用ReLU激活函数的例子:在上面这个例子中,输入是包含两个正值、两个负值的张量,对其调用ReLU函数,负值将取为0,正值则保持不变。现在我们已经了解了构建神经网络架构的大部分细节,我们来构建一个可用于解决真实问题的深度学习架构。
1
•••
63
64
65
•••
68