MXNet动手学深度学习笔记:GPU加速计算

Wesley13
• 阅读 521
#coding:utf-8
'''
NDArray在GPU上计算
'''

from mxnet import nd
from mxnet.gluon import nn
import mxnet as mx

a = nd.array([1,2,3],ctx=mx.gpu())
b = nd.zeros((3,2),ctx=mx.gpu())
x = nd.array([1,2,3])

y = x.copyto(mx.gpu())

z = x.as_in_context(mx.gpu())

print('a = ',a)
print('b = ',b)
print('x = ',x)
print('y = ',y)
print('z = ',z)

# Gluon的GPU计算

net = nn.Sequential()
net.add(nn.Dense(1))
net.initialize(ctx = mx.gpu())

data = nd.random.uniform(shape=(3,2),ctx=mx.gpu())
print(net(data))

# 模型的参数也储存在GPU上
print(net[0].weight.data())
点赞
收藏
评论区
推荐文章
Stella981 Stella981
2年前
Python3:sqlalchemy对mysql数据库操作,非sql语句
Python3:sqlalchemy对mysql数据库操作,非sql语句python3authorlizmdatetime2018020110:00:00coding:utf8'''
Wesley13 Wesley13
2年前
GPU加速深度学习
原文地址(https://www.oschina.net/action/GoToLink?urlhttp%3A%2F%2Fclick.aliyun.com%2Fm%2F26286%2F)1\.背景  一年半以前,AlphaGo完胜李世乭的围棋赛让深度学习(DeepLearning)这个名词家喻户晓,再度掀起人工智能的新一波热潮。其实深度学
Stella981 Stella981
2年前
AI为Kubernetes深度学习工作负载创建首个分布式GPU共享系统
近日,AI这家虚拟化AI基础架构的公司,发布了第一个分数GPU共享系统,用于Kubernetes上的深度学习工作负载。分数GPU系统特别适用于诸如推理之类的轻量级AI任务,透明地使数据科学和AI工程团队能够在单个GPU上同时运行多个工作负载,从而使公司能够运行更多的工作负载,例如计算机视觉,语音识别和在同一硬件上进行自然语言处理,从而降低了成本。对于深度
Stella981 Stella981
2年前
Android蓝牙连接汽车OBD设备
//设备连接public class BluetoothConnect implements Runnable {    private static final UUID CONNECT_UUID  UUID.fromString("0000110100001000800000805F9B34FB");
Stella981 Stella981
2年前
MXNet动手学深度学习笔记:Gluon实现正则化
coding:utf8'''正则化'''importmxnetasmxfrommxnetimportgluonfrommxnetimportndarrayfrommxnetimportautogradimportnumpyasnp
Wesley13 Wesley13
2年前
MXNET:深度学习计算
我们将深入讲解模型参数的访问和初始化,以及如何在多个层之间共享同一份参数。之前我们一直在使用默认的初始函数,net.initialize()。frommxnetimportinit,ndfrommxnet.gluonimportnnnetnn.Sequential()net.add(n
Wesley13 Wesley13
2年前
MXNet动手学深度学习笔记:VGG神经网络实现
coding:utf8'''VGG网络'''frommxnet.gluonimportnnfrommxnetimportndarrayasndimportmxnetasmxfrommxnetimportinitimportosi
Stella981 Stella981
2年前
CPU推理性能提高数十倍,旷视天元计算图、MatMul优化深度解读
  机器之心发布  机器之心编辑部  !(http://dingyue.ws.126.net/2020/0806/6a6e4896j00qemtzy001ad000p000aop.jpg)本文针对旷视天元深度学习框架在推理优化过程中所涉及的计算图优化与MatMul优化进行深度解读。  背景及引言  在深度学
Stella981 Stella981
2年前
Fourinone如何实现并行计算和数据库引擎
关于并行计算的概念有非常多,硬件落地其实就只有两种,CPU上的并行计算和GPU上的并行计算,GPU做点积这样的矢量计算(矩阵计算)有优势,但目前还运行不了操作系统和数据库,比较多用于研究性质的计算。在我们生产系统中运用最多的是CPU上的并行计算,其落地方式也只有两种,多线程和多进程。围绕多线程、多进程结合通信技术的灵活设计,它的应用范围非常广泛,不光用于并行
胡赤儿 胡赤儿
2个月前
深入解析GPU:图形处理器的技术与应用
在计算机科学领域中,GPU(GraphicsProcessingUnit,图形处理器)已经不再局限于仅仅处理图形相关的任务。从最初的专注于渲染图像和处理图形效果,到如今在人工智能、科学计算和加速深度学习等领域中扮演着关键角色,GPU已经成为现代计算的重要组