DL框架之MXNet :神经网络算法简介之MXNet 常见使用方法总结(神经网络DNN、CNN、RNN算法)之详细攻略(个人使用)


朴素爱白开水
朴素爱白开水 2022-09-19 14:59:26 49731
分类专栏: 资讯

DL框架之MXNet :神经网络算法简介之MXNet 常见使用方法总结(神经网络DNN、CNN、RNN算法)之详细攻略(个人使用)

相关文章
DL框架之MXNet :深度学习框架之MXNet 的简介、安装、使用方法、应用案例之详细攻略

目录

MXNet 常见使用方法

1、关于GPU、CPU运算

MXNet 常见进阶使用方法

MXNet 常见高阶使用方法


MXNet 常见使用方法

1、关于GPU、CPU运算

1、目前MxNet支持相同平台下的变量运算,如果一个变量在GPU一个变量在CPU,则需要通过copyto之类的方式来统一。
MxNet中,可以通过gpu_device=mx.gpu()来创建GPU的context。下边的方式是切换到GPU上执行运算。

  1. gpu_device=mx.gpu() Change this to mx.cpu() in absence of GPUs.
  2. def f():
  3. a = mx.nd.ones((100,100))
  4. b = mx.nd.ones((100,100))
  5. c = a + b
  6. print(c)
  7. in default mx.cpu() is used
  8. f()
  9. change the default context to the first GPU
  10. with mx.Context(gpu_device):
  11. f()

2、参数同步:当我们使用多个GPU来训练模型时,gluon.Trainer会自动做数据并行,例如划分小批量数据样本并复制到各个GPU上,对各个GPU上的梯度求和再广播到所有GPU上。这样,我们就可以很方便地实现训练函数了。

  1. loss = gloss.SoftmaxCrossEntropyLoss()
  2. def train(num_gpus, batch_size, lr):
  3. train_iter, test_iter = gb.load_data_fashion_mnist(batch_size)
  4. ctx = [mx.gpu(i) for i in range(num_gpus)]
  5. print('running on:', ctx)
  6. net.initialize(init=init.Normal(sigma=0.01), ctx=ctx, force_reinit=True) 网络初始化于各个设备
  7. trainer = gluon.Trainer(
  8. net.collect_params(), 'sgd', {'learning_rate': lr}) 优化器会自动识别net对象的设备列表
  9. for epoch in range(1, 6):
  10. start = time()
  11. for X, y in train_iter:
  12. gpu_Xs = gutils.split_and_load(X, ctx) 数据划分到各个设备
  13. gpu_ys = gutils.split_and_load(y, ctx)
  14. with autograd.record():
  15. ls = [loss(net(gpu_X), gpu_y) for gpu_X, gpu_y in zip(
  16. gpu_Xs, gpu_ys)] 记录各个设备的损失函数
  17. for l in ls:
  18. l.backward() 各个设备分别反向传播
  19. trainer.step(batch_size) 优化时自动同步各个设备参数
  20. nd.waitall()
  21. print('epoch %d, training time: %.1f sec'%(epoch, time() - start))
  22. test_acc = gb.evaluate_accuracy(test_iter, net, ctx[0])
  23. print('validation accuracy: %.4f'%(test_acc))
  24. train(num_gpus=2, batch_size=512, lr=0.3)

参考文章
『MXNet』第七弹_多GPU并行程序设计

MXNet 常见进阶使用方法

后期继续更新……

1、CNN算法

  1. executor = sym.simple_bind(ctx = mx.cpu(), **input_shapes)
  2. executor.forward() 前向运行
  3. excutor.backward() 后向运行
  4. executor.outputs[0].asnumpy()

sym.simple_bind方法

MXNet 常见高阶使用方法

后期继续更新……

网站声明:如果转载,请联系本站管理员。否则一切后果自行承担。

本文链接:https://www.xckfsq.com/news/show.html?id=3140
赞同 0
评论 0 条
朴素爱白开水L0
粉丝 0 发表 8 + 关注 私信
上周热门
如何使用 StarRocks 管理和优化数据湖中的数据?  2941
【软件正版化】软件正版化工作要点  2860
统信UOS试玩黑神话:悟空  2819
信刻光盘安全隔离与信息交换系统  2712
镜舟科技与中启乘数科技达成战略合作,共筑数据服务新生态  1246
grub引导程序无法找到指定设备和分区  1213
华为全联接大会2024丨软通动力分论坛精彩议程抢先看!  163
点击报名 | 京东2025校招进校行程预告  162
2024海洋能源产业融合发展论坛暨博览会同期活动-海洋能源与数字化智能化论坛成功举办  160
华为纯血鸿蒙正式版9月底见!但Mate 70的内情还得接着挖...  157
本周热议
我的信创开放社区兼职赚钱历程 40
今天你签到了吗? 27
信创开放社区邀请他人注册的具体步骤如下 15
如何玩转信创开放社区—从小白进阶到专家 15
方德桌面操作系统 14
我有15积分有什么用? 13
用抖音玩法闯信创开放社区——用平台宣传企业产品服务 13
如何让你先人一步获得悬赏问题信息?(创作者必看) 12
2024中国信创产业发展大会暨中国信息科技创新与应用博览会 9
中央国家机关政府采购中心:应当将CPU、操作系统符合安全可靠测评要求纳入采购需求 8

加入交流群

请使用微信扫一扫!