DL之DNN:自定义2层神经网络TwoLayerNet模型(封装为层级结构)利用MNIST数据集进行训练、GC对比


蜜蜂等待
蜜蜂等待 2022-09-19 15:12:40 49840
分类专栏: 资讯

DL之DNN:自定义2层神经网络TwoLayerNet模型(封装为层级结构)利用MNIST数据集进行训练、GC对比

导读
          神经网络算法封装为层级结构的作用。在神经网络算法中,通过将神经网络的组成元素实现为层,可以高效地计算梯度(反向传播法)。通过比较数值微分和误差反向传播法的结果,可以确认误差反向传播法的实现是否正确(梯度确认)。

目录

输出结果

设计思路

核心代码

代码实现过程错误记录


输出结果

设计思路

核心代码

  1. class TwoLayerNet:
  2. def __init__(self, input_size, hidden_size, output_size, weight_init_std = 0.01):
  3. self.params = {}
  4. self.params['W1'] = weight_init_std * np.random.randn(input_size, hidden_size)
  5. self.params['b1'] = np.zeros(hidden_size)
  6. self.params['W2'] = weight_init_std * np.random.randn(hidden_size, output_size)
  7. self.params['b2'] = np.zeros(output_size)
  8. self.layers = OrderedDict()
  9. self.layers['Affine1'] = Affine(self.params['W1'], self.params['b1'])
  10. self.layers['Relu1'] = Relu()
  11. self.layers['Affine2'] = Affine(self.params['W2'], self.params['b2'])
  12. self.lastLayer = SoftmaxWithLoss()
  13. def predict(self, x):
  14. for layer in self.layers.values():
  15. x = layer.forward(x)
  16. return x
  17. x:输入数据, t:监督数据
  18. def loss(self, x, t):
  19. y = self.predict(x)
  20. return self.lastLayer.forward(y, t)
  21. def accuracy(self, x, t):
  22. y = self.predict(x)
  23. y = np.argmax(y, axis=1)
  24. if t.ndim != 1 : t = np.argmax(t, axis=1)
  25. accuracy = np.sum(y == t) / float(x.shape[0])
  26. return accuracy
  27. def gradient(self, x, t):
  28. self.loss(x, t)
  29. dout = 1
  30. dout = self.lastLayer.backward(dout)
  31. layers = list(self.layers.values())
  32. layers.reverse()
  33. for layer in layers:
  34. dout = layer.backward(dout)
  35. grads = {}
  36. grads['W1'], grads['b1'] = self.layers['Affine1'].dW, self.layers['Affine1'].db
  37. grads['W2'], grads['b2'] = self.layers['Affine2'].dW, self.layers['Affine2'].db
  38. return grads
  39. network_batch = TwoLayerNet(input_size=784, hidden_size=50, output_size=10)
  40. grad_numerical = network_batch.numerical_gradient_api(x_batch, t_batch)
  41. grad_backprop = network_batch.gradient(x_batch, t_batch)

代码实现过程错误记录

出现错误,待解决!!!

Traceback (most recent call last):
  File "F:\File_Python\Python_daydayup\190316.py", line 281, in <module>
    grad = network.gradient(x_batch, t_batch)             
  File "F:\File_Python\Python_daydayup\190316.py", line 222, in gradient
    self.loss(x, t)
  File "F:\File_Python\Python_daydayup\190316.py", line 193, in loss
    return self.lastLayer.forward(y, t)         ☆★☆★☆★☆★☆★☆★☆★☆★☆★☆★☆★☆★☆★☆   ------部分更改
  File "F:\File_Python\Python_daydayup\190316.py", line 132, in forward
    self.loss = cross_entropy_error(self.y, self.t)
  File "F:\File_Python\Python_daydayup\190316.py", line 39, in cross_entropy_error
    return -np.sum(np.log(y[np.arange(batch_size), t.astype('int64')] + 1e-7)) / batch_size          t.astype('int64')
IndexError: shape mismatch: indexing arrays could not be broadcast together with shapes (100,) (100,10) 

相关文章
DL之DNN:自定义2层神经网络TwoLayerNet模型(层级结构更高效)算法对MNIST数据集进行训练、预测

网站声明:如果转载,请联系本站管理员。否则一切后果自行承担。

本文链接:https://www.xckfsq.com/news/show.html?id=3199
赞同 0
评论 0 条
蜜蜂等待L0
粉丝 0 发表 4 + 关注 私信
上周热门
如何使用 StarRocks 管理和优化数据湖中的数据?  2947
【软件正版化】软件正版化工作要点  2868
统信UOS试玩黑神话:悟空  2828
信刻光盘安全隔离与信息交换系统  2723
镜舟科技与中启乘数科技达成战略合作,共筑数据服务新生态  1256
grub引导程序无法找到指定设备和分区  1221
华为全联接大会2024丨软通动力分论坛精彩议程抢先看!  165
2024海洋能源产业融合发展论坛暨博览会同期活动-海洋能源与数字化智能化论坛成功举办  163
点击报名 | 京东2025校招进校行程预告  163
华为纯血鸿蒙正式版9月底见!但Mate 70的内情还得接着挖...  158
本周热议
我的信创开放社区兼职赚钱历程 40
今天你签到了吗? 27
如何玩转信创开放社区—从小白进阶到专家 15
信创开放社区邀请他人注册的具体步骤如下 15
方德桌面操作系统 14
用抖音玩法闯信创开放社区——用平台宣传企业产品服务 13
我有15积分有什么用? 13
如何让你先人一步获得悬赏问题信息?(创作者必看) 12
2024中国信创产业发展大会暨中国信息科技创新与应用博览会 9
中央国家机关政府采购中心:应当将CPU、操作系统符合安全可靠测评要求纳入采购需求 8

加入交流群

请使用微信扫一扫!