DL之RNN:人工智能为你写诗——基于TF利用RNN算法实现【机器为你写诗】、训练&测试过程全记录


芹菜简单
芹菜简单 2022-09-19 16:25:07 51234
分类专栏: 人才

DL之RNN:基于TF利用RNN算法实现~机器为你写诗~、测试过程全记录

目录

输出结果

模型监控

训练、测试过程全记录

训练的数据集


输出结果

1、test01

  1. <unk><unk>风下,天上不相逢。
  2. 一人不得别,不得不可寻。
  3. 何事无时事,谁知一日年。
  4. 一年多旧国,一处不相寻。
  5. 白发何人见,清辉自有人。
  6. 何当不知事,相送不相思。
  7. 此去无相见,何年有旧年。
  8. 相思一阳处,相送不能归。
  9. 不得千株下,何时不得时。
  10. 此心不可见,此日不相思。
  11. 何事有归客,何言不见时。
  12. 何处不知处,不知山上时。
  13. 何当不可问,一事不知情。
  14. 此去不知事,无人不有身。
  15. 相逢何处见,不觉白云间。
  16. 白云一相见,一月不知时。
  17. 一夜一秋色,青楼不可知。
  18. 江西山水下,山下白头心。
  19. 此事何人见,孤舟向日深。
  20. 何当无一事,此路不相亲。
  21. 何必有山里,不知归去人。
  22. 相知不相识,此地不能闻。
  23. 白发千株树,秋风落日寒。

2、test02

  1. 不得无时人,何人不知别。
  2. 不见一时人,相思何日在。
  3. 一夜不可知,何时无一日。
  4. 一人不自见,何处有人情。
  5. 何处不知此,何人见此年。
  6. 何时不得处,此日不知君。
  7. 一日何人得,何由有此身。
  8. 相思无不得,一去不知君。
  9. 此日何人见,东风满月中。
  10. 无知不得去,不见不相思。
  11. 不得千峰上,相逢独不穷。
  12. 何年不可待,一夜有春风。
  13. 不见南江路,相思一夜归。
  14. 何人知此路,此日更难归。
  15. 白日无人处,秋光入水流。
  16. 江南无限路,相忆在山城。
  17. 何处知何事,孤城不可归。
  18. 山边秋月尽,江水水风生。
  19. 不有南江客,何时有故乡。
  20. 山中山上水,山上水中风。
  21. 何处不相访,何年有此心。
  22. 江边秋雨尽,山水白云寒。

3、test03

  1. 一朝多不见,无处在人人。
  2. 一里无人去,无人见故山。
  3. 何年不知别,此地有相亲。
  4. 白首何时去,春风不得行。
  5. 不知归去去,谁见此来情。
  6. 不有青山去,谁知不自知。
  7. 一时何处去,此去有君人。
  8. 不见南江路,何时是白云。
  9. 不知归客去,相忆不成秋。
  10. 不得东西去,何人有一身。
  11. 不能知此事,不觉是人情。
  12. 一里无时事,相逢不得心。
  13. 江南秋雨尽,风落夜来深。
  14. 何处不知别,春来不自知。
  15. 一朝无一处,何处是江南。
  16. 一里不相见,东西无一人。
  17. 一朝归去处,何事见沧洲。
  18. 此去无年处,何年有远心。
  19. 不知山上客,不是故人心。
  20. 一里不可得,无人有一年。
  21. 何人不见处,不得一朝生。
  22. 不见青云客,何人是此时。

模型监控

训练、测试过程全记录

1、训练过程

  1. 2018-10-13 22:31:33.935213:
  2. step: 10/10000... loss: 6.5868... 0.1901 sec/batch
  3. step: 20/10000... loss: 6.4824... 0.2401 sec/batch
  4. step: 30/10000... loss: 6.3176... 0.2401 sec/batch
  5. step: 40/10000... loss: 6.2126... 0.2401 sec/batch
  6. step: 50/10000... loss: 6.0081... 0.2301 sec/batch
  7. step: 60/10000... loss: 5.7657... 0.2401 sec/batch
  8. step: 70/10000... loss: 5.6694... 0.2301 sec/batch
  9. step: 80/10000... loss: 5.6661... 0.2301 sec/batch
  10. step: 90/10000... loss: 5.6736... 0.2301 sec/batch
  11. step: 100/10000... loss: 5.5698... 0.2201 sec/batch
  12. step: 110/10000... loss: 5.6083... 0.2301 sec/batch
  13. step: 120/10000... loss: 5.5252... 0.2301 sec/batch
  14. step: 130/10000... loss: 5.4708... 0.2301 sec/batch
  15. step: 140/10000... loss: 5.4311... 0.2401 sec/batch
  16. step: 150/10000... loss: 5.4571... 0.2701 sec/batch
  17. step: 160/10000... loss: 5.5295... 0.2520 sec/batch
  18. step: 170/10000... loss: 5.4211... 0.2401 sec/batch
  19. step: 180/10000... loss: 5.4161... 0.2802 sec/batch
  20. step: 190/10000... loss: 5.4389... 0.4943 sec/batch
  21. step: 200/10000... loss: 5.3380... 0.4332 sec/batch
  22. ……
  23. step: 790/10000... loss: 5.2031... 0.2301 sec/batch
  24. step: 800/10000... loss: 5.2537... 0.2301 sec/batch
  25. step: 810/10000... loss: 5.0923... 0.2301 sec/batch
  26. step: 820/10000... loss: 5.1930... 0.2501 sec/batch
  27. step: 830/10000... loss: 5.1636... 0.2535 sec/batch
  28. step: 840/10000... loss: 5.1357... 0.2801 sec/batch
  29. step: 850/10000... loss: 5.0844... 0.2236 sec/batch
  30. step: 860/10000... loss: 5.2004... 0.2386 sec/batch
  31. step: 870/10000... loss: 5.1894... 0.2401 sec/batch
  32. step: 880/10000... loss: 5.1631... 0.2501 sec/batch
  33. step: 890/10000... loss: 5.1297... 0.2477 sec/batch
  34. step: 900/10000... loss: 5.1044... 0.2401 sec/batch
  35. step: 910/10000... loss: 5.0738... 0.2382 sec/batch
  36. step: 920/10000... loss: 5.0971... 0.2701 sec/batch
  37. step: 930/10000... loss: 5.1829... 0.2501 sec/batch
  38. step: 940/10000... loss: 5.1822... 0.2364 sec/batch
  39. step: 950/10000... loss: 5.1883... 0.2401 sec/batch
  40. step: 960/10000... loss: 5.0521... 0.2301 sec/batch
  41. step: 970/10000... loss: 5.0848... 0.2201 sec/batch
  42. step: 980/10000... loss: 5.0598... 0.2201 sec/batch
  43. step: 990/10000... loss: 5.0421... 0.2701 sec/batch
  44. step: 1000/10000... loss: 5.1234... 0.2323 sec/batch
  45. step: 1010/10000... loss: 5.0744... 0.2356 sec/batch
  46. step: 1020/10000... loss: 5.0408... 0.2401 sec/batch
  47. step: 1030/10000... loss: 5.1138... 0.2417 sec/batch
  48. step: 1040/10000... loss: 4.9961... 0.2601 sec/batch
  49. step: 1050/10000... loss: 4.9691... 0.2401 sec/batch
  50. step: 1060/10000... loss: 4.9938... 0.2601 sec/batch
  51. step: 1070/10000... loss: 4.9778... 0.2601 sec/batch
  52. step: 1080/10000... loss: 5.0157... 0.3600 sec/batch
  53. ……
  54. step: 4440/10000... loss: 4.7136... 0.2757 sec/batch
  55. step: 4450/10000... loss: 4.5896... 0.2767 sec/batch
  56. step: 4460/10000... loss: 4.6408... 0.3088 sec/batch
  57. step: 4470/10000... loss: 4.6901... 0.2737 sec/batch
  58. step: 4480/10000... loss: 4.5717... 0.2707 sec/batch
  59. step: 4490/10000... loss: 4.7523... 0.2838 sec/batch
  60. step: 4500/10000... loss: 4.7592... 0.2998 sec/batch
  61. step: 4510/10000... loss: 4.6054... 0.2878 sec/batch
  62. step: 4520/10000... loss: 4.7039... 0.2868 sec/batch
  63. step: 4530/10000... loss: 4.6380... 0.2838 sec/batch
  64. step: 4540/10000... loss: 4.5378... 0.2777 sec/batch
  65. step: 4550/10000... loss: 4.7376... 0.3098 sec/batch
  66. step: 4560/10000... loss: 4.7103... 0.2797 sec/batch
  67. step: 4570/10000... loss: 4.7170... 0.2767 sec/batch
  68. step: 4580/10000... loss: 4.7307... 0.3168 sec/batch
  69. step: 4590/10000... loss: 4.7139... 0.3108 sec/batch
  70. step: 4600/10000... loss: 4.7419... 0.3028 sec/batch
  71. step: 4610/10000... loss: 4.7980... 0.2918 sec/batch
  72. step: 4620/10000... loss: 4.7127... 0.2797 sec/batch
  73. step: 4630/10000... loss: 4.7264... 0.2858 sec/batch
  74. step: 4640/10000... loss: 4.6384... 0.3419 sec/batch
  75. step: 4650/10000... loss: 4.6761... 0.2978 sec/batch
  76. step: 4660/10000... loss: 4.8158... 0.3590 sec/batch
  77. step: 4670/10000... loss: 4.7579... 0.2828 sec/batch
  78. step: 4680/10000... loss: 4.7702... 0.2777 sec/batch
  79. step: 4690/10000... loss: 4.6909... 0.2607 sec/batch
  80. step: 4700/10000... loss: 4.6037... 0.2808 sec/batch
  81. step: 4710/10000... loss: 4.6775... 0.2848 sec/batch
  82. step: 4720/10000... loss: 4.6074... 0.2838 sec/batch
  83. step: 4730/10000... loss: 4.7280... 0.3088 sec/batch
  84. step: 4740/10000... loss: 4.7241... 0.3539 sec/batch
  85. step: 4750/10000... loss: 4.5496... 0.2948 sec/batch
  86. step: 4760/10000... loss: 4.6488... 0.3189 sec/batch
  87. step: 4770/10000... loss: 4.6698... 0.3048 sec/batch
  88. step: 4780/10000... loss: 4.6410... 0.3068 sec/batch
  89. step: 4790/10000... loss: 4.7408... 0.3329 sec/batch
  90. step: 4800/10000... loss: 4.6425... 0.2928 sec/batch
  91. step: 4810/10000... loss: 4.6900... 0.2978 sec/batch
  92. step: 4820/10000... loss: 4.5715... 0.3499 sec/batch
  93. step: 4830/10000... loss: 4.7289... 0.2868 sec/batch
  94. step: 4840/10000... loss: 4.7500... 0.2998 sec/batch
  95. step: 4850/10000... loss: 4.7674... 0.2968 sec/batch
  96. step: 4860/10000... loss: 4.6832... 0.3078 sec/batch
  97. step: 4870/10000... loss: 4.7478... 0.3008 sec/batch
  98. step: 4880/10000... loss: 4.7895... 0.2817 sec/batch
  99. ……
  100. step: 9710/10000... loss: 4.5839... 0.2601 sec/batch
  101. step: 9720/10000... loss: 4.4666... 0.2401 sec/batch
  102. step: 9730/10000... loss: 4.6392... 0.2201 sec/batch
  103. step: 9740/10000... loss: 4.5415... 0.2201 sec/batch
  104. step: 9750/10000... loss: 4.6513... 0.2201 sec/batch
  105. step: 9760/10000... loss: 4.6485... 0.2201 sec/batch
  106. step: 9770/10000... loss: 4.5317... 0.2201 sec/batch
  107. step: 9780/10000... loss: 4.5547... 0.2301 sec/batch
  108. step: 9790/10000... loss: 4.3995... 0.2301 sec/batch
  109. step: 9800/10000... loss: 4.5596... 0.2301 sec/batch
  110. step: 9810/10000... loss: 4.5636... 0.2301 sec/batch
  111. step: 9820/10000... loss: 4.4348... 0.2201 sec/batch
  112. step: 9830/10000... loss: 4.5268... 0.2201 sec/batch
  113. step: 9840/10000... loss: 4.5790... 0.2201 sec/batch
  114. step: 9850/10000... loss: 4.6265... 0.2301 sec/batch
  115. step: 9860/10000... loss: 4.6017... 0.2401 sec/batch
  116. step: 9870/10000... loss: 4.4009... 0.2301 sec/batch
  117. step: 9880/10000... loss: 4.4448... 0.2201 sec/batch
  118. step: 9890/10000... loss: 4.5858... 0.2201 sec/batch
  119. step: 9900/10000... loss: 4.5622... 0.2201 sec/batch
  120. step: 9910/10000... loss: 4.4015... 0.2301 sec/batch
  121. step: 9920/10000... loss: 4.5220... 0.2301 sec/batch
  122. step: 9930/10000... loss: 4.5207... 0.2201 sec/batch
  123. step: 9940/10000... loss: 4.4752... 0.2201 sec/batch
  124. step: 9950/10000... loss: 4.4572... 0.2301 sec/batch
  125. step: 9960/10000... loss: 4.5389... 0.2201 sec/batch
  126. step: 9970/10000... loss: 4.5561... 0.2301 sec/batch
  127. step: 9980/10000... loss: 4.4487... 0.2401 sec/batch
  128. step: 9990/10000... loss: 4.4851... 0.2301 sec/batch
  129. step: 10000/10000... loss: 4.5944... 0.2201 sec/batch

2、测试过程

训练的数据集

1、大量的五言唐诗

  1. 寒随穷律变,春逐鸟声开。
  2. 初风飘带柳,晚雪间花梅。
  3. 碧林青旧竹,绿沼翠新苔。
  4. 芝田初雁去,绮树巧莺来。
  5. 晚霞聊自怡,初晴弥可喜。
  6. 日晃百花色,风动千林翠。
  7. 池鱼跃不同,园鸟声还异。
  8. 寄言博通者,知予物外志。
  9. 一朝春夏改,隔夜鸟花迁。
  10. 阴阳深浅叶,晓夕重轻烟。
  11. 哢莺犹响殿,横丝正网天。
  12. 珮高兰影接,绶细草纹连。
  13. 碧鳞惊棹侧,玄燕舞檐前。
  14. 何必汾阳处,始复有山泉。
  15. 夏律昨留灰,秋箭今移晷。
  16. 峨嵋岫初出,洞庭波渐起。
  17. 桂白发幽岩,菊黄开灞涘。
  18. 运流方可叹,含毫属微理。
  19. 寒惊蓟门叶,秋发小山枝。
  20. 松阴背日转,竹影避风移。
  21. 提壶菊花岸,高兴芙蓉池。
  22. 欲知凉气早,巢空燕不窥。
  23. 山亭秋色满,岩牖凉风度。
  24. 疏兰尚染烟,残菊犹承露。
  25. 古石衣新苔,新巢封古树。
  26. 历览情无极,咫尺轮光暮。
  27. 慨然抚长剑,济世岂邀名。
  28. 星旗纷电举,日羽肃天行。
  29. 遍野屯万骑,临原驻五营。
  30. 登山麾武节,背水纵神兵。
  31. 在昔戎戈动,今来宇宙平。
  32. 翠野驻戎轩,卢龙转征旆。
  33. 遥山丽如绮,长流萦似带。
  34. 海气百重楼,岩松千丈盖。
  35. 兹焉可游赏,何必襄城外。
  36. 玄兔月初明,澄辉照辽碣。
  37. 映云光暂隐,隔树花如缀。
  38. 魄满桂枝圆,轮亏镜彩缺。
  39. 临城却影散,带晕重围结。
  40. 驻跸俯九都,停观妖氛灭。
  41. 碧原开雾隰,绮岭峻霞城。
  42. 烟峰高下翠,日浪浅深明。
  43. 斑红妆蕊树,圆青压溜荆。
  44. 迹岩劳傅想,窥野访莘情。
  45. 巨川何以济,舟楫伫时英。
  46. 春蒐驰骏骨,总辔俯长河。
  47. 霞处流萦锦,风前漾卷罗。
  48. 水花翻照树,堤兰倒插波。
  49. 岂必汾阴曲,秋云发棹歌。
  50. 重峦俯渭水,碧嶂插遥天。
  51. ……

网站声明:如果转载,请联系本站管理员。否则一切后果自行承担。

本文链接:https://www.xckfsq.com/news/show.html?id=3574
赞同 0
评论 0 条
芹菜简单L0
粉丝 0 发表 11 + 关注 私信
上周热门
如何使用 StarRocks 管理和优化数据湖中的数据?  2691
【软件正版化】软件正版化工作要点  2655
统信UOS试玩黑神话:悟空  2559
信刻光盘安全隔离与信息交换系统  2247
镜舟科技与中启乘数科技达成战略合作,共筑数据服务新生态  1117
grub引导程序无法找到指定设备和分区  769
江波龙2025届校园招聘宣讲会行程大放送  28
点击报名 | 京东2025校招进校行程预告  25
海康威视2025校招|海康机器人,邀你共创工业智能化未来!  24
金山办公2024算法挑战赛 | 报名截止日期更新  22
本周热议
我的信创开放社区兼职赚钱历程 40
今天你签到了吗? 27
信创开放社区邀请他人注册的具体步骤如下 15
如何玩转信创开放社区—从小白进阶到专家 15
方德桌面操作系统 14
我有15积分有什么用? 13
用抖音玩法闯信创开放社区——用平台宣传企业产品服务 13
如何让你先人一步获得悬赏问题信息?(创作者必看) 12
2024中国信创产业发展大会暨中国信息科技创新与应用博览会 9
中央国家机关政府采购中心:应当将CPU、操作系统符合安全可靠测评要求纳入采购需求 8

加入交流群

请使用微信扫一扫!