这两年随着人工智能的火热,无论是不是开发人员,大家都对 AI 有着空前的热情。
在开发人员中,可能绝大多数人所关注的都是机器学习算法,软件库的使用,或者是 Python。但是,别忘了,复杂的机器学习算法不光是只靠软件就够了的,它需要配合强大的硬件才能大放异彩。
与 AI 算法相配套的硬件就是所谓的 AI 芯片。
目前世面上,最受人瞩目的 AI 芯片可能就是 Google 的 TPU 了。上个月,Google IO 2017 大会上,Google 发布了第二代 TPU,距离第一代 TPU 发布时隔一年。
发一幅图给大家看下 TPU 的样子。
这是 Google 第二代 TPU,又称 Cloud TPU 或 TPU 2.0。它如今已经被全面部署在了 Google Compute Engine 平台上,用于图像和语音识别,机器翻译和机器人等领域。
当初轰动一时的 AlphaGo 对战李世石,硬件平台其实就用了 TPU。
这里简单说下 TPU。
它全称为 Tensor Processing Unit, 翻译成中文为张量处理器,它是 Google 的专用机器学习芯片,内部采用脉动阵列 (systolic array) 架构, 非常适用于深度学习算法中常出现的卷积运算和矩阵运算。
Google 曾刊文表示,TPU 处理速度要比 GPU 和 CPU 快 15-30 倍(和TPU 对比的是英特尔 Haswell CPU 以及 Nvidia Tesla K80 GPU),而在能效上,TPU 更是提升了 30 到 80 倍。
AI 芯片其实远远不止有 Google 的 TPU,Nvidia 的 GPU 几乎主宰了机器学习芯片市场,除此之外,Intel 以及一大批的初创公司也都在研发自己的 AI 芯片,去年的这个时候,中国首款嵌入式神经网络处理器 NPU 面世。
看到这里,我猜你有可能被各种 PU 弄晕了,那接下来,我们来看看芯片分类。
下面这幅图来自 RIT 的 Shaaban 教授的计算机体系结构课程,列出了各种 Computing Engine。
这幅图的本意是说,选择芯片的时候,需要在各个因素之间做出权衡 (灵活性,复杂性,成本,功耗,性能,实时性等),我们暂且不去讨论这个话题。
但是,我们可以从他给的这幅图,为常见的芯片做出分类。
通用处理器芯片。
例如 CPU,ARM。
专用处理器芯片。
例如 GPU,DSP,NP (Network Processor),Media Processors,Vector Processors 。
可配置的硬件芯片。
例如 FPGA。
协处理器芯片。
例如 TPU。
专用集成电路。
例如 音视频处理芯片。
最终,回到上幅图,也可以看出各种芯片在灵活性与计算效率之间所处的位置。
为方便理解,我把它们画进了一幅图。
最后说一下我给电类学生的一些建议吧。
人工智能的大背景下,不是人人都需要转计算机,做互联网,做软件。人工智能驱动着半导体行业发展的同时,也是半导体行业未来的发展方向。
网站声明:如果转载,请联系本站管理员。否则一切后果自行承担。
添加我为好友,拉您入交流群!
请使用微信扫一扫!