请选择 进入手机版 | 继续访问电脑版
查看: 398|回复: 0

[相关新闻] 谷歌要为其AI机器人设计芯片 英特尔慌了!

[复制链接]

该用户从未签到

新浪微博达人勋

105

主题

105

帖子

315

积分

中级会员

Rank: 3Rank: 3

积分
315
发表于 2017-7-10 02:34:48 | 显示全部楼层 |阅读模式

亚太机器人官方交流群 455372886!
  谷歌设计了用于驱动深层神经网络的计算机芯片,深层神经网络的人工智能技术重新发明了互联网服务运营方式。

  美国时间18号上午,在谷歌I/O2016,CEO桑德尔·皮蔡(Sundar Pichai)表示,谷歌设计了一个ASIC(Application Specific Integrated Circuits:专用集成电路),专门针对深层神经网络。这些硬件和软件的网络,可以通过分析大量的数据学习特定任务。谷歌使用神经网络来识别照片里的物体和面孔、理解你对Android手机说出的命令、或者翻译语言文本。该技术甚至开始改变谷歌的搜索引擎。

  谷歌将其芯片称为张量处理单元(Tensor Processing Unit:简称TPU),因为它支撑着Tensor Flow(研发的第二代人工智能学习系统),软件引擎驱动其深度学习服务。

  去年秋天,谷歌发布了Tensor Flow的开放源代码许可证,这意味着公司之外的任何人都可以使用,甚至修改这个软件引擎。谷歌不会共享其设计的TPU,但外人可以通过不同的谷歌云服务利用其机器学习硬件和软件。

3e5476c5de09ef81a54110c003fc2c55.jpg


  谷歌只是将深度学习加入到广泛的互联网服务的众多公司之一,还有Facebook、微软和Twitter。通常,这些互联网巨头推动他们的神经网络与图形处理单元,或GPU,如芯片制造商NVIDIA。但包括微软在内的一些公司,也正在探索现场可编程门阵列(field program ablegatearrays:简称FPGA),可以编程为特定任务的芯片。据谷歌所说,驱动在线服务的数据中心内部的海量硬件机架,TPU板就像硬盘驱动器一样安装到相同的插槽,对比其他的硬件,它提供了“一系列每瓦数量级更好的优化性能的机器学习”解决方案。“TPU是专为机器学习应用而设,让芯片更加兼容的减少计算精度,这意味着每个操作它需要的晶体管更少。”谷歌在博客文章中发布。“正因为如此,我们可以把每秒的操作更多地集成硅,使用更复杂和强大的机器学习模型,更快速地应用这些模型,让用户更为迅速获得更智能的结果。”

  这意味着,除其他事项外,谷歌使用芯片的方式不像Nvidia,也不像其他公司使用更少的芯片。同时我们还可以看出,谷歌希望打造自己的芯片,对芯片制造商来说是个坏消息,特别是世界上最大的:英特尔。英特尔处理器驱动着谷歌内部庞大的计算机服务器,而英特尔的烦恼在于,谷歌有一天会设计自己的中央处理器。
回复

使用道具 举报

使用 高级模式(可批量传图、插入视频等)
您需要登录后才可以回帖 登录 | 立即注册 新浪微博登陆