博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
PyTorch 1.3发布:能在移动端部署,支持Colab云TPU,阿里云上也能用
阅读量:4226 次
发布时间:2019-05-26

本文共 4659 字,大约阅读时间需要 15 分钟。

640?wx_fmt=png

本文经AI新媒体量子位(公众号ID:qbitai)授权转载,转载请联系出处。

本文约
2700字,建议阅读
7分钟

本文向你介绍 PyTorch1.3 的新特性。

“我要转PyTorch!”
640?wx_fmt=png
看到1.3版本的新特性之后,有开发者在推特上喊。
今天是PyTorch开发者大会第一天,PyTorch 1.3率先公布。
640?wx_fmt=jpeg
新的版本不仅能支持安卓iOS移动端部署,甚至还能让用户去对手Google的Colab上调用云TPU。
不方便薅Google羊毛的国内的开发者,PyTorch也被集成在了阿里云上,阿里云全家桶用户可以更方便的使用PyTorch了。
此外还有一大波新工具,涉及可解释性、加密、以及关于图像语音的诸多功能。
又兼容又有新工具,怪不得有普通铁杆粉丝感叹:自己对Facebook开源库的“忠诚度”越来越高了。
640?wx_fmt=png
牛逼!可能是个人感觉吧,Facebook比Google在开源库方面好多了,而且各方支持也是最好的。
React对比Angular,Pytorch对比Tensorflow。这就是其中两个例子,Facebook框架上市晚,但得到了强有力的支持,不断改进,而Google的框架虽然出来得早但没啥兼容升级,最终成为弃子。
我对Facebook开源库的“忠诚度”一直在增长。

PyTorch 1.3新功能

PyTorch 1.3带来了三个实验性的新功能。

命名张量

允许用户给张量维度命名,从而让张量更易用,这样就可以直接喊他们的名字,不用根据位置来跟踪张量维度。
升级之前,你需要在代码里写注释来给张量命名:
 

# Tensor[N, C, H, W]

images = torch.randn(32, 3, 56, 56)
images.sum(dim=1)
images.select(dim=1, index=0)

升级之后,就直接能在代码里写了,这样可读性大大提高:
 

NCHW = [‘N’, ‘C’, ‘H’, ‘W’]

images = torch.randn(32, 3, 56, 56, names=NCHW)
images.sum('C')
images.select('C', index=0)

另外,这项功能还能自动检查API是否被正确的使用,提升了安全性,还可以直接用名字来重新排列尺寸。
你可以这样命名:
640?wx_fmt=png
也可以这样命名:
640?wx_fmt=png
用align_to就可以重新排序:
640?wx_fmt=png
是不是方便多了?

量化支持

开发ML应用程序时,有效利用服务器端和设备上的计算资源非常重要。
为了支持在服务器和边缘设备上进行更有效的部署,PyTorch 1.3现在支持用eager模式进行8位模型量化。所谓量化,是指降低精度执行计算和存储的技术。
640?wx_fmt=png

当前处于实验性的量化功能包括对后训练量化(post-training quantization)、动态量化(dynamic quantization)和量化感知训练(quantization-aware training)的支持。它分别利用了x86和ARM CPU的
FBGEMM
QNNPACK最新的量化内核后端,这些后端与PyTorch集成在一起,并且现在共享一个通用API。

具体的API文档可以参阅:

https://pytorch.org/docs/master/quantization.html

Facebook提供了一个量化的实际案例供开发者参考:

https://pytorch.org/tutorials/advanced/dynamic_quantization_tutorial.html

移动端

另外,为了在边缘设备上高效的运行机器学习,PyTorch 1.3支持端到端的工作流,从Python到部署在iOS和安卓端。
640?wx_fmt=png
当然,这个功能还是早期实验版本,针对端到端做了优化,新版本重点在:
  1. 大小优化,根据用户需要构建级别优化和选择性编译。

  2. 提升了移动CPU和GPU上的性能。

  3. 高级API:扩展移动原生API,覆盖常用预处理、将机器学习合并到移动应用需要的集成任务,比如计算机视觉或者NLP的任务。

640?wx_fmt=png

移动端部署细节:

https://pytorch.org/mobile/home/

新工具

  • 可解释性工具Captum
随着AI模型变得越来越复杂,开发用于模型可解释性的新方法变得越来越重要。为了满足这种需求,Facebook推出了
Captum
Captum可以帮助使用PyTorch的开发者了解为什么他们的模型生成某个特定输出。
Captum提供了先进的工具来理解特定神经元和层如何影响模型做出的预测。
Captum的算法包括integrated gradients、conductance、SmoothGrad、VarGrad和DeepLift。
下面的案例展示了如何在预训练的ResNet模型上应用模型可解释性算法,然后通过将每个像素的属性叠加在图像上,使其可视化。
 

noise_tunnel = NoiseTunnel(integrated_gradients)

attributions_ig_nt, delta = noise_tunnel.attribute(input, n_samples=10, nt_type='smoothgrad_sq', target=pred_label_idx)
_ = viz.visualize_image_attr_multiple(["original_image", "heat_map"],
                                      ["all", "positive"],
                                      np.transpose(attributions_ig_nt.squeeze().cpu().detach().numpy(), (1,2,0)),
                                      np.transpose(transformed_img.squeeze().cpu().detach().numpy(), (1,2,0)),                                      cmap=default_cmap, 
                                      show_colorbar=True)

640?wx_fmt=png
640?wx_fmt=png

了解更多:

https://www.captum.ai/

  • 加密工具CrypTen

通过基于云或机器学习即服务(MLaaS)平台的ML的实际应用提出了一系列安全和隐私挑战。
这些平台的用户可能不希望或是无法共享未加密数据,这使他们无法充分利用机器学习工具。为了应对这些挑战,机器学习社区正在探索各种成熟度不同的技术方法。这些包括同态加密(homomorphic encryption)、安全多方计算(secure multiparty computation)、可信执行环境(trusted execution environments)、设备计算(on-device computation)和差分隐私(differential privacy)。
640?wx_fmt=jpeg
为了更好地理解如何应用其中的某些技术,Facebook发布了
CrypTen,这是一个新的基于社区的研究平台,用于推动隐私保护ML领域的发展。

CrypTen的更多细节:

https://ai.facebook.com/blog/crypten-a-new-research-tool-for-secure-machine-learning-with-pytorch

目前CrypTen已经在GitHub上开源:

https://github.com/facebookresearch/crypten

多模AI系统工具

如今网上的数字内容通常不是单一形式,而是由多种形式共同组成,可能包含文本、图像、音频和视频。PyTorch提供了新的工具和软件库生态系统,来处理机器学习ML系统。

  • Detectron2

Detectron2是在PyTorch中实现的目标检测库。它以增强的灵活性帮助计算机视觉研究,并改善可维护性和可伸缩性,以支持在生产中的用例。
640?wx_fmt=png

更多细节:

https://ai.facebook.com/blog/-detectron2-a-pytorch-based-modular-object-detection-library-

GitHub:

https://github.com/facebookresearch/detectron2

  • Fairseq的语音扩展

语言翻译和音频处理是系统和应用程序(例如搜索,翻译,语音和助手)中的关键组件。由于变压器等新架构的发展以及大规模的预训练方法的发展,最近在这些领域取得了巨大的进步。
640?wx_fmt=jpeg
Facebook已经扩展了
Fairseq(语言翻译等seq2seq应用框架),包括对语音和音频识别任务的端到端学习的支持。fairseq的这些扩展可以加快对新语音研究的探索和原型开发。

GitHub:

https://github.com/pytorch/fairseq/tree/master/examples/speech_recognition

云端支持

今天的开发者大会上,另一个激动人心的消息是,PyTorch宣布了对
谷歌云TPU的全面支持,以及
阿里云对PyTorch的集成。此外,PyTorch还将新增了对两家AI硬件的支持,扩展了了自己的硬件生态。

谷歌云TPU

在Facebook、Google和Salesforce的工程师共同努力下,新版的PyTorch加入对了云TPU支持,包括对超级计算机云TPU Pods的实验性支持。谷歌Colab还提供了对云TPU的PyTorch支持。

阿里云

阿里云的集成涉及PyTorch 1.x的一键式解决方案,数据科学Workshop notebook服务,使用Gloo/NCCL进行的分布式训练,以及与阿里巴巴IaaS(如OSS、ODPS和NAS)的无缝集成。

硬件生态扩展

除了主要的GPU和CPU合作伙伴之外,PyTorch生态系统还支持专用的机器学习加速器。比如英特尔不久前推出的NNP-I推理芯片、Habana Labs的AI处理器。

这两家公司分别在博客中展示了自家硬件对PyTorch Glow优化编译器的支持,使开发人员能够利用这些特定于市场的解决方案。

回馈AI社区

最后Facebook感谢AI社区对PyTorch生态做出的贡献,过去一段时间里,一些开发者的优秀开源项目让PyTorch框架受益。比如:

1、
Mila SpeechBrain:多合一语音工具包
《Kaldi拜拜! PyTorch语音工具包SpeechBrain要来了,支持多种语音任务,实现最强水准》
2、
SpaCy:用于NLP的高级软件库

3、
HuggingFace PyTorch-Transformers:用于NLP的最新的预训练模型库。

4、
PyTorch Lightning:一个类似Keras的ML库
最近,Facebook举行了首次在线的全球PyTorch夏季黑客马拉松,共有近1500名开发者参加了比赛。Facebook在今天公布了获奖项目,他们分别是:
1、
Torchmeta:提供了PyTorch的扩展,简化PyTorch中元学习算法的开发。

2、
Open-Unmix:使用PyTorch进行端到端音乐混合的系统。

3、
Endless AI-Generated Tees:这是一家向全球售卖AI设计T恤的商店。他们使用由PyTorch构建的StyleGAN,接受现代艺术的训练。

编辑:于腾凯

校对:林亦霖

640?wx_fmt=jpeg

你可能感兴趣的文章
查找google谷歌北京IP地址的方法
查看>>
java 核心技术Ⅱ--章六:时间与日期API
查看>>
链表,循环链表,双向链表,判环和入环点
查看>>
浅谈HashMap,HashTable,ConcurrentHashMap,WeakHashMap,HashMap源码分析
查看>>
云创大数据校企合作项目斩获“全国校企合作十佳案例”
查看>>
云创大数据与宽泛科技签订战略合作协议
查看>>
免费!免费!免费!全国高校大数据师资实战免费培训班
查看>>
“南京市独角兽瞪羚企业俱乐部创始人简餐会”走进云创
查看>>
本科大数据专业该怎么上?
查看>>
云创大数据1+X大数据应用部署与调优职业技能等级证书预申报正式开启!
查看>>
人工智能需要一个可被证明的理论作为基础 | 哈佛丘成桐
查看>>
入门 | 一文概览深度学习中的激活函数
查看>>
一分钟整明白Tensorflow Extended
查看>>
人工智能再次参加高考:和作家比写作文,AI能打多少分?
查看>>
云创冬日紫金山踏雪游记
查看>>
西安思源学院电子信息工程学院院长张卫钢一行到访
查看>>
邀请函|欢迎参加2019云创大数据实验平台金融类/电子商务类/数学统计类院校各省总代理招募大会!...
查看>>
云创大数据的2018年!
查看>>
QNX简介
查看>>
MQTT协议基本介绍
查看>>