当您与AI团队合作时,您可能会听到他们使用的工具来构建这些AI系统。
在本视频中,我想与您分享最常用的AI工具的一些细节和名称,以便您能够更好地了解这些AI工程师正在做什么。
我们很幸运,今天的AIworld非常开放,许多团队将公开分享彼此的想法。
有很多机器学习开源框架,许多团队将使用它们来构建他们的系统。
所以,如果你听说过这些:TensorFlow,PyTorch,Keras,MXNet,CNTK,Caffe,PaddlePaddle,Scikit-learn,R或Weka,所有这些都是开源的机器学习框架,帮助AI团队在写作方面更有效率软件。
与AI技术一起,在这个名为Arxiv的网站上也可以在互联网上免费发布突破。
像这样拼写。
我希望其他学术界也可以自由地分享他们的研究,因为我已经亲眼目睹了在整个人工智能领域加速进步的程度。
最后,许多团队还将在互联网上免费分享他们的代码,最常见的是在名为GitHub的网站上。
这已经成为AI和AI其他领域开源软件的事实上的存储库。
通过使用适当的开源软件,许多团队可以比从头开始构建所有东西的速度快得多。
因此,例如,如果我在GitHub上在线搜索面部识别软件,您可能会找到这样的网页。
如果你向下滚动,这实际上有一个非常好的,非常易读的软件描述,可以在这个网站上找到识别人脸,甚至找到人脸的部分。
只有一吨软件可以免费下载,可以在互联网上做各种各样的事情,只需仔细检查许可证,或者AI团队会在产品中使用之前仔细检查许可证,但很多这些软件都是开源的,或者非常允许任何人使用的许可。
虽然GitHub是一个为工程师建立的技术网站,但如果你想要,你应该随意玩GitHub,看看人们在网上发布的人工智能软件的类型。
除了这些开源技术工具之外,您还经常听到AI工程师谈论CPU和GPU。
以下是这些术语的含义。
CPU是计算机中的计算机处理器,无论是您的桌面,笔记本电脑还是云中的计算机服务器。
CPU代表中央处理器,CPU由Intel,AMD和其他几家公司制造。
这在您的计算机中进行了大量的计算。
GPU代表图形处理单元。
从历史上看,GPU是用来处理图片的。
所以,如果你玩视频游戏,它可能是一个正在绘制花哨图形的GPU。
但是我们几年前发现的是,最初为处理图形而构建的硬件对于构建大型神经网络而言非常非常强大。
所以非常大的学习算法。
鉴于需要构建非常大的深度学习或非常大的神经网络系统,人工智能社区已经对越来越多的计算能力进行了无法满足的渴望,以培养更大和更大的神经网络。
事实证明,GPU非常适合我们需要用来训练超大神经网络的这种类型的计算。
因此,这就是为什么GPU在深度学习的兴起中扮演重要角色的原因。
而视频就是出售许多GPU的公司。
但包括高通在内的其他公司,以及制造自己的CPU的谷歌正在越来越多地制造专用硬件来为这些超大型神经网络供电。
最后,您可能会听到有关云计算与内部部署或简称的本地部署。
如果您从Amazon的AWS,Microsoft的Azure或Google的GCP租用计算服务器,以便使用其他人的服务来进行计算,则云部署需要参考。
然而,本地部署意味着购买您自己的计算服务器并在您自己的公司本地运行服务。
详细探讨这两个选项的优缺点超出了本视频的范围。
世界上很多人正在转向云部署。
无论您是在线搜索,都可以找到许多文章,讨论云与本地部署的优缺点。
您可能会听到最后一个术语,即Edge部署。
如果您正在构建自动驾驶汽车,则没有足够的时间将数据从自动驾驶汽车发送到云服务器以决定是否应该停止汽车,然后将该消息发送到自动驾驶汽车。
因此,计算必须通常发生在汽车内部的计算机中。
这称为边缘部署,您可以将处理器放在收集数据的位置,以便您可以快速处理数据并做出决策,而无需通过Internet传输数据以在其他地方进行处理。
如果你看看你家里的一些智能扬声器,这也是一个边缘部署,其中一些,而不是全部,但一些语音识别任务是由一个处理器完成的,该处理器就在你家里面的智能语言中。 。
Edge部署的主要优点是它可以增加系统的响应时间,还可以减少发送网络所需的数据量。
但是,有关Edgeversus Cloud和本地部署的优点和缺点,您还可以在线搜索以了解更多信息。
感谢在AI工程师使用的技术工具上完成这个可选视频。
希望当你听到他们提到这些工具时,你会开始对他们的意思有所了解。
我期待下周为你服务。
讲师:Andrew Ng
课程:https://www.coursera.org/learn/ai-for-everyone