机器学习将云提供商转变为定制芯片开发商
机器学习是人工智能 (AI) 和计算机科学的一个子领域,专注于使用数据和算法来模拟人类学习过程并逐步提高准确性。
正在发展的数据科学学科严重依赖于机器学习。在数据挖掘项目中,算法被训练使用统计方法生成分类或预测,揭示重要的见解。然后,这些见解会影响应用程序和企业中的决策,可能会影响重要的增长 KPI。大数据的持续增长和扩展将推动对数据科学家的需求,他们将需要帮助识别最重要的业务问题以及正确回答这些问题所需的数据。
Google TensorFlow
Google 拥有一个名为 Google Cloud Platform (GCP) 的云平台。Google 以 Google Cloud 的名称提供一组开放的云计算服务。该平台附带若干托管服务,用于计算、存储和创建由 Google 硬件驱动的应用程序。软件开发人员、云管理员和其他公司 IT 专家可以使用专用网络连接或开放互联网访问 Google Cloud 服务。
一个完整的开源机器学习平台称为 TensorFlow。尽管 TensorFlow 是一个控制机器学习系统所有方面的综合框架,但本研讨会重点关注使用特定 TensorFlow API 创建和训练机器学习模型。
为了加快其机器学习算法的速度,Google 创建了自己的特殊处理器。张量处理单元 (TPU) 是该公司最初于 2016 年 5 月在其 I/O 开发者大会上发布的处理器。但是,该公司除了声明它们是为其机器学习框架 TensorFlow 而设计之外,没有提供太多关于它们的信息。
与典型的 GPU/CPU 组合相比,TPU 平均执行 Google 的常规机器学习工作负载的速度快 15 倍到 30 倍(在本例中,为英特尔 Haswell 处理器和 Nvidia K80 GPU)。此外,TPU 提供了 30 倍到 80 倍更高的 TeraOps/瓦特,因为数据中心关注功耗(随着未来更快的内存,这些数字可能会增加)。
Microsoft Brainwave
Project Brainwave 是一个用于云端和边缘实时 AI 推理的深度学习平台。软神经处理单元 (NPU) 加速了来自深度神经网络 (DNN) 的推理,该单元基于高性能现场可编程门阵列 (FPGA),并用于计算机视觉和自然语言处理。通过在 CPU 上添加一个链接的可编程硅计算层,Project Brainwave 正在彻底改变计算。
Microsoft 数据中心可以使用高性能、精度可适应的 FPGA 软处理器,以高效率和小批量大小提供预训练的 DNN 模型。使用 FPGA 可以使基础设施面向未来,使其能够适应持续的进步和升级。
单个 DNN 模型可以实现为可扩展的硬件微服务,该微服务使用多个 FPGA 在数据中心规模的计算结构上构建 Web 规模的服务。这可以立即处理大量数据。
云运营商正在转向专用硬件以提高效率和性能,尤其是在实时数据流方面,以满足深度学习不断增长的计算需求。Project Brainwave 具有低延迟、高吞吐量和高效率等特点,以及现场可编程性的适应性,使其成为高性能计算的三重奏。
由于它建立在 FPGA 之上,因此它可以跟上新的发展并满足快速发展的 AI 算法的需求。
Amazon Inferentia
AWS 的目标是使普通开发人员能够普遍访问尖端技术,并使深度学习能够以按需付费的方式经济适用地使用。AWS Inferentia 是亚马逊创建的第一个定制硅,用于加速深度学习工作负载,它是实现此目标的长期计划的关键组成部分。AWS Inferentia 旨在在云中提供高性能推理,降低推理的总体成本,并使开发人员能够轻松地将其机器学习集成到其商业应用程序中。
为了使用 Inferentia 芯片,用户首先需要设置 AWS Neuron 软件开发工具包 (SDK) 实例并通过它调用芯片。为了为客户提供最佳的 Inferentia 体验,Neuron 已集成到 AWS 深度学习 AMI (DLAMI) 中。
结论
根据芯片的大小和复杂性,制造任何芯片(ASIC、SOC 等)都是一项耗时且昂贵的操作,通常需要 10 到 1000 人的团队。机器学习越来越多地应用于时尚推荐、铁路维护,甚至医疗诊断等领域。