删除段落间的空格(段落里的空格怎么删除)
820
2022-05-30
在这篇文章中,我们将详细介绍生产级深度学习系统的各个模块,并推荐适合每个组件的工具集和框架,以及实践者提供的最佳实践。
1、数据管理
1.1 数据源
开源数据 (好的开端,但并非优势)、数据增强以及合成数据
1.2 标注
标注的劳动力来源:
众包
服务公司:FigureEight
雇佣标注员
标注平台:
Prodigy:一种由主动学习(active learning)(由 Spacy 开发人员开发)、文本和图像支持的注释工具。
HIVE:用于计算机视觉的人工智能即服务平台。
Supervisely:完整的计算机视觉平台。
Labelbox:计算机视觉。
Scale 人工智能数据平台(计算机视觉和自然语言处理)。
1.3 存储
数据存储选项:
对象存储:存储二进制数据(图像、声音文件、压缩文本)
Aamzon S3
Ceph 对象存储
数据库:存储元数据(文件路径、标签、用户活动等)。
Postgres 对于大多数应用程序来说都是正确的选择,它提供了同类最佳的 SQL 和对非结构化 JSON 的强大支持。
数据湖:用于聚合无法从数据库获得的特征(例如日志)。
Amazon Redshift
特征存储:机器学习特征的存储和访问。
FEAST(Google 云,开源)
Michelangelo(Uber)
在训练期间:将数据复制到本地或集群文件系统中。
1.4 版本控制
DVC:用于机器学习项目的开源版本控制系统
Pachyderm:用于数据的版本控制
Dolt:用于 SQL 数据库的版本控制
1.5 处理
生产模型的训练数据可能来自不同的源,包括数据库和对象存储中的存储数据、日志处理和其他分类器的输出。
任务之间存在依赖关系,每个人物都需要在其依赖关系完成后才能启动。例如,对新的日志数据进行训练,需要在训练之前进行预处理。因此,工作流在这方面变得相当重要。
工作流:
Airflow (最常用的)
2、开发、训练与评估
2.1 软件工程
编辑器:
Vim
Emacs
Jupyter Notebooks:作为项目的起点很好,但它难以实现规模化。
Streamlit:具有小程序的交互式数据科学工具。
建议:
对于个人或初创企业:
开发:一台 4 核图灵架构的计算机。
训练 / 评估:使用相同的 4 核 GPU 计算机。在运行许多实验时,可以购买共享服务器或使用云实例。
对于大型公司:
开发:为每位机器学习科学家购买一台 4 核图灵架构计算机,或者让他们使用 V100 实例。
训练 / 评估:在正确配置和处理故障的情况下使用云实例。
2.2 资源管理
为程序分配免费资源:
资源管理选项:
旧式集群作业调度程序(如,Slurm 工作负载管理器)
Docker + Kubernetes
Kubeflow
Polyaxon(付费功能)
2.3 深度学习框架
除非有充分的理由不这样做,否则请使用 TensorFlow/Keras 或 PyTorch。下图显示了不同框架在开发和 生产方面的比较。
2.4 实验管理
开发、训练和评估策略:永远从简单开始。在小批量上训练一个小型模型,只有在它能起作用的情况下,才扩展到更大的数据和模型,并进行超参数调优。
实验管理工具:
Tensorboard:提供了机器学习实验所需的可视化和工具。
Losswise(用于机器学习的监控)
Comet:让你可以跟踪机器学习项目上的代码、实验和结果。
Weights & Biases:通过简单的协作,记录并可视化研究的每个细节。
MLFlow Tracking:用于记录参数、代码版本、指标和输出文件,以及结果的可视化。
2.5 超参数调优
Hyperas:用于 Keras 的 hyperopt 的简单包装器,使用简单的模板符号定义要调优的超参数范围。SIGOPT:可扩展的企业级优化平台。Ray-Tune:可扩展的分布式模型选择研究平台(专注于深度学习和深度强化学习)。Sweeps from Weights & Biases:参数并非由开发人员显式指定,而是由机器学习模型来近似和学习的。
2.6 分布式训练
数据并行性:当迭代时间过长就使用它(TensorFlow 和 PyTorch 均支持)。
模型并行性:当模型不适合单 GPU 的情况下就是用它。
其他解决方案:
Ray
Horovod
3、故障排除【有待完善】
4、测试与部署
4.1 测试与CI/CD
与传统软件相比,机器学习生产软件需要更多样化的测试套件:
单元测试和集成测试
测试类型:
训练系统测试:测试训练管道。
验证测试:在验证集上测试预测系统。
功能测试。
持续集成:在将每个新代码更改推送到仓库后运行测试。
用于持续集成的 SaaS:
CircleCI、Travis
Jenkins、Buildkite
4.2. 网络部署
由 预测系统 和 服务系统 组成
在考虑规模的情况下为预测服务。
使用 REST API 为预测 HTTP 请求提供服务。
调用预测系统进行响应
预测系统:处理输入数据,进行预测。
服务系统(Web 服务器):
服务选项:
Docker
Kubernetes (现在最流行)
MESOS
Marathon
通过 模型服务 解决方案部署。
将代码部署为“无服务器函数”。
模型服务:
Tensorflow 服务
MXNet Model 服务器
Clipper (Berkeley)
SaaS 解决方案 (Seldon,算法)
专门针对机器学习模型的网络部署。
用于 GPU 推理的批处理请求。
框架:Tensorflow 服务、MXNet Model 服务器、Clipper、SaaS 解决方案 (Seldon,算法)
TensorFlow 服务或 Clipper
自适应批处理很有用。
如果 CPU 推理满足要求,则更可取。
通过添加更多的服务器或无服务器进行扩展。
CPU 推理:
GPU 推理:
4.3 Service Mesh 和 Traffic Routing
从单片应用程序过渡到分布式微服务体系结构可能具有挑战性。
服务网格(由微服务网络组成)降低了此类部署的复杂性,并减轻了开发团队的压力。
Istio:一种服务网格技术,简化已部署服务网络的创建,而服务中的代码更改很少或没有。
4.4. 监控
目的:
针对停机时间、错误和分发变化的警报。
抓取服务和数据回归。
此外,云提供商的解决方案也是相当不错。
4.5. 在嵌入式和移动设备上部署
主要挑战:内存占用和计算限制
解决方案:
DistillBERT (用于自然语言处理)
MobileNets
量化
缩小模型尺寸
知识蒸馏
嵌入式和移动框架:
Tensorflow Lite
PyTorch Mobile
Core ML
ML Kit
FRITZ
OpenVINO
模型转换:
开放神经网络交换(Open Neural Network Exchange,ONNX):用于深度学习模型的开源格式。
4.6. 一体化解决方案
Tensorflow Extended (TFX)
Michelangelo (Uber)
Google Cloud AI Platform
Amazon SageMaker
Neptune
FLOYD
Paperspace
Determined AI
Domino data lab
该项目的 Github 地址(该项目还在完善中):
https://github.com/alirezadir/Production-Level-Deep-Learning
译者 | Sambodhi
人工智能 大数据 AI
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。