MindSpore简介

网友投稿 797 2022-05-29

MindSpore可以做模型的自动切分这一点让人印象深刻。当然,还有很多特点,比如自动微分、支持动态图+静态图,等等。如果希望了解更多,请看MindSpore官网:

MindSpore www.mindspore.cn/

对于个人来讲,去年便对MindSpore有简单了解,做过一些其与TensorFlow、PyTorch的对比分析。因为此前尚未开源,只能基于公开的文档做调研而已。

而三月底,在HDC大会时,华为正式开源了MindSpore的源码和相应的文档。因而有机会实际拿来运行看看,本文将介绍如何在Windows平台安装和搭建MindSpore,同时训练一个小的网络(LeNet)。

安装MindSpore

截至今天,MindSpore官网建议的安装操作系统为EulerOS和Ubuntu,并不包括Windows。而不幸的是我的这台Lenovo游戏主机是Windows 10的系统。

仔细了下文档,发现实际上MindSpore是支持Windows平台的[1],只不过只能以CPU的模式运行(暂时不支持Windows平台的GPU)。如果希望尝试MindSpore对GPU的支持,需要使用Ubuntu系列或者华为的EulerOS(这也不是本文的重点)。

下面进入安装的正题。

安装Anaconda

非常推荐使用Anaconda作为Python虚拟环境的管理。

你可以去Anaconda官网下载,一路Next即可。如果遇到问题,可适当参考这里。

由于Anaconda的安装过程简单直观,这里不详述了。

创建MindSpore的Python Env

目前MindSpore仅仅支持Python 3.7.5,下面创建的pyhton env就叫做mindspore:

conda create -n mindspore python=3.7.5

安装MindSpore

下载MindSpore的whl文件,-见这里,目前只有一个0.1.0的版本

mindspore-0.1.0-cp37-cp37m-win_amd64.whl

在mindspore这个python env里执行:

conda activate mindspore

# 此时你应该在mindspore-0.1.0-cp37-cp37m-win_amd64.whl这个文件的目录里

pip install mindspore-0.1.0-cp37-cp37m-win_amd64.whl

注意,这里很多同学反应安装过程很慢,甚至有失败的情况,基本都是网络惹得祸。因为安装上面的whl文件时会按照一些依赖的libraries,如果你的pip是默认源的话,在国内的网络下载时可能遇到问题的。一个解决办法是重试(yes, just retry),另一个办法是把pip源切换为国内的源,比如清华源。具体方法见这里:

Tsinghua Open Source Mirror mirror.tuna.tsinghua.edu.cn/help/pypi/正在上传…重新上传取消

一个临时的办法可以是:

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple mindspore-0.1.0-cp37-cp37m-win_amd64.whl

验证Spore安装是否成功

python

>>> import mindspore as ms

>>> print(ms.__version__)

# 如果成功,上面应该打印 0.1.0

训练一个LeNet

华为官方已经在其MindSpore Doc这个Repo里内置了一些examples,比如LeNet。

直接Fork吧:

git clone https://github.com/mindspore-ai/docs.git

如果你和我一样懒,仅仅下载lenet.py也可以,路径如下:

https://github.com/mindspore-ai/docs/blob/master/tutorials/tutorial_code/lenet.py

训练LeNet

因为这个代码里默认使用的训练设备为Ascend,所以需要手动设置一下--device_target为CPU:

python lenet.py --device_target CPU

MindSpore用LeNet训练MNIST

大约十几秒就可以跑完一个Epoch了:

******Downloading the MNIST dataset******

============== Starting Training ==============

epoch: 1 step: 1, loss is 2.3008137

epoch: 1 step: 2, loss is 2.299688

epoch: 1 step: 3, loss is 2.309444

epoch: 1 step: 4, loss is 2.3006275

epoch: 1 step: 5, loss is 2.3028035

epoch: 1 step: 6, loss is 2.302422

epoch: 1 step: 7, loss is 2.3067183

epoch: 1 step: 8, loss is 2.3057096

epoch: 1 step: 9, loss is 2.3042586

epoch: 1 step: 10, loss is 2.303799

...

...

...

epoch: 1 step: 1870, loss is 0.15847126

epoch: 1 step: 1871, loss is 0.12955114

epoch: 1 step: 1872, loss is 0.15605931

MindSpore简介

epoch: 1 step: 1873, loss is 0.28985676

epoch: 1 step: 1874, loss is 0.14183074

epoch: 1 step: 1875, loss is 0.05726877

============== Starting Testing ==============

============== Accuracy:{'Accuracy': 0.9625400641025641} ==============

看看Accuracy,已经到96.25%,还可以~

我们观察一下这个目录,会看到同时还保存了模型文件(.ckpt和.meta)还有train、val时的pb文件,具体待后面再讲。

04/25/2020 12:21 PM 494,155 checkpoint_lenet-1_1875.ckpt

04/25/2020 12:20 PM 15,033 checkpoint_lenet-graph.meta

04/25/2020 02:36 PM 4,831 ms_output_0eval.pb

04/25/2020 02:36 PM 15,878 ms_output_0train.pb

避坑指南

也许在上面你会遇到MNIST数据集下载的问题。

以我自己为例,在电信的宽带下载MNIST几乎是龟速,实在没法忍,想起此前在其他Repo下载过这个数据集的几个gz文件。于是copy进lenet.py里定义的路径:

train_path = "./MNIST_Data/train/"

test_path = "./MNIST_Data/test/"

需要注意的是需要分别copy train-*到./MNIST_Data/train, t10k-*到./MNIST_Data/test

如果你之前没下载过,你可以直接在这里下载下面这个link的MNIST_DATA的压缩包,解压到lenet.py的同级目录即可:

https://gitee.com/loveunk/mindspore/blob/master/example/_lenet_demo/MNIST_Data.zip

如果本文对你有帮助,欢迎“三连”~

MindSpore TensorFlow 机器学习

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:《软件需求分析(第二版)》第 15 章——变更管理 重点部分总结
下一篇:华为云亮点抢先看!2019华为全球金融峰会
相关文章