Snap简介(snap介绍)
783
2022-05-29
MindSpore可以做模型的自动切分这一点让人印象深刻。当然,还有很多特点,比如自动微分、支持动态图+静态图,等等。如果希望了解更多,请看MindSpore官网:
MindSpore www.mindspore.cn/
对于个人来讲,去年便对MindSpore有简单了解,做过一些其与TensorFlow、PyTorch的对比分析。因为此前尚未开源,只能基于公开的文档做调研而已。
而三月底,在HDC大会时,华为正式开源了MindSpore的源码和相应的文档。因而有机会实际拿来运行看看,本文将介绍如何在Windows平台安装和搭建MindSpore,同时训练一个小的网络(LeNet)。
安装MindSpore
截至今天,MindSpore官网建议的安装操作系统为EulerOS和Ubuntu,并不包括Windows。而不幸的是我的这台Lenovo游戏主机是Windows 10的系统。
仔细了下文档,发现实际上MindSpore是支持Windows平台的[1],只不过只能以CPU的模式运行(暂时不支持Windows平台的GPU)。如果希望尝试MindSpore对GPU的支持,需要使用Ubuntu系列或者华为的EulerOS(这也不是本文的重点)。
下面进入安装的正题。
安装Anaconda
非常推荐使用Anaconda作为Python虚拟环境的管理。
你可以去Anaconda官网下载,一路Next即可。如果遇到问题,可适当参考这里。
由于Anaconda的安装过程简单直观,这里不详述了。
创建MindSpore的Python Env
目前MindSpore仅仅支持Python 3.7.5,下面创建的pyhton env就叫做mindspore:
conda create -n mindspore python=3.7.5
安装MindSpore
下载MindSpore的whl文件,-见这里,目前只有一个0.1.0的版本
mindspore-0.1.0-cp37-cp37m-win_amd64.whl
在mindspore这个python env里执行:
conda activate mindspore
# 此时你应该在mindspore-0.1.0-cp37-cp37m-win_amd64.whl这个文件的目录里
pip install mindspore-0.1.0-cp37-cp37m-win_amd64.whl
注意,这里很多同学反应安装过程很慢,甚至有失败的情况,基本都是网络惹得祸。因为安装上面的whl文件时会按照一些依赖的libraries,如果你的pip是默认源的话,在国内的网络下载时可能遇到问题的。一个解决办法是重试(yes, just retry),另一个办法是把pip源切换为国内的源,比如清华源。具体方法见这里:
Tsinghua Open Source Mirror mirror.tuna.tsinghua.edu.cn/help/pypi/正在上传…重新上传取消
一个临时的办法可以是:
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple mindspore-0.1.0-cp37-cp37m-win_amd64.whl
验证Spore安装是否成功
python
>>> import mindspore as ms
>>> print(ms.__version__)
# 如果成功,上面应该打印 0.1.0
训练一个LeNet
华为官方已经在其MindSpore Doc这个Repo里内置了一些examples,比如LeNet。
直接Fork吧:
git clone https://github.com/mindspore-ai/docs.git
如果你和我一样懒,仅仅下载lenet.py也可以,路径如下:
https://github.com/mindspore-ai/docs/blob/master/tutorials/tutorial_code/lenet.py
训练LeNet
因为这个代码里默认使用的训练设备为Ascend,所以需要手动设置一下--device_target为CPU:
python lenet.py --device_target CPU
MindSpore用LeNet训练MNIST
大约十几秒就可以跑完一个Epoch了:
******Downloading the MNIST dataset******
============== Starting Training ==============
epoch: 1 step: 1, loss is 2.3008137
epoch: 1 step: 2, loss is 2.299688
epoch: 1 step: 3, loss is 2.309444
epoch: 1 step: 4, loss is 2.3006275
epoch: 1 step: 5, loss is 2.3028035
epoch: 1 step: 6, loss is 2.302422
epoch: 1 step: 7, loss is 2.3067183
epoch: 1 step: 8, loss is 2.3057096
epoch: 1 step: 9, loss is 2.3042586
epoch: 1 step: 10, loss is 2.303799
...
...
...
epoch: 1 step: 1870, loss is 0.15847126
epoch: 1 step: 1871, loss is 0.12955114
epoch: 1 step: 1872, loss is 0.15605931
epoch: 1 step: 1873, loss is 0.28985676
epoch: 1 step: 1874, loss is 0.14183074
epoch: 1 step: 1875, loss is 0.05726877
============== Starting Testing ==============
============== Accuracy:{'Accuracy': 0.9625400641025641} ==============
看看Accuracy,已经到96.25%,还可以~
我们观察一下这个目录,会看到同时还保存了模型文件(.ckpt和.meta)还有train、val时的pb文件,具体待后面再讲。
04/25/2020 12:21 PM 494,155 checkpoint_lenet-1_1875.ckpt
04/25/2020 12:20 PM 15,033 checkpoint_lenet-graph.meta
04/25/2020 02:36 PM 4,831 ms_output_0eval.pb
04/25/2020 02:36 PM 15,878 ms_output_0train.pb
避坑指南
也许在上面你会遇到MNIST数据集下载的问题。
以我自己为例,在电信的宽带下载MNIST几乎是龟速,实在没法忍,想起此前在其他Repo下载过这个数据集的几个gz文件。于是copy进lenet.py里定义的路径:
train_path = "./MNIST_Data/train/"
test_path = "./MNIST_Data/test/"
需要注意的是需要分别copy train-*到./MNIST_Data/train, t10k-*到./MNIST_Data/test
如果你之前没下载过,你可以直接在这里下载下面这个link的MNIST_DATA的压缩包,解压到lenet.py的同级目录即可:
https://gitee.com/loveunk/mindspore/blob/master/example/_lenet_demo/MNIST_Data.zip
如果本文对你有帮助,欢迎“三连”~
MindSpore TensorFlow 机器学习
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。