李沐团队半年离开六人,MXNet是否英雄落幕?
《动手学深度学习》最早是作为MXNet文档来做的,现在已经被包括cmu/stanford/berkeley/mit等近100所高校作为教材使用。Nvidia创始人Jensen特意为此写了推荐语。
ResNeSt是GluonCV 0.7中的工作 https://github.com/dmlc/gluon-cv/releases/tag/v0.7.0 刷爆了各大榜单
GluonNLP把BERT的inference速度降到百万次不到一块钱。
AutoGluon是我们在automl的首次尝试,比我们知道的所有工作都要块和准。
MXNet的model zoo下载量在百万级别。
本人2018年3月入职MXNet团队,自入职至今是在MXNet项目上贡献commit数量最多的contributor,也是社区committer。同时,我也是近期从MXNet团队离职的成员之一,去向是亚马逊内部的其他team。 …… 其实沐神待我也是不薄,并且我对MXNet这个项目也算是有一些感情的。在开发之余,我也担当了MXNet生态系统一些PR blog的翻译润色和校对工作,各位去翻一下的话应该可以看到我的名字。尽管如此,我最终在近期选择了离职主要是因为总体上MXNet ecosystem的蛋糕没有做大,反而是越来越小,如此一来team内的上升空间也就缩小了。……
李沐团队技术实力很强,但是做的主要产品都没打开市场。而且这些产品有一些具备一定延续性,会互相影响。
比如基于MXNet的GluonCV、GluonNLP和Dive into Deep Learning,本来打算通过这三款产品来带动更多人进入MXNet社区。
但是这三款产品都是维生素,而不是止疼药;没能解决深度学习框架的痛点,解决的是痒点。而与此同时,解决深度学习框架易用性这个痛点的PyTorch几乎一夜之间崛起,现在可以跟TensorFlow分庭抗礼,整个深度学习框架市场几乎被TensorFlow和PyTorch瓜分。
这种情况下,即使GluonCV和GluonNLP做得很棒,本身的市场价值却因为MXNet市场低占有率而拖累。所以情况就比较尴尬,MXNet市场占有率依旧低迷,依托其上开发的GluonCV和GluonNLP既没能改变这个现实,与此同时又受限于这个现实,无法发挥其潜力。 …… ……
我是device org的scientist,我们大组是专门做edge端的CV team,旗下的要维护研发的CV model相对比较多。别的公司听说我做DL都会问你们用不用MXNet 我只能含蓄得回答可以用但是没人逼我们必须用 …… 实际上就是完全不用。
...... MXNet平台并不差,不管是功能还是性能有些地方都是可圈可点的,但实际体验中莫名其妙的晦涩的错误、欠缺的算子、很多算子在cpu中运行的速度甚至不如手撸numpy、相较于torch更高的内存占用(曾经MXNet引以为傲的内存低占用现在已经没有什么优势)、某个版本能用的Mirror到另一个版本就失效了、某个版本能用的custom numpy operator到了某个版本突然就出现bug了、某个版本horovod就是安装不成功、某个版本auto mixed precision又突然出现错误无法训练如此等等,的确给新手用户不小的麻烦。
但这些不是不能解决的,可能是没有被重视吧,而且因为竞争平台也不是十全十美,所以平台不是没有机会,机会仍然存在。 ......