分类: LINUX
2018-02-02 14:39:43
这一年人工智能火了,凡是带电的专业都往AI上靠,实在靠不上的还可以看AlphaGo下棋,探讨AI能否取代人类。这种全民跟风,比前两年的“云计算”、“大数据”热度还高。就算你不懂AI技术,还可以百度“神经网络”“深度学习”科普,心里YY一下机器人取代人类。云计算大数据就不行了——想搞hadoop、openstack、docker……起码也得有个吧?连个系统命令都敲不明白,这些高级应用你往哪儿装?
无论AI和区块链再怎么火,也要记得,对于大多数公司来说,你们机房里最关键的服务器还是类Unix系统;你们业务上最核心的数据表仍然跑在关系型数据库上;即使有一天AI落地,它依然基于系统网络存储数据库这些基础架构。对于大多数非互联网公司的IT人来说,这些才是你吃饭的根本。而这一切都指向同一个系统——Linux。
一波又一波的跟风,巩固的是Linux的江湖地位。
除去部分Windows Server和小型机不谈,大多数的新技术还得装在Linux上。等这一波AI热潮退了,下一个新技术,多半还要装在Linux上。要是你连Linux的基础都没有,你应该连hadoop和openstack的基本概念都建立不起来。因为有这些技术能力的人,几乎是不可能绕过Linux的。
从学习路径上说,这是你绕不过去的坎。
从知识的长期投资性价比来说,Linux是最可靠的知识之一。广泛,通用,重要,很难过时。连你手里的安卓系统,本质上也等于Linux,底层目录结构和Linux一模一样。这一组目录结构自Unix起,五十年来没有变过。我们有足够的理由认为,Linux还能再战五十年。
传统关系型数据库课程,无论Oracle还是MySQL,都要花时间介绍Linux的文件管理、用户切换、vim使用、软件包依赖。否则零基础学员可能连拷贝安装包都做不来。
分布式数据库课程,Linux是必备基础。即便腾讯TBase这样无比友好,简化到了一键安装,支持图形化管理的分布式数据库,安装脚本也是个Linux shell脚本。依然要在Linux下编辑配置文件指定IP和角色。
Hadoop、Openstack等一系列课程中,Linux是默认必备的前置知识。否则你无法落实MapReduce,也难以调动Nova、Swift或Keystone。没有哪一家的大数据平台给你准备全套图形化界面。你也不能奢望靠一只鼠标管理几百几千台私有云主机。命令行是你绕不过去的坎。
即便是炒得火热的自动化运维、智能化运维,其重要组成部分也是Linux的shell脚本,其他高级工具python等,也属于Linux shell基础上的延伸。
Linux下至少95%的日常操作通过命令行实现,上手门槛高于Windows,但又是大量应用的部署平台。现在的IT,还不能绕过操作系统,直接把应用部署到硬件上。而操作系统只有两种:Windows Server和类Unix系统。
对技术快速迭代的IT人来说,这是一条必经之路。即使你现在全盘使用Windows Server图形化界面,也不得不适应命令行操作。擅长图形化界面的Windows Server早在2012版本起,就开始主推powershell,从而利用命令行自动化、批量化管理海量服务器。如果你最终需要学会命令行,Linux是必然的选择。即使微软自己也在技术上拥抱Linux。
在过去的很多年里,AI从无到有,Linux从有到无,无处不在的无。