Chinaunix首页 | 论坛 | 博客
  • 博客访问: 349717
  • 博文数量: 54
  • 博客积分: 497
  • 博客等级: 下士
  • 技术积分: 612
  • 用 户 组: 普通用户
  • 注册时间: 2010-03-16 20:05
个人简介

行动…Don\'t ever let somebody tell you, you can\'t do something. you got a dream, you gotta protect it. people can\'t do something themselves they wanna tell you you can\'t do it.if you want something. go get it.

文章分类

全部博文(54)

文章存档

2021年(3)

2018年(1)

2017年(18)

2016年(7)

2015年(4)

2013年(1)

2011年(20)

我的朋友

分类: 大数据

2016-04-14 16:54:43

注:以下脚本为远程开启HADOOP与SPARK服务
#!/bin/bash
hadoop="/usr/local/hadoop/hadoop-2.6.0/sbin/start-all.sh"     #给变量赋值,可直接调用。避免繁琐的输入#
spark="/usr/local/spark/spark-1.5.2-bin-hadoop2.6/sbin/start-all.sh"


for i in 220 221 222     #FOR循环,数值为IP尾数#
do
ssh 192.168.157.$i "$hadoop"&&"$spark"     #远程进入服务器后,执行这两个变量的值#
done
  
(ssh ip  后面直接跟所执行的命令或脚本名并双引号括起。如:ssh 192.168.157.8  "cat /var/log/messages")

本文中SSH未输入用户名密码。是因为已用公匙解决。若不明白公匙查命令ssh-keygen 用法。
阅读(1574) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~