in/hadoop: line 258: \cygdrive\c\Program: command not found bin/hadoop: line 289: \cygdrive\c\Program Files\ Java\jdk1.7.0_07/bin/ java: No such file or directorybin/hadoop: line 289: exec: \cygdrive\c\Program Files\Java\jdk1.7.0_07/bin/java: cannot execute: No such file or directory
解决方案:
识别不了你hadoop-env.sh里的java_home路径,里面有空格program files你可以找个目录设置一个软链接,比如说ln -s "C:\Program Files\Java\jdk1.7.0_07" /usr/local/然后将hadoop-env.sh里的java_home改成export java_home=/usr/local/jdk1.7.0_07就可以了
体会:真是这样的 之前参考网上说的加java路径中有空格要加双引号,试了但是不行。此方法很实用,照着做之后就好了
安装好Cygwin后,SSH需要设置为无密码登陆,
首先查看是ssh还是ssh2:
ls -l `which ssh`
lrwxrwxrwx 1 root root 4 2008-07-10 10:15 /usr/local/bin/ssh -> ssh2
如果“ls -l `which ssh`”得到的结果是:/usr/bin/ssh或/usr/local/bin/ssh,则可先认为为ssh2,不行再以ssh试一试。
SSH登录:
现在确认能否不输入口令就用ssh登录localhost:
$ ssh localhost
如果不输入口令就无法用ssh登陆localhost,执行下面的命令:
$ rm -fr ~/.ssh
$ mkdir ~/.ssh
$ cd ~/.ssh
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
但配置完成后执行ssh localhost 报错:
Connection closed by 127.0.0.1
用Connection closed by ,ssh localhost等作为关键字遍搜google,文章无数,解决方案繁多,但是没有一个有效,主要是说hosts.allow,hosts.deny,ssh_config等文件需要修改的问题,我是改了一遍又一遍没有效果,后来在已朋友的博客上看到书权限问题,想到将windows中CYGWIN SSHD 服务进程的运行权限修改成当前用户,重启后就妥了.
SSH2登录:
现在确认能否不输入口令就用ssh登录localhost:
$ ssh localhost
如果不输入口令就无法用ssh登陆localhost,执行下面的命令:
$ rm -fr ~/.ssh2
$ mkdir ~/.ssh2
$ cd ~/.ssh2
$ ssh-keygen2 -t rsa
$ echo "IdKey id_rsa_2048_a" > identification
$ echo "key id_rsa_2048_a.pub" > authorizationin7下Cygwin中,使用ssh localhost命令,出现Connection closed by 127.0.0.1的问题。
解决方案:
1、开始——运行——services.msc
2、右键CYGWIN sshd——属性——登录选项卡——选择“此账户”——浏览——高级——立即查找——选择你的账户名(必须为管理员权限)——输入密码(必须要有,空密码不接受)——确定。
3、重启CYGWIN sshd服务即可。
这样就以你的账户的名义启动了这个服务。而后ssh localhost成功。
这样做的一个缺点可能是你要给电脑设个密码。
http://www.cnblogs.com/zbw911/archive/2011/09/30/2196334.htmlhttp://pwcrab.blog.163.com/blog/static/16990382220107267443810/http://my.oschina.net/hunzi/blog/10687
载Hadoop安装包
修改配置文件:
hadoop-env.sh http://www.cnblogs.com/tonychanleader/archive/2012/09/22/2697930.html
export JAVA_HOME=/cygdrive/E/Progra~1/Java/jdk1.6.0_22
注意:Program Files改为Progra~1 否则 启动Hadoop的时候会报错