- 浏览: 472879 次
- 性别:
- 来自: 南阳
文章分类
最新评论
-
yuanhongb:
这么说来,感觉CGI和现在的JSP或ASP技术有点像啊
cgi -
draem0507:
放假了还这么勤啊
JXL操作Excel -
chenjun1634:
学习中!!
PHP/Java Bridge -
Jelen_123:
好文章,给了我好大帮助!多谢!
hadoop安装配置 ubuntu9.10 hadoop0.20.2 -
lancezhcj:
一直用job
Oracle存储过程定时执行2种方法(转)
概述:
业务需要较实时的处理大数据量,并提供大吞吐量的读写,hbase作为一个可选的列数据库,记录一下安装过程,待查。
hbase的安装需要hadoop和zookeeper和hbase,生产环境下需要将zookeeper独立安装,并保证整个集群没有单点。
hbase软件选择cloudera的cdh3u0,apache的版本需要重新编译hadoop0.20.2-appender版以保证没有数据丢失。
1、规划机器
使用12个虚拟机作为集群测试,ip为192.168.0.221-232,hostname为ubuntu-1到ubuntu-12其中
2、安装操作系统及必要软件
安装ubuntu11.04 server X64版,hadoop推荐2.6.30以上内核
# sudo apt-get install ssh
# sudo apt-get install vim
# sudo apt-get install rsync
创建hadoop用户
在所有机器上,密码为hadoop,并加入到sudo组
# sudo adduser hadoop
# sudo usermod -G sudo hadoop
安装jdk
从oracle下载jdk-6u24-linux-x64.bin,在所有的机器上安装
# ./jdk-6u24-linux-x64.bin
# sudo mv jdk1.6.0_24 /usr/local
解压cdh3u0软件
在所有机器创建cdh3目录
# mkdir /home/hadoop/cdh3
在221上解压hadoop和hbase
# tar zxvf hadoop-0.20.2-cdh3u0.tar.gz -C /home/hadoop/cdh3
# tar zxvf hbase-0.90.1-cdh3u0.tar.gz -C /home/hadoop/cdh3
在229上解压zookeeper
# tar zxvf zookeeper-3.3.3-cdh3u0.tar.gz -C /home/hadoop/cdh3
在221-228,232上修改/etc/profile
# sudo vim /etc/profile
添加
在229-231上修改/etc/profile
添加
ssh免密码登录
用hadoop用户登录所有机器,在/home/hadoop/下建立.ssh目录
运行
# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
这样会在~/.ssh/生成两个文件:id_dsa 和id_dsa.pub。
# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
拷贝authorized_keys到222-232
# scp /home/hadoop/.ssh/authorized_keys hadoop@192.168.0.222:/home/hadoop/.ssh/
修改hosts文件
# sudo vim /etc/hosts
修改所有机器的/etc/hosts文件为
从221登录221-232,用hostname,第一次需要确认,以后就可以直接登录。
# ssh ubuntu-1
# ssh ubuntu-2
# ssh ubuntu-3
# ssh ubuntu-4
# ssh ubuntu-5
# ssh ubuntu-6
# ssh ubuntu-7
# ssh ubuntu-8
# ssh ubuntu-9
# ssh ubuntu-10
# ssh ubuntu-11
# ssh ubuntu-12
3、安装hadoop
在221和232上创建/data
# sudo mkdir /data
# sudo chown hadoop /data
在222和228上创建/disk1,/disk2,/disk3
# sudo mkdir /disk1
# sudo mkdir /disk2
# sudo mkdir /disk3
# sudo chown hadoop /disk1
# sudo chown hadoop /disk2
# sudo chown hadoop /disk3
修改/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/conf/hadoop-env.sh添加
修改/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/conf/core-site.xml添加
修改/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/conf/hdfs-site.xml添加
修改/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/conf/mapred-site.xml添加
修改/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/conf/masters添加
修改/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/conf/slaves添加
拷贝221的hadoop到222-228,232
# scp -r /home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/ hadoop@192.168.0.222:/home/hadoop/cdh3/
格式化hadoop文件系统
# hadoop namenode -format
启动hadoop,在221上运行
# start-all.sh
查看集群状态:http://192.168.0.221:50070/dfshealth.jsp
查看JOB状态:http://192.168.0.221:50030/jobtracker.jsp
4、安装zookeeper
在229-231上创建/home/hadoop/zookeeperdata目录
修改229的/home/hadoop/cdh3/zookeeper-3.3.3-cdh3u0/conf/zoo.cfg
拷贝229的hadoop到230,231
# scp -r /home/hadoop/cdh3/zookeeper-3.3.3-cdh3u0/ hadoop@192.168.0.232:/home/hadoop/cdh3/
在229,230,231的/home/hadoop/zookeeperdata目录下建myid文件,内容分别为1,2,3
启动zookeeper,在229-231上分别执行
# zkServer.sh start
启动后可以使用
# zkServer.sh status
查看状态
5、安装hbase
在221上修改/home/hadoop/cdh3/hbase-0.90.1-cdh3u0/conf/hbase-env.sh添加
在221上修改/home/hadoop/cdh3/hbase-0.90.1-cdh3u0/conf/hbase-site.xml添加
在221上修改/home/hadoop/cdh3/hbase-0.90.1-cdh3u0/conf/regionservers添加
拷贝221的hbase到222-228,232
# scp -r /home/hadoop/cdh3/hbase-0.90.1-cdh3u0/ hadoop@192.168.0.222:/home/hadoop/cdh3/
启动hbase
在221上执行
# start-hbase.sh
启动hbase的第二个HMaster
在232上执行
# hbase-daemon.sh start master
查看Master:http://192.168.0.221:60010/master.jsp
查看Region Server:http://192.168.0.222:60030/regionserver.jsp
查看ZK:http://192.168.0.221:60010/zk.jsp
6、说明
jps查看启动进程
221
222-228
229-231
232
启动顺序
1.hadoop
2.zookeeper
3.hbase
4.第二个HMaster
停止顺序
1.第二个HMaster, kill-9删除
2.hbase
3.zookeeper
4.hadoop
业务需要较实时的处理大数据量,并提供大吞吐量的读写,hbase作为一个可选的列数据库,记录一下安装过程,待查。
hbase的安装需要hadoop和zookeeper和hbase,生产环境下需要将zookeeper独立安装,并保证整个集群没有单点。
hbase软件选择cloudera的cdh3u0,apache的版本需要重新编译hadoop0.20.2-appender版以保证没有数据丢失。
1、规划机器
使用12个虚拟机作为集群测试,ip为192.168.0.221-232,hostname为ubuntu-1到ubuntu-12其中
机器名 | IP | 安装系统 |
ubuntu-1 | 192.168.0.221 | hadoop namenode / hbase HMaster |
ubuntu-2 | 192.168.0.222 | hadoop datanode / hbase HRegionServer |
ubuntu-3 | 192.168.0.223 | hadoop datanode / hbase HRegionServer |
ubuntu-4 | 192.168.0.224 | hadoop datanode / hbase HRegionServer |
ubuntu-5 | 192.168.0.225 | hadoop datanode / hbase HRegionServer |
ubuntu-6 | 192.168.0.226 | hadoop datanode / hbase HRegionServer |
ubuntu-7 | 192.168.0.227 | hadoop datanode / hbase HRegionServer |
ubuntu-8 | 192.168.0.228 | hadoop datanode / hbase HRegionServer |
ubuntu-9 | 192.168.0.229 | zookeeper |
ubuntu-10 | 192.168.0.230 | zookeeper |
ubuntu-11 | 192.168.0.231 | zookeeper |
ubuntu-12 | 192.168.0.232 | hadoop second namenode / hbase HMaster |
2、安装操作系统及必要软件
安装ubuntu11.04 server X64版,hadoop推荐2.6.30以上内核
# sudo apt-get install ssh
# sudo apt-get install vim
# sudo apt-get install rsync
创建hadoop用户
在所有机器上,密码为hadoop,并加入到sudo组
# sudo adduser hadoop
# sudo usermod -G sudo hadoop
安装jdk
从oracle下载jdk-6u24-linux-x64.bin,在所有的机器上安装
# ./jdk-6u24-linux-x64.bin
# sudo mv jdk1.6.0_24 /usr/local
解压cdh3u0软件
在所有机器创建cdh3目录
# mkdir /home/hadoop/cdh3
在221上解压hadoop和hbase
# tar zxvf hadoop-0.20.2-cdh3u0.tar.gz -C /home/hadoop/cdh3
# tar zxvf hbase-0.90.1-cdh3u0.tar.gz -C /home/hadoop/cdh3
在229上解压zookeeper
# tar zxvf zookeeper-3.3.3-cdh3u0.tar.gz -C /home/hadoop/cdh3
在221-228,232上修改/etc/profile
# sudo vim /etc/profile
添加
- JAVA_HOME=/usr/local/jdk1.6.0_24
- JRE_HOME=$JAVA_HOME/jre
- CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
- HADOOP_HOME=/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0
- HBASE_HOME=/home/hadoop/cdh3/hbase-0.90.1-cdh3u0
- PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$PATH
- export JAVA_HOME JRE_HOME CLASSPATH HADOOP_HOME HBASE_HOME PATH
JAVA_HOME=/usr/local/jdk1.6.0_24 JRE_HOME=$JAVA_HOME/jre CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH HADOOP_HOME=/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0 HBASE_HOME=/home/hadoop/cdh3/hbase-0.90.1-cdh3u0 PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$PATH export JAVA_HOME JRE_HOME CLASSPATH HADOOP_HOME HBASE_HOME PATH
在229-231上修改/etc/profile
添加
- JAVA_HOME=/usr/local/jdk1.6.0_24
- ZOOKEEPER_HOME=/home/hadoop/cdh3/zookeeper-3.3.3-cdh3u0
- PATH=$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf:$PATH
- export JAVA_HOME ZOOKEEPER_HOME PATH
JAVA_HOME=/usr/local/jdk1.6.0_24 ZOOKEEPER_HOME=/home/hadoop/cdh3/zookeeper-3.3.3-cdh3u0 PATH=$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf:$PATH export JAVA_HOME ZOOKEEPER_HOME PATH
ssh免密码登录
用hadoop用户登录所有机器,在/home/hadoop/下建立.ssh目录
运行
# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
这样会在~/.ssh/生成两个文件:id_dsa 和id_dsa.pub。
# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
拷贝authorized_keys到222-232
# scp /home/hadoop/.ssh/authorized_keys hadoop@192.168.0.222:/home/hadoop/.ssh/
修改hosts文件
# sudo vim /etc/hosts
修改所有机器的/etc/hosts文件为
- 127.0.0.1 localhost
- 192.168.0.221 ubuntu-1
- 192.168.0.222 ubuntu-2
- 192.168.0.223 ubuntu-3
- 192.168.0.224 ubuntu-4
- 192.168.0.225 ubuntu-5
- 192.168.0.226 ubuntu-6
- 192.168.0.227 ubuntu-7
- 192.168.0.228 ubuntu-8
- 192.168.0.229 ubuntu-9
- 192.168.0.230 ubuntu-10
- 192.168.0.231 ubuntu-11
- 192.168.0.232 ubuntu-12
127.0.0.1 localhost 192.168.0.221 ubuntu-1 192.168.0.222 ubuntu-2 192.168.0.223 ubuntu-3 192.168.0.224 ubuntu-4 192.168.0.225 ubuntu-5 192.168.0.226 ubuntu-6 192.168.0.227 ubuntu-7 192.168.0.228 ubuntu-8 192.168.0.229 ubuntu-9 192.168.0.230 ubuntu-10 192.168.0.231 ubuntu-11 192.168.0.232 ubuntu-12
从221登录221-232,用hostname,第一次需要确认,以后就可以直接登录。
# ssh ubuntu-1
# ssh ubuntu-2
# ssh ubuntu-3
# ssh ubuntu-4
# ssh ubuntu-5
# ssh ubuntu-6
# ssh ubuntu-7
# ssh ubuntu-8
# ssh ubuntu-9
# ssh ubuntu-10
# ssh ubuntu-11
# ssh ubuntu-12
3、安装hadoop
在221和232上创建/data
# sudo mkdir /data
# sudo chown hadoop /data
在222和228上创建/disk1,/disk2,/disk3
# sudo mkdir /disk1
# sudo mkdir /disk2
# sudo mkdir /disk3
# sudo chown hadoop /disk1
# sudo chown hadoop /disk2
# sudo chown hadoop /disk3
修改/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/conf/hadoop-env.sh添加
export JAVA_HOME=/usr/local/jdk1.6.0_24
修改/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/conf/core-site.xml添加
- <property>
- <name>hadoop.tmp.dir</name>
- <value>/data</value>
- <description>A base for other temporary directories.</description>
- </property>
- <property>
- <name>fs.default.name</name>
- <value>hdfs://ubuntu-1:9000/</value>
- <description>The name of the default file system. A URI whose
- scheme and authority determine the FileSystem implementation. The
- uri's scheme determines the config property (fs.SCHEME.impl) naming
- the FileSystem implementation class. The uri's authority is used to
- determine the host, port, etc. for a filesystem.</description>
- </property>
<property> <name>hadoop.tmp.dir</name> <value>/data</value> <description>A base for other temporary directories.</description> </property> <property> <name>fs.default.name</name> <value>hdfs://ubuntu-1:9000/</value> <description>The name of the default file system. A URI whose scheme and authority determine the FileSystem implementation. The uri's scheme determines the config property (fs.SCHEME.impl) naming the FileSystem implementation class. The uri's authority is used to determine the host, port, etc. for a filesystem.</description> </property>
修改/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/conf/hdfs-site.xml添加
- <property>
- <name>dfs.name.dir</name>
- <value>/home/hadoop/data</value>
- </property>
- <property>
- <name>dfs.data.dir</name>
- <value>/disk1,/disk2,/disk3</value>
- </property>
- <property>
- <name>dfs.permissions</name>
- <value>false</value>
- </property>
- <property>
- <name>dfs.replication</name>
- <value>3</value>
- </property>
<property> <name>dfs.name.dir</name> <value>/home/hadoop/data</value> </property> <property> <name>dfs.data.dir</name> <value>/disk1,/disk2,/disk3</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property>
修改/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/conf/mapred-site.xml添加
- <property>
- <name>mapred.job.tracker</name>
- <value>ubuntu-1:9001</value>
- <description>The host and port that the MapReduce job tracker runs
- at. If "local", then jobs are run in-process as a single map
- and reduce task.
- </description>
- </property>
<property> <name>mapred.job.tracker</name> <value>ubuntu-1:9001</value> <description>The host and port that the MapReduce job tracker runs at. If "local", then jobs are run in-process as a single map and reduce task. </description> </property>
修改/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/conf/masters添加
ubuntu-12
修改/home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/conf/slaves添加
ubuntu-2 ubuntu-3 ubuntu-4 ubuntu-5 ubuntu-6 ubuntu-7 ubuntu-8
拷贝221的hadoop到222-228,232
# scp -r /home/hadoop/cdh3/hadoop-0.20.2-cdh3u0/ hadoop@192.168.0.222:/home/hadoop/cdh3/
格式化hadoop文件系统
# hadoop namenode -format
启动hadoop,在221上运行
# start-all.sh
查看集群状态:http://192.168.0.221:50070/dfshealth.jsp
查看JOB状态:http://192.168.0.221:50030/jobtracker.jsp
4、安装zookeeper
在229-231上创建/home/hadoop/zookeeperdata目录
修改229的/home/hadoop/cdh3/zookeeper-3.3.3-cdh3u0/conf/zoo.cfg
- # The number of milliseconds of each tick
- tickTime=2000
- # The number of ticks that the initial
- # synchronization phase can take
- initLimit=10
- # The number of ticks that can pass between
- # sending a request and getting an acknowledgement
- syncLimit=5
- # the directory where the snapshot is stored.
- dataDir=/home/hadoop/zookeeperdata
- # the port at which the clients will connect
- clientPort=2181
- server.1=ubuntu-9:2888:3888
- server.2=ubuntu-10:2888:3888
- server.3=ubuntu-11:2888:3888
# The number of milliseconds of each tick tickTime=2000 # The number of ticks that the initial # synchronization phase can take initLimit=10 # The number of ticks that can pass between # sending a request and getting an acknowledgement syncLimit=5 # the directory where the snapshot is stored. dataDir=/home/hadoop/zookeeperdata # the port at which the clients will connect clientPort=2181 server.1=ubuntu-9:2888:3888 server.2=ubuntu-10:2888:3888 server.3=ubuntu-11:2888:3888
拷贝229的hadoop到230,231
# scp -r /home/hadoop/cdh3/zookeeper-3.3.3-cdh3u0/ hadoop@192.168.0.232:/home/hadoop/cdh3/
在229,230,231的/home/hadoop/zookeeperdata目录下建myid文件,内容分别为1,2,3
启动zookeeper,在229-231上分别执行
# zkServer.sh start
启动后可以使用
# zkServer.sh status
查看状态
5、安装hbase
在221上修改/home/hadoop/cdh3/hbase-0.90.1-cdh3u0/conf/hbase-env.sh添加
export JAVA_HOME=/usr/local/jdk1.6.0_24 export HBASE_MANAGES_ZK=false
在221上修改/home/hadoop/cdh3/hbase-0.90.1-cdh3u0/conf/hbase-site.xml添加
- <property>
- <name>hbase.rootdir</name>
- <value>hdfs://ubuntu-1:9000/hbase</value>
- </property>
- <property>
- <name>hbase.cluster.distributed</name>
- <value>true</value>
- </property>
- <property>
- <name>hbase.master.port</name>
- <value>60000</value>
- </property>
- <property>
- <name>hbase.zookeeper.quorum</name>
- <value>ubuntu-9,ubuntu-10,ubuntu-11</value>
- </property>
<property> <name>hbase.rootdir</name> <value>hdfs://ubuntu-1:9000/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.master.port</name> <value>60000</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>ubuntu-9,ubuntu-10,ubuntu-11</value> </property>
在221上修改/home/hadoop/cdh3/hbase-0.90.1-cdh3u0/conf/regionservers添加
ubuntu-2 ubuntu-3 ubuntu-4 ubuntu-5 ubuntu-6 ubuntu-7 ubuntu-8
拷贝221的hbase到222-228,232
# scp -r /home/hadoop/cdh3/hbase-0.90.1-cdh3u0/ hadoop@192.168.0.222:/home/hadoop/cdh3/
启动hbase
在221上执行
# start-hbase.sh
启动hbase的第二个HMaster
在232上执行
# hbase-daemon.sh start master
查看Master:http://192.168.0.221:60010/master.jsp
查看Region Server:http://192.168.0.222:60030/regionserver.jsp
查看ZK:http://192.168.0.221:60010/zk.jsp
6、说明
jps查看启动进程
221
JobTracker NameNode HMaster
222-228
HRegionServer DataNode TaskTracker
229-231
QuorumPeerMain
232
SecondaryNameNode HMaster
启动顺序
1.hadoop
2.zookeeper
3.hbase
4.第二个HMaster
停止顺序
1.第二个HMaster, kill-9删除
2.hbase
3.zookeeper
4.hadoop
发表评论
-
实现mapreduce多文件自定义输出
2012-07-13 15:02 2529普通maprduce中通常是有map和reduce两个阶 ... -
hadoop中mapred.tasktracker.map.tasks.maximum的设置
2012-06-11 16:33 1141目前,我们邮件的一部分log已经迁移到Hadoop集群上 ... -
Hadoop集群的NameNode的备份
2012-06-01 15:58 1411Hadoop集群中,NameNode节 ... -
Hbase Shell的常用命令
2012-06-01 15:54 1361总结的一些Hbase shell的命令 都很简单,可以h ... -
Hadoop集群中增加新节点
2012-06-01 15:53 1137向一个正在运行的Hadoo ... -
Hadoop集群上使用Lzo压缩
2012-06-01 15:47 1178自从Hadoop集群搭建以来,我们一直使用的是Gzip进行 ... -
SSH连接反应慢的分析解决
2012-06-01 09:41 1447原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 ... -
云计算大会视频与演讲备忘
2012-05-29 15:53 815<!--StartFragment --> 阿里 ... -
HBase HFile与Prefix Compression内部实现全解--KeyValue格式
2012-05-25 14:40 19251. 引子 HFile (HBase File)是HB ... -
HFile详解-基于HBase0.90.5
2012-05-25 14:25 23471. HFile详解 HFile文件分为以下六大部分 ... -
Hive-0.8.1索引的实验
2012-05-19 09:29 1525先说一个0.7.1和0.8.1的Metastore不兼容 一 ... -
Hive HBase 整合(中文)
2012-05-07 09:07 1456hive hbase整合,要求比较多,1.hive的得是0.6 ... -
编写hive udf函数
2012-05-04 19:13 1247udf编写入门大写转小写package com.afan;im ... -
Hive与HBase的整合
2012-04-28 10:48 1849开场白:Hive与HBase的整合功能的实现是利用两者本身对外 ... -
hadoop,hbase,hive安装全记录
2012-04-26 10:09 2534操作系统:CentOS 5.5Hadoop:hadoop- ... -
HDFS+MapReduce+Hive+HBase十分钟快速入门
2012-04-15 16:19 10801. 前言 本文的目的是让一个从未接触Hadoo ... -
云框架Hadoop之部署Hive
2012-04-12 15:47 874标签:Hive 云框架 Hadoop 部署 原创作品,允许 ... -
hive实战
2012-04-10 16:01 9701. 安装hive 2. hive实战 3. hi ... -
hadoop hive 资料
2012-04-09 11:10 1136Hive 是建立在 Hadoop 上的数据仓库基础构架。它提供 ... -
Hadoop的rmr和trash
2012-02-14 10:40 1168这两天在操作Hadoop集 ...
相关推荐
ubuntu11.04的详细安装方法,其中包括自动分区和手动分区的步骤,希望能对广大用户有帮助!
最新的Ubuntu 11.04安装指南(详细图解)
ubuntu11.04上编译omap3530内核存在问题解决方法.使用的是天漠公司的sbc8100开发板
ubuntu11.04安装wine1.3的图文方法。 ubuntu11.04安装wine1.3的图文方法。 ubuntu11.04安装wine1.3的图文方法。 ubuntu11.04安装wine1.3的图文方法。
Ubuntu11.04 下载
硬盘全新安装ubuntu11.04 硬盘全新安装ubuntu11.04
CSI Tool 集成安装包(适配Ubuntu 11.04系统,Intel 5300 无线网卡) csitools
最快最全的Ubuntu11.04源,速度超快
Ubuntu 11.04 安装后要做的20件事情 Ubuntu 11.04 安装后要做的20件事情 Ubuntu 11.04 安装后要做的20件事情
本人在VMware虚拟机 安装的 Ubuntu 11.04 & Ubuntu server 12.04 上的安装记录 多部电脑/服务器验证通过
安装ubuntu11.04的安装,亲测可用,放心下载 Ubuntu(又称乌班图)是一个以桌面应用为主的开源GNU/Linux操作系统,Ubuntu 是基于Debian GNU/Linux,支持x86、amd64(即x64)、ARM和ppc架构,由全球化的专业开发团队...
Linux Ubuntu 11.04 安装手册,主要说明分区和驱动
ubuntu11.04如何从图形界面切换的终端及root 用户的切换ubuntu11.04如何从图形界面切换的终端及root 用户的切换ubuntu11.04如何从图形界面切换的终端及root 用户的切换ubuntu11.04如何从图形界面切换的终端及root ...
windows7+ubuntu11.04 双系统安装.pdf
在VMware Player 安装 ubuntu11.04全图解
ubuntu 11.04 3D安装及事项,实现完美的3D效果,及优化开机速度
Ubuntu 11.04 安装后要做的20件事情.txt Ubuntu 安装 软件 配置 系统
Ubuntu 11.04 下 Vbox 虚拟机安装Windows 8全教程.doc
2011 WIN7+Ubuntu 11.04+openSUSE 11.4 三系统硬盘安装