📅  最后修改于: 2020-12-02 05:43:31             🧑  作者: Mango
Solr可以与Hadoop一起使用。由于Hadoop处理大量数据,Solr帮助我们从如此大量的资源中查找所需的信息。在本节中,让我们了解如何在系统上安装Hadoop。
下面给出了将Hadoop下载到系统上要遵循的步骤。
步骤1-转到Hadoop的主页。您可以使用链接-www.hadoop.apache.org/ 。单击链接Releases ,如以下屏幕快照中突出显示。
它将重定向到Apache Hadoop Releases页面,该页面包含各种版本Hadoop的源文件和二进制文件的镜像的链接,如下所示-
步骤2-选择最新版本的Hadoop(在我们的教程中为2.6.4),然后单击其二进制链接。它将带您到一个页面,其中有Hadoop二进制文件的镜像可用。单击这些镜像之一以下载Hadoop。
打开Linux终端并以超级用户身份登录。
$ su
password:
转到需要安装Hadoop的目录,然后使用先前复制的链接将文件保存在该目录中,如以下代码块所示。
# cd /usr/local
# wget http://redrockdigimark.com/apachemirror/hadoop/common/hadoop-
2.6.4/hadoop-2.6.4.tar.gz
下载Hadoop之后,使用以下命令将其解压缩。
# tar zxvf hadoop-2.6.4.tar.gz
# mkdir hadoop
# mv hadoop-2.6.4/* to hadoop/
# exit
请按照下面给出的步骤以伪分布式模式安装Hadoop 。
您可以通过将以下命令附加到〜/ .bashrc文件来设置Hadoop环境变量。
export HADOOP_HOME = /usr/local/hadoop export
HADOOP_MAPRED_HOME = $HADOOP_HOME export
HADOOP_COMMON_HOME = $HADOOP_HOME export
HADOOP_HDFS_HOME = $HADOOP_HOME export
YARN_HOME = $HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR = $HADOOP_HOME/lib/native
export PATH = $PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL = $HADOOP_HOME
接下来,将所有更改应用于当前正在运行的系统。
$ source ~/.bashrc
您可以在“ $ HADOOP_HOME / etc / hadoop”位置找到所有Hadoop配置文件。需要根据您的Hadoop基础架构在这些配置文件中进行更改。
$ cd $HADOOP_HOME/etc/hadoop
为了用Java开发Hadoop程序,您必须通过用系统中Java的位置替换JAVA_HOME值来重置hadoop-env.sh文件中的Java环境变量。
export JAVA_HOME = /usr/local/jdk1.7.0_71
以下是您必须编辑以配置Hadoop的文件列表-
core-site.xml
core-site.xml文件包含以下信息,例如用于Hadoop实例的端口号,为文件系统分配的内存,用于存储数据的内存限制以及读/写缓冲区的大小。
打开core-site.xml,并在
fs.default.name
hdfs://localhost:9000
hdfs-site.xml
hdfs-site.xml文件包含诸如本地文件系统的复制数据的值,名称节点路径和数据节点路径之类的信息。这意味着您要存储Hadoop基础架构的位置。
让我们假设以下数据。
dfs.replication (data replication value) = 1
(In the below given path /hadoop/ is the user name.
hadoopinfra/hdfs/namenode is the directory created by hdfs file system.)
namenode path = //home/hadoop/hadoopinfra/hdfs/namenode
(hadoopinfra/hdfs/datanode is the directory created by hdfs file system.)
datanode path = //home/hadoop/hadoopinfra/hdfs/datanode
打开此文件,并在
dfs.replication
1
dfs.name.dir
file:///home/hadoop/hadoopinfra/hdfs/namenode
dfs.data.dir
file:///home/hadoop/hadoopinfra/hdfs/datanode
注–在上面的文件中,所有属性值都是用户定义的,您可以根据Hadoop基础结构进行更改。
yarn-site.xml
该文件用于将yarn配置到Hadoop中。打开yarn-site.xml文件,并在此文件的
yarn.nodemanager.aux-services
mapreduce_shuffle
mapred-site.xml
该文件用于指定我们使用的MapReduce框架。默认情况下,Hadoop包含一个yarn-site.xml模板。首先,需要使用以下命令将文件从mapred-site,xml.template复制到mapred-site.xml文件。
$ cp mapred-site.xml.template mapred-site.xml
打开mapred-site.xml文件,并在
mapreduce.framework.name
yarn
以下步骤用于验证Hadoop安装。
如下所示,使用命令“ hdfs namenode –format”设置名称节点。
$ cd ~
$ hdfs namenode -format
预期结果如下。
10/24/14 21:30:55 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = localhost/192.168.1.11
STARTUP_MSG: args = [-format] STARTUP_MSG: version = 2.6.4
...
...
10/24/14 21:30:56 INFO common.Storage: Storage directory
/home/hadoop/hadoopinfra/hdfs/namenode has been successfully formatted.
10/24/14 21:30:56 INFO namenode.NNStorageRetentionManager: Going to retain 1
images with txid >= 0
10/24/14 21:30:56 INFO util.ExitUtil: Exiting with status 0
10/24/14 21:30:56 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at localhost/192.168.1.11
************************************************************/
以下命令用于启动Hadoop dfs。执行此命令将启动Hadoop文件系统。
$ start-dfs.sh
预期的输出如下-
10/24/14 21:37:56
Starting namenodes on [localhost]
localhost: starting namenode, logging to /home/hadoop/hadoop-2.6.4/logs/hadoop-
hadoop-namenode-localhost.out
localhost: starting datanode, logging to /home/hadoop/hadoop-2.6.4/logs/hadoop-
hadoop-datanode-localhost.out
Starting secondary namenodes [0.0.0.0]
以下命令用于启动Yarn脚本。执行此命令将启动Yarn恶魔。
$ start-yarn.sh
预期输出如下-
starting yarn daemons
starting resourcemanager, logging to /home/hadoop/hadoop-2.6.4/logs/yarn-
hadoop-resourcemanager-localhost.out
localhost: starting nodemanager, logging to /home/hadoop/hadoop-
2.6.4/logs/yarn-hadoop-nodemanager-localhost.out
访问Hadoop的默认端口号是50070。使用以下URL在浏览器上获取Hadoop服务。
http:// localhost:50070 /
请按照以下步骤下载并安装Solr。
通过单击以下链接打开Apache Solr的主页-https: //lucene.apache.org/solr/
单击下载按钮(在上面的屏幕快照中突出显示)。单击后,您将被重定向到具有Apache Solr的各种镜像的页面。选择一个镜像并单击它,这会将您重定向到一个页面,您可以在其中下载Apache Solr的源文件和二进制文件,如以下屏幕快照所示。
单击后,将在系统的下载文件夹中下载一个名为Solr-6.2.0.tqz的文件夹。提取下载文件夹的内容。
在Hadoop主目录中创建一个名为Solr的文件夹,并将提取的文件夹的内容移至该文件夹,如下所示。
$ mkdir Solr
$ cd Downloads
$ mv Solr-6.2.0 /home/Hadoop/
浏览Solr Home目录的bin文件夹,并使用version选项验证安装,如以下代码块所示。
$ cd bin/
$ ./Solr version
6.2.0
使用以下命令打开.bashrc文件-
[Hadoop@localhost ~]$ source ~/.bashrc
现在为Apache Solr设置主目录和路径目录,如下所示:
export SOLR_HOME = /home/Hadoop/Solr
export PATH = $PATH:/$SOLR_HOME/bin/
打开终端并执行以下命令-
[Hadoop@localhost Solr]$ source ~/.bashrc
现在,您可以从任何目录执行Solr的命令。