新服务器的基本配置

新服务器的配置问题

这里以ubuntu18.06来演示其配置

设置linux服务器源

设置服务器语言(中文)/时间(UTC+8)

# 语言设置
echo $LANG # 查看语言环境变量
locale # 查看语言环境
sudo apt install language-pack-zh-hans
sudo update-locale LANG=zh_CN.UTF-8
sudo reboot
# 进行如上设置后,如果还是文件名乱码, 极有可能是ftp上传工具上传文件时未采用utf8模式上传

安装管理面板(宝塔/LNMP)

安装配置java环境

# 安装jdk1.8或openjdk8,很多软件都是基于8开发的
sudo apt install openjdk-8-jdk
# 配置java环境变量
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
source /etc/profile

安装配置scala环境

官网:https://www.scala-lang.org/download/

wget https://downloads.lightbend.com/scala/2.13.6/scala-2.13.6.tgz
export SCALA_HOME=/opt/bigdata/scala-2.13.6
export PATH=$SCALA_HOME/bin:$PATH
source /etc/profile

安装并配置redis(tag:key-value存储系统)

redis官网:https://redis.io/

  • 安装最新稳定版即可
  • 安装phpredis管理工具(需php环境)

安装hadoop与spark并配置环境(tag:大数据)

hadoop官网:http://hadoop.apache.org/
spark官网:http://spark.apache.org/

wget https://mirrors.bfsu.edu.cn/apache/hadoop/common/hadoop-3.2.2/hadoop-3.2.2.tar.gz
wget https://mirrors.bfsu.edu.cn/apache/spark/spark-3.1.2/spark-3.1.2-bin-hadoop3.2.tgz
# 配置hadoop环境变量
export HADOOP_HOME=/opt/bigdata/hadoop-3.2.2
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
export PATH=${HADOOP_HOME}/bin:$PATH
source /etc/profile
# 配置spark环境变量
export SPARK_HOME=/opt/bigdata/spark-3.1.2-bin-hadoop3.2
export PATH=${SPARK_HOME}/bin:$PATH
source /etc/profile

安装并配置hive(tag:大数据)

官网:https://hive.apache.org/downloads.html

安装并配置hbase(tag:大数据)

官网:https://hbase.apache.org/

安装并配置kafka(tag:消息队列)

官网:http://kafka.apache.org/

安装并配置Elasticsearch(tag:搜索与分析引擎)

官网:https://www.elastic.co/cn/elasticsearch/

此处评论已关闭