强者的强

上班是个程序员,下班是个读书人

万物之中,希望之美


Life@Shanghai Work@Meituan

Elastic Stack安装教程

环境准备

  • CentOS7.1
  • JDK1.8
  • elasticsearch-5.4.3

JDK安装配置

下载地址:http://download.oracle.com/otn-pub/java/jdk/8u111-b14/jdk-8u111-linux-x64.tar.gz

elasticsearch安装配置

下载解压

使用命令从官网下载最新版本的Elasticsearch压缩包

cd /var/wd
wget -N https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.4.3.tar.gz
tar -zxf elasticsearch-5.4.3.tar.gz
ln -s elasticsearch-5.4.3 elasticsearch
mkdir -p /var/data/elasticsearch
mkdir -p /var/logs/elasticsearch

修改配置文件

vi elasticsearch/config/elasticsearch.yml

cluster.name: elasticstack
node.name: "10.213.162.77"
path.data: /var/data/elasticsearch
path.logs: /var/logs/elasticsearch
network.host: 0.0.0.0
http.port: 11200
discovery.zen.ping.unicast.hosts: ["10.213.162.77", "10.213.162.78", "10.213.162.79"]
discovery.zen.minimum_master_nodes: 3
transport.tcp.port: 11300
http.cors.enabled: true
http.cors.allow-origin: "*"
vi elasticsearch/config/jvm.options

-Xms32g
-Xmx32g

创建elasticsearch用户组以及elasticsearch用户

groupadd elasticsearch
useradd  elasticsearch -g elasticsearch -p elasticsearch

更改相关文件夹以及内部文件的所属用户以及组为elasticsearch

chown -R elasticsearch:elasticsearch /var/wd/elasticsearch-5.4.3
chown -R elasticsearch:elasticsearch /var/data/elasticsearch
chown -R elasticsearch:elasticsearch /var/logs/elasticsearch

修改服务器相关参数

修改vm.map 限制
sysctl -w vm.max_map_count=262144
或
vi /etc/sysctl.conf
vm.max_map_count=262144

修改文件限制
ulimit -n 102400
或
vi /etc/security/limits.conf
elasticsearch hard nofile 102400
elasticsearch soft nofile 102400

切换到elasticsearch用户下启动

su elasticsearch
cd /var/wd/elasticsearch
./bin/elasticsearch

如果想在后台以守护进程模式运行

打开另一个终端进行测试

curl  'http://10.213.162.77:11200'

你能看到以下返回信息:

{
    name: "10.213.162.77",
    cluster_name: "elasticstack",
    cluster_uuid: "aHySi7cBS76DyrIe74eIoA",
    version: {
        number: "5.4.3",
        build_hash: "5395e21",
        build_date: "2016-12-06T12:36:15.409Z",
        build_snapshot: false,
        lucene_version: "6.3.0"
    },
    tagline: "You Know, for Search"
}

ELasticsearch集群已经启动并且正常运行。

head安装配置

安装node

cd /usr/local
wget -N https://nodejs.org/dist/v7.2.0/node-v7.2.0-linux-x64.tar.gz
tar -zxf node-v7.2.0-linux-x64.tar.gz
ln -s node-v7.2.0-linux-x64 node
vi /etc/profile
export PATH=$PATH:/usr/local/node/bin
source /etc/profile

安装grunt

npm install -g grunt-cli

安装head

git clone git://github.com/mobz/elasticsearch-head.git

修改Gruntfile.js
connect: {
    server: {
        options: {
            port: 11100,
            hostname: '*',
            base: '.',
            keepalive: true
        }
    }
}
修改app.js
this.base_uri = this.config.base_uri || this.prefs.get("app-base_uri") || "http://10.213.162.77:11200";
运行head
npm install 
grunt server

Kibana安装配置

使用命令从官网下载最新版本的Elasticsearch压缩包,按照文档的要求,一般情况下kibana的版本必须和Elasticsearch安装的版本一致。

cd /var/wd
wget -N https://artifacts.elastic.co/downloads/kibana/kibana-5.4.3-linux-x86_64.tar.gz
tar -zxf kibana-5.4.3-linux-x86_64.tar.gz
ln -s kibana-5.4.3 kibana
vi kibana/config/kibana.yml

server.port: 11601
server.host: "0.0.0.0"
elasticsearch.url: "http://10.213.162.78:11200"
elasticsearch.username: "elastic"
elasticsearch.password: "elastic"

X-Pack安装配置

X-Pack是一个Elastic Stack的扩展,将安全,警报,监视,报告和图形功能包含在一个易于安装的软件包中。在Elasticsearch 5.0.0之前,您必须安装单独的Shield,Watcher和Marvel插件才能获得在X-Pack中所有的功能。

Elasticsearch下载X-Pack

在es的根目录(每个节点),运行 bin/elasticsearch-plugin 进行安装

bin/elasticsearch-plugin install x-pack

如果你在Elasticsearch已禁用自动索引的创建,在elasticsearch.yml配置action.auto_create_index允许X-pack创造以下指标

action.auto_create_index: .security,.monitoring*,.watches,.triggered_watches,.watcher-history*

Kibana下载X-Pack

在Kibana根目录运行 bin/kibana-plugin 进行安装

bin/kibana-plugin install x-pack

验证X-Pack

在浏览器上输入: http://10.213.162.77:11601 ,可以打开Kibana,此时需要输入用户名和密码登录,默认分别是 elasticchangeme

安装参考

  1. 每个操作系统安装Elasticsearch的文件选择不同,参考:https://www.elastic.co/downloads/elasticsearch,选择对应的文件下载。
  2. 安装Kiabna需要根据操作系统做选择,参考:https://www.elastic.co/guide/en/kibana/current/install.html,选择对应的文件下载。
  3. 安装X-Pack需要根据Elasticsearch安装不同的方式提供不同的安装方法,参考:https://www.elastic.co/guide/en/x-pack/5.4/installing-xpack.html#installing-xpack
  4. 离线安装
./bin/elasticsearch-plugin install file:///var/wd/x-pack-5.4.3.zip
./bin/kibana-plugin install file:///var/wd/x-pack-5.4.3.zip
App URL
x-pack https://artifacts.elastic.co/downloads/packs/x-pack/x-pack-5.4.3.zip

Logstash安装

Logstash 是一款强大的数据处理工具,它可以实现数据传输,格式处理,格式化输出,还有强大的插件功能,常用于日志处理。

logstash版本要求

Kafka Client Version Logstash Version Plugin Version Why
0.8 2.0.0 - 2.x.x <3.0.0 Legacy, 0.8 is still popular
0.9 2.0.0 - 2.3.x 3.x.x Works with the old Ruby Event API (event[‘product’][‘price’] = 10)
0.9 2.4.x - 5.x.x 4.x.x Works with the new getter/setter APIs (event.set(‘[product][price]’, 10))
0.10.0.x 2.4.x - 5.x.x 5.x.x Not compatible with the ⇐ 0.9 broker

logstash下载安装

cd /var/wd/
wget -c https://artifacts.elastic.co/downloads/logstash/logstash-5.4.3.tar.gz
tar -xzvf logstash-5.4.3.tar.gz
ln -s logstash-5.4.3 logstash
cd logstash

日志采集filebeat配置

mkdir plugin-config
vi plugin-config/filebeat.conf

input {
    beats {
        port => "11044"
    }
}

filter {
   grok {
        match => ["message", "%{TIMESTAMP_ISO8601:timestamp} \[%{SYSLOGPROG:thread}\] %{LOGLEVEL:level}"]
        remove_field => [ "beat","tags","type","program"]
        add_field => {"app" => "%{[fields][app]}" }
      }
   ruby {
        code => "event.set('esUpdateTime', event.get('@timestamp').time.localtime + 8*60*60)
        event.set('type', event.get('app'))"
      }
  }
  
output {
  kafka {
   # codec => plain {
   #    format => "%{message}"
   # }
    codec => json
    topic_id => "feeds-log"
    bootstrap_servers => "10.213.131.140:12015,10.213.45.168:12015,10.213.59.97:12015,10.213.59.99:12015"
    compression_type => "snappy"
  }
}

日志转发kafka配置

mkdir plugin-config
vi plugin-config/kafka.conf

input{
    kafka{
        codec => "json"
        group_id => "feeds-log-logstash"
        topics => ["feeds-log"]
        bootstrap_servers => "10.213.131.140:12015,10.213.45.168:12015,10.213.59.97:12015,10.213.59.99:12015"
    }
}

filter {
   grok {
        match => ["message", "%{TIMESTAMP_ISO8601:timestamp} \[%{SYSLOGPROG:thread}\] %{LOGLEVEL:level}"]
        overwrite => ["timestamp","thread","level"]
        remove_field => [ "beat","tags","program","fields"]
    }
output{
    elasticsearch{
        hosts=>["10.213.131.131:11200","10.213.131.132:11200","10.213.131.132:11200"]
        index => "feeds-log-%{+YYYYMM}"
        document_type => "%{type}"
        #flush_size=>20000
        #idle_flush_time=>10
        #template_overwrite=>true
    }
}

启动logstash

控台启动,观察错误日志,没问题在后台启动

bin/logstash -f plugin-config/filebeat.conf --config.reload.automatic

Filebeat安装

Beats 平台是 Elastic.co 从 packetbeat 发展出来的数据收集器系统。beat 收集器可以直接写入 Elasticsearch,也可以传输给 Logstash。其中抽象出来的 libbeat,提供了统一的数据发送方法,输入配置解析,日志记录框架等功能。也就是说,所有的 beat 工具,在配置上,除了 input 以外,在output、filter、shipper、logging、run-options 上的配置规则都是完全一致的 ,filebeat是beat中的一员。

filebeat下载

cd /var/wd/
wget -c https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-5.4.3-linux-x86_64.tar.gz
tar -xzvf filebeat-5.4.3-linux-x86_64.tar.gz
cd filebeat-5.4.3-linux-x86_64

这里安装的是bit版,也可以选择rpm版本安装

wget -c https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-5.4.3-x86_64.rpm

filebeat配置

vi filebeat.yml

添加数据源

- input_type: log

  # Paths that should be crawled and fetched. Glob based paths.
  paths:
    - /var/wd/feeds_api/logs/feeds_api_info.log

添加字段标示产生日志应用

  fields:
     app: feeds-api

指定输出

output.logstash:
  # The Logstash hosts
  hosts: ["10.213.131.132:11044","10.213.131.131:11044"]
  worker: 2
  loadbalance: true
  index: feeds-log

启动关闭脚本

vi startup.sh

#!/bin/bash
nohup ./filebeat -e -c filebeat.yml -d publish  &
vi shutdown.sh

#!/bin/bash
runningPID=`pgrep -f "./filebeat -e -c filebeat.yml -d publish"`
if [ "$runningPID" ]; then
      echo "filebeat pid: $runningPID"
      kill -15 $runningPID
fi
sleep 2
最近的文章

Elasticsearch架构原理

架构原理本书作为 Elastic Stack 指南,关注于 Elasticsearch 在日志和数据分析场景的应用,并不打算对底层的 Lucene 原理或者 Java 编程做详细的介绍,但是 Elasticsearch 层面上的一些架构设计,对我们做性能调优,故障处理,具有非常重要的影响。所以,作为 ES 部分的起始章节,先从数据流向和分布的层面,介绍一下 ES 的工作原理,以及相关的可控项。各位读者可以跳过这节先行阅读后面的运维操作部分,但作为性能调优的基础知识,依然建议大家抽时间返回来...…

能工巧匠继续阅读
更早的文章

Lucene学习笔记

概要: 全文检索的原理和基本概念(铺垫) Lucene简介,索引文档和检索文档的过程(主要) Lucene 相似度评分算法(拓展) 全文检索原理(铺垫)数据分类生活中的数据总体分为三种: 结构化数据,固定格式和长度,如数据库数据,元数据等 非结构化数据,无固定格式和长度,如邮件,word文档,商品描述信息,非结构化数据也称为为全文数据 半结构化数据,如XML,HTML等,当然根据需要按结构化数据来处理,也可抽取出纯文本按非结构化数据来处理搜索分类按照数据的...…

能工巧匠继续阅读