diff --git a/.editorconfig b/.editorconfig
new file mode 100644
index 00000000..bc36a8e5
--- /dev/null
+++ b/.editorconfig
@@ -0,0 +1,25 @@
+# http://editorconfig.org
+# 官网首页有介绍:IntelliJ IDEA,VS Code 默认就支持,无需额外安装插件
+root = true
+
+# 空格替代Tab缩进在各种编辑工具下效果一致
+[*]
+indent_style = space
+indent_size = 4
+charset = utf-8
+end_of_line = lf
+trim_trailing_whitespace = true
+insert_final_newline = true
+max_line_length = 200
+
+
+
+[*.java]
+indent_style = tab
+
+[*.{json,yml}]
+indent_size = 2
+
+[*.md]
+insert_final_newline = false
+trim_trailing_whitespace = false
diff --git a/README.md b/README.md
index 477aa85c..80bf6ad0 100644
--- a/README.md
+++ b/README.md
@@ -1,10 +1,8 @@
-## 团队 DevOps 方案参考
-
-
-
-
+## 作者新方向,感谢支持
+- [从开公司到开发全平台产品(文字版)](https://github.com/cdk8s/cdk8s-team-style/blob/master/full-stack/README.md)
+- [从开公司到开发全平台产品(视频版)](https://space.bilibili.com/1765486559/channel/seriesdetail?sid=2359281)
## 初衷(Original Intention)
@@ -42,108 +40,3 @@
- [Linux 下常用压缩文件的解压、压缩](markdown-file/File-Extract-Compress.md)
- [Yum 下载安装包及对应依赖包](markdown-file/Off-line-Yum-Install.md)
- [Zsh 入门](markdown-file/Zsh.md)
-- [终端测速](markdown-file/speedtest.md)
-- [日常维护](markdown-file/maintenance.md)
-- [日常监控](markdown-file/monitor.md)
-- [nmon 系统性能监控工具](markdown-file/Nmon.md)
-- [Glances 安装和配置](markdown-file/Glances-Install-And-Settings.md)
-- [SSH(Secure Shell)介绍](markdown-file/SSH.md)
-- [FTP(File Transfer Protocol)介绍](markdown-file/FTP.md)
-- [VPN(Virtual Private Network)介绍](markdown-file/VPN.md)
-- [NFS(Network FileSystem)介绍](markdown-file/NFS.md)
-- [NTP(Network Time Protocol)介绍](markdown-file/NTP.md)
-- [Samba 介绍](markdown-file/Samba.md)
-- [Crontab 介绍](markdown-file/Crontab.md)
-- [Iptables 介绍](markdown-file/Iptables.md)
-- [花生壳-安装介绍](markdown-file/Hsk-Install.md)
-- [JDK 安装](markdown-file/JDK-Install.md)
-- [Java bin 目录下的工具](markdown-file/Java-bin.md)
-- [SVN 安装和配置](markdown-file/SVN-Install-And-Settings.md)
-- [Tomcat 安装和配置、优化](markdown-file/Tomcat-Install-And-Settings.md)
-- [Jenkins 安装和配置](markdown-file/Jenkins-Install-And-Settings.md)
-- [Maven 安装和配置](markdown-file/Maven-Install-And-Settings.md)
-- [Nexus 安装和配置](markdown-file/Nexus-Install-And-Settings.md)
-- [MySQL 安装和配置](markdown-file/Mysql-Install-And-Settings.md)
-- [MySQL 优化](markdown-file/Mysql-Optimize.md)
-- [MySQL 测试](markdown-file/Mysql-Test.md)
-- [MySQL 教程](markdown-file/Mysql-Tutorial.md)
-- [Percona XtraDB Cluster(PXC)安装和配置](markdown-file/PXC-Install-And-Settings.md)
-- [Redis 安装和配置](markdown-file/Redis-Install-And-Settings.md)
-- [MongoDB 安装和配置](markdown-file/MongoDB-Install-And-Settings.md)
-- [Solr 安装和配置](markdown-file/Solr-Install-And-Settings.md)
-- [Jira 安装和配置](markdown-file/Jira-Install-And-Settings.md)
-- [TeamCity 安装和配置](markdown-file/TeamCity-Install-And-Settings.md)
-- [Nginx 安装和配置](markdown-file/Nginx-Install-And-Settings.md)
-- [wrk 安装和配置](markdown-file/wrk-Install-And-Settings.md)
-- [FastDFS 安装和配置](markdown-file/FastDFS-Install-And-Settings.md)
-- [FastDFS 结合 GraphicsMagick](markdown-file/FastDFS-Nginx-Lua-GraphicsMagick.md)
-- [RabbitMQ 安装和配置](markdown-file/RabbitMQ-Install-And-Settings.md)
-- [Openfire 安装和配置](markdown-file/Openfire-Install-And-Settings.md)
-- [Rap 安装和配置](markdown-file/Rap-Install-And-Settings.md)
-- [Nginx + Keepalived 高可用](markdown-file/Nginx-Keepalived-Install-And-Settings.md)
-- [黑客入侵检查](markdown-file/Was-Hacked.md)
-- [Shadowsocks 安装和配置](markdown-file/http://code.youmeek.com/2016/08/19/2016/08/VPS/)
-- [Mycat 安装和配置](markdown-file/Mycat-Install-And-Settings.md)
-- [Zookeeper 安装和配置](markdown-file/Zookeeper-Install.md)
-- [Daemontools 工具介绍](markdown-file/Daemontools.md)
-- [Tmux 安装和配置](markdown-file/Tmux-Install-And-Settings.md)
-- [ELK 日志收集系统安装和配置](markdown-file/ELK-Install-And-Settings.md)
-- [Dubbo 安装和配置](markdown-file/Dubbo-Install-And-Settings.md)
-- [GitLab 安装和配置](markdown-file/Gitlab-Install-And-Settings.md)
-- [JMeter 安装和配置](markdown-file/JMeter-Install-And-Settings.md)
-- [Docker 安装和使用](markdown-file/Docker-Install-And-Usage.md)
-- [Harbor 安装和配置](markdown-file/Harbor-Install-And-Usage.md)
-- [LDAP 安装和使用](markdown-file/LDAP-Install-And-Settings.md)
-- [Alfresco 安装和使用](markdown-file/Alfresco-Install-And-Usage.md)
-- [Apache Thrift 安装和使用](markdown-file/Thrift-Install-And-Usage.md)
-- [Node.js 安装和使用](markdown-file/Node-Install-And-Usage.md)
-- [CI 整套服务安装和使用](markdown-file/CI-Install-And-Usage.md)
-- [YApi 安装和配置](markdown-file/YApi-Install-And-Settings.md)
-- [Kafka 安装和配置](markdown-file/Kafka-Install-And-Settings.md)
-- [Hadoop 安装和配置](markdown-file/Hadoop-Install-And-Settings.md)
-- [Showdoc 安装和配置](markdown-file/Showdoc-Install-And-Settings.md)
-- [WordPress 安装和配置](markdown-file/WordPress-Install-And-Settings.md)
-- [GoAccess 安装和配置](markdown-file/GoAccess-Install-And-Settings.md)
-- [Portainer 安装和配置](markdown-file/Portainer-Install-And-Settings.md)
-- [Grafana 安装和配置](markdown-file/Grafana-Install-And-Settings.md)
-- [Ansible 安装和配置](markdown-file/Ansible-Install-And-Settings.md)
-- [Wormhole + Flink 最佳实践](markdown-file/Wormhole-Install-And-Settings.md)
-
-## 联系(Contact)
-
-- Email:judas.n@qq.com(常用) or admin@youmeek.com(备用)
-- Blog:
-- QQ 群交流,入群请看:
-- 欢迎捐赠 ^_^:
-
-
-## Github 协同视频教程(Participate)
-
-- 如果您不会使用 Git 或是 Github 也没关系,请认真学习下面视频教程:
-- Judas.n 录制
- - 视频格式:MP4
- - 分辨率:1920 X 1080
- - 片长:16 min
- - 文件大小:62 M
-- 下载
- - 百度云盘:
- - 360 网盘(2fb5):
-
-## Github 常用按钮说明
-
-- Watch:关注该项目,作者有更新的时候,会在你的 Github 主页有通知消息。
-- Star:收藏该项目,在你的头像上有一个“Your stars”链接,可以看到你的收藏列表。
-- Fork:复制一份项目到的Github空间上,你可以自己开发自己的这个地址项目,然后 Pull Request 给项目原主人。
-
-## 参与作者汇总(Author)
-
-|作者(按参与时间排序)|地址|
-|:---------|:---------|
-|Judas.n||
-|mrdear||
-|fooofei||
-
-## AD
-
-- [推荐:程序员的个性化网址导航:GitNavi.com](http://www.gitnavi.com/u/judasn/)
-- [适合后端开发者的前端 React-Admin](https://github.com/satan31415/umi-admin)
diff --git a/SUMMARY.md b/SUMMARY.md
index 91dfcd0a..d034445b 100644
--- a/SUMMARY.md
+++ b/SUMMARY.md
@@ -42,6 +42,7 @@
* [Jenkins 安装和配置](markdown-file/Jenkins-Install-And-Settings.md)
* [Maven 安装和配置](markdown-file/Maven-Install-And-Settings.md)
* [Nexus 安装和配置](markdown-file/Nexus-Install-And-Settings.md)
+* [PostgreSQL 安装和配置](markdown-file/PostgreSQL-Install-And-Settings.md)
* [MySQL 安装和配置](markdown-file/Mysql-Install-And-Settings.md)
* [MySQL 优化](markdown-file/Mysql-Optimize.md)
* [MySQL 测试](markdown-file/Mysql-Test.md)
@@ -51,6 +52,7 @@
* [MongoDB 安装和配置](markdown-file/MongoDB-Install-And-Settings.md)
* [Solr 安装和配置](markdown-file/Solr-Install-And-Settings.md)
* [Jira 安装和配置](markdown-file/Jira-Install-And-Settings.md)
+* [Confluence 安装和配置](markdown-file/Confluence-Install-And-Settings.md)
* [Jenkins 安装和配置](markdown-file/Jenkins-Install-And-Settings.md)
* [TeamCity 安装和配置](markdown-file/TeamCity-Install-And-Settings.md)
* [Nginx 安装和配置](markdown-file/Nginx-Install-And-Settings.md)
@@ -85,5 +87,9 @@
* [WordPress 安装和配置](markdown-file/WordPress-Install-And-Settings.md)
* [GoAccess 安装和配置](markdown-file/GoAccess-Install-And-Settings.md)
* [Portainer 安装和配置](markdown-file/Portainer-Install-And-Settings.md)
+* [Influxdb 安装和配置](markdown-file/Influxdb-Install-And-Settings.md)
+* [Prometheus 安装和配置](markdown-file/Prometheus-Install-And-Settings.md)
* [Grafana 安装和配置](markdown-file/Grafana-Install-And-Settings.md)
-* [Ansible 安装和配置](markdown-file/Ansible-Install-And-Settings.md)
\ No newline at end of file
+* [Ansible 安装和配置](markdown-file/Ansible-Install-And-Settings.md)
+* [Wormhole + Flink 安装和配置](markdown-file/Wormhole-Install-And-Settings.md)
+* [SkyWalking 安装和配置](markdown-file/SkyWalking-Install-And-Settings.md)
\ No newline at end of file
diff --git a/TOC.md b/TOC.md
index 1b0ff377..434c20f7 100644
--- a/TOC.md
+++ b/TOC.md
@@ -40,6 +40,7 @@
- [Jenkins 安装和配置](markdown-file/Jenkins-Install-And-Settings.md)
- [Maven 安装和配置](markdown-file/Maven-Install-And-Settings.md)
- [Nexus 安装和配置](markdown-file/Nexus-Install-And-Settings.md)
+- [PostgreSQL 安装和配置](markdown-file/PostgreSQL-Install-And-Settings.md)
- [MySQL 安装和配置](markdown-file/Mysql-Install-And-Settings.md)
- [MySQL 优化](markdown-file/Mysql-Optimize.md)
- [MySQL 测试](markdown-file/Mysql-Test.md)
@@ -49,6 +50,7 @@
- [MongoDB 安装和配置](markdown-file/MongoDB-Install-And-Settings.md)
- [Solr 安装和配置](markdown-file/Solr-Install-And-Settings.md)
- [Jira 安装和配置](markdown-file/Jira-Install-And-Settings.md)
+- [Confluence 安装和配置](markdown-file/Confluence-Install-And-Settings.md)
- [Jenkins 安装和配置](markdown-file/Jenkins-Install-And-Settings.md)
- [TeamCity 安装和配置](markdown-file/TeamCity-Install-And-Settings.md)
- [Nginx 安装和配置](markdown-file/Nginx-Install-And-Settings.md)
@@ -82,5 +84,9 @@
- [WordPress 安装和配置](markdown-file/WordPress-Install-And-Settings.md)
- [GoAccess 安装和配置](markdown-file/GoAccess-Install-And-Settings.md)
- [Portainer 安装和配置](markdown-file/Portainer-Install-And-Settings.md)
+- [Influxdb 安装和配置](markdown-file/Influxdb-Install-And-Settings.md)
+- [Prometheus 安装和配置](markdown-file/Prometheus-Install-And-Settings.md)
- [Grafana 安装和配置](markdown-file/Grafana-Install-And-Settings.md)
-- [Ansible 安装和配置](markdown-file/Ansible-Install-And-Settings.md)
\ No newline at end of file
+- [Ansible 安装和配置](markdown-file/Ansible-Install-And-Settings.md)
+- [Wormhole + Flink 安装和配置](markdown-file/Wormhole-Install-And-Settings.md)
+- [SkyWalking 安装和配置](markdown-file/SkyWalking-Install-And-Settings.md)
\ No newline at end of file
diff --git a/centos-settings/CentOS-Extra-Packages.md b/centos-settings/CentOS-Extra-Packages.md
index def938fe..c00901e3 100644
--- a/centos-settings/CentOS-Extra-Packages.md
+++ b/centos-settings/CentOS-Extra-Packages.md
@@ -83,6 +83,22 @@
- `sudo yum install -y htop`(htop 官方源是没有的,所以如果能下载下来就表示已经使用了第三方源)
+### 禁用源
+
+- 编辑:`vim /etc/yum.repos.d/elasticsearch.repo`
+- 把 enabled=1 改为 enabled=0
+
+```
+[elasticsearch-6.x]
+name=Elasticsearch repository for 6.x packages
+baseurl=https://artifacts.elastic.co/packages/6.x/yum
+gpgcheck=1
+gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
+enabled=1
+autorefresh=1
+type=rpm-md
+```
+
> 资料:
-
diff --git a/centos-settings/Close-XWindow.md b/centos-settings/Close-XWindow.md
index 0a34275f..5b89f556 100644
--- a/centos-settings/Close-XWindow.md
+++ b/centos-settings/Close-XWindow.md
@@ -15,7 +15,14 @@
- 在图形界面中如果你希望临时关闭图形界面可以输入:`init 3`
-## CentOS 7 设置方法
+## CentOS 7 设置方法 1
+
+- 开机以命令模式启动,执行:
+ - systemctl set-default multi-user.target
+- 开机以图形界面启动,执行:
+ - systemctl set-default graphical.target
+
+## CentOS 7 设置方法 2
- 关闭图形
- `mv /etc/systemd/system/default.target /etc/systemd/system/default.target.bak` (改名备份)
diff --git a/favorite-file/Nginx-Settings/nginx-front.conf b/favorite-file/Nginx-Settings/nginx-front.conf
index 82894983..8b49d8f9 100644
--- a/favorite-file/Nginx-Settings/nginx-front.conf
+++ b/favorite-file/Nginx-Settings/nginx-front.conf
@@ -22,28 +22,35 @@ http {
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for" "$request_time"';
-
+
access_log /var/log/nginx/access.log main;
error_log /var/log/nginx/error.log;
-
+
gzip on;
gzip_buffers 8 16k;
gzip_min_length 512;
gzip_disable "MSIE [1-6]\.(?!.*SV1)";
gzip_http_version 1.1;
gzip_types text/plain text/css application/javascript application/x-javascript application/json application/xml;
-
+
server {
-
+
listen 8001;
server_name localhost 127.0.0.1 139.159.190.24 platform.gitnavi.com;
-
+
location / {
root /root/.jenkins/workspace/nestle-platform-front-test/dist;
index index.html index.htm;
try_files $uri /index.html;
}
-
+
+ ## 二级目录方式,记得 package.json 添加:"homepage": "cdk8s-markdown",
+ location ^~ /cdk8s-markdown {
+ root /root/.jenkins/workspace;
+ index index.html;
+ try_files $uri /cdk8s-markdown/index.html;
+ }
+
location ^~ /platform/ {
proxy_pass http://127.0.0.1:28081;
proxy_redirect off;
@@ -51,36 +58,36 @@ http {
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
-
+
location ~ .*\.(js|css)?$ {
root /root/.jenkins/workspace/nestle-platform-front-test/dist;
}
-
+
location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|ico|woff|woff2|ttf|eot|txt|svg)$ {
root /root/.jenkins/workspace/nestle-platform-front-test/dist;
}
-
+
error_page 404 /404.html;
location = /usr/share/nginx/html/40x.html {
}
-
+
error_page 500 502 503 504 /50x.html;
location = /usr/share/nginx/html/50x.html {
}
}
-
+
server {
-
+
listen 8002;
server_name localhost 127.0.0.1 139.159.190.24 store.gitnavi.com;
-
+
location / {
root /root/.jenkins/workspace/nestle-store-front-test/dist;
index index.html index.htm;
try_files $uri /index.html;
}
-
+
location ^~ /store/ {
proxy_pass http://127.0.0.1:28082;
proxy_redirect off;
@@ -88,22 +95,22 @@ http {
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
-
+
location ~ .*\.(js|css)?$ {
root /root/.jenkins/workspace/nestle-store-front-test/dist;
}
-
+
location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|ico|woff|woff2|ttf|eot|txt|svg)$ {
root /root/.jenkins/workspace/nestle-store-front-test/dist;
}
-
+
error_page 404 /404.html;
location = /usr/share/nginx/html/40x.html {
}
-
+
error_page 500 502 503 504 /50x.html;
location = /usr/share/nginx/html/50x.html {
}
}
-}
\ No newline at end of file
+}
diff --git a/favorite-file/gravitee-docker-compose/README.md b/favorite-file/gravitee-docker-compose/README.md
new file mode 100644
index 00000000..e4983ec9
--- /dev/null
+++ b/favorite-file/gravitee-docker-compose/README.md
@@ -0,0 +1,32 @@
+# graviteeio api gateway docker-compose running
+
+fork from graviteeio project && change some deps image
+
+-
+-
+
+## how to run
+
+```code
+cd platform && docker-compose up -d
+```
+
+## manager ui
+
+* api portal
+
+```code
+open https://localhost/apim/portal
+```
+
+* access manager ui
+
+```code
+open https://localhost/am/ui/
+```
+
+## Note:
+
+- environments directory has some demos with ci && traefik gateway
+- portal account admin amdin
+- access manager ui account admin adminadmin
\ No newline at end of file
diff --git a/favorite-file/gravitee-docker-compose/environments/ci/docker-compose.yml b/favorite-file/gravitee-docker-compose/environments/ci/docker-compose.yml
new file mode 100644
index 00000000..37c9c07c
--- /dev/null
+++ b/favorite-file/gravitee-docker-compose/environments/ci/docker-compose.yml
@@ -0,0 +1,62 @@
+#-------------------------------------------------------------------------------
+# Copyright (C) 2015 The Gravitee team (http://gravitee.io)
+# Licensed under the Apache License, Version 2.0 (the "License");
+# you may not use this file except in compliance with the License.
+# You may obtain a copy of the License at
+# http://www.apache.org/licenses/LICENSE-2.0
+# Unless required by applicable law or agreed to in writing, software
+# distributed under the License is distributed on an "AS IS" BASIS,
+# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
+# See the License for the specific language governing permissions and
+# limitations under the License.
+#-------------------------------------------------------------------------------
+version: '2'
+
+services:
+ ci:
+ image: graviteeio/jenkins:latest
+ container_name: ci
+ network_mode: "bridge"
+ expose:
+ - 50022
+ ports:
+ - "50022:50022"
+ labels:
+ - "traefik.frontend.rule=Host:ci.gravitee.io"
+ - "traefik.port=8080"
+ volumes:
+ - /var/jenkins_home:/var/jenkins_home
+ - /var/run/docker.sock:/var/run/docker.sock
+ links:
+ - redis-test
+ - qa
+
+ redis-test:
+ image: redis:3
+ container_name: redis-test
+ network_mode: "bridge"
+
+ qa:
+ image: sonarqube:alpine
+ container_name: qa
+ network_mode: "bridge"
+ environment:
+ - SONARQUBE_JDBC_URL=jdbc:postgresql://sonarqube-db:5432/sonar
+ labels:
+ - "traefik.frontend.rule=Host:qa.gravitee.io"
+ volumes:
+ - /opt/sonarqube/conf:/opt/sonarqube/conf
+ - /opt/sonarqube/data:/opt/sonarqube/data
+ - /opt/sonarqube/extensions:/opt/sonarqube/extensions
+ - /opt/sonarqube/bundled-plugins:/opt/sonarqube/lib/bundled-plugins
+ links:
+ - sonarqube-db
+
+ sonarqube-db:
+ image: postgres:alpine
+ network_mode: "bridge"
+ environment:
+ - POSTGRES_USER=sonar
+ - POSTGRES_PASSWORD=sonar
+ volumes:
+ - /opt/sonarqube/postgresql/data:/var/lib/postgresql/data
diff --git a/favorite-file/gravitee-docker-compose/environments/demo/common.yml b/favorite-file/gravitee-docker-compose/environments/demo/common.yml
new file mode 100644
index 00000000..a1d7c696
--- /dev/null
+++ b/favorite-file/gravitee-docker-compose/environments/demo/common.yml
@@ -0,0 +1,62 @@
+#-------------------------------------------------------------------------------
+# Copyright (C) 2015 The Gravitee team (http://gravitee.io)
+# Licensed under the Apache License, Version 2.0 (the "License");
+# you may not use this file except in compliance with the License.
+# You may obtain a copy of the License at
+# http://www.apache.org/licenses/LICENSE-2.0
+# Unless required by applicable law or agreed to in writing, software
+# distributed under the License is distributed on an "AS IS" BASIS,
+# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
+# See the License for the specific language governing permissions and
+# limitations under the License.
+#-------------------------------------------------------------------------------
+version: '2'
+
+volumes:
+ datamongo: {}
+ dataelasticsearch: {}
+
+services:
+ elasticsearch:
+ hostname: demo-elasticsearch
+ image: docker.elastic.co/elasticsearch/elasticsearch:5.4.3
+ volumes:
+ - dataelasticsearch:/usr/share/elasticsearch/data
+ environment:
+ - http.host=0.0.0.0
+ - transport.host=0.0.0.0
+ - xpack.security.enabled=false
+ - xpack.monitoring.enabled=false
+ - cluster.name=elasticsearch
+ - bootstrap.memory_lock=true
+ - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
+ ulimits:
+ memlock:
+ soft: -1
+ hard: -1
+ nofile: 65536
+
+ mongodb:
+ hostname: demo-mongodb
+ image: mongo:3.4
+ volumes:
+ - datamongo:/data/db
+
+ gateway:
+ hostname: demo-gateway
+ image: graviteeio/gateway:latest
+ environment:
+ - gravitee_management_mongodb_uri=mongodb://mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_ratelimit_mongodb_uri=mongodb://mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_reporters_elasticsearch_endpoints_0=http://elasticsearch:9200
+
+ managementui:
+ hostname: demo-managementui
+ image: graviteeio/management-ui:latest
+
+ managementapi:
+ hostname: demo-managementapi
+ image: graviteeio/management-api:latest
+ environment:
+ - gravitee_management_mongodb_uri=mongodb://mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_analytics_elasticsearch_endpoints_0=http://elasticsearch:9200
diff --git a/favorite-file/gravitee-docker-compose/environments/demo/docker-compose-local.yml b/favorite-file/gravitee-docker-compose/environments/demo/docker-compose-local.yml
new file mode 100644
index 00000000..38c34e4c
--- /dev/null
+++ b/favorite-file/gravitee-docker-compose/environments/demo/docker-compose-local.yml
@@ -0,0 +1,76 @@
+#-------------------------------------------------------------------------------
+# Copyright (C) 2015 The Gravitee team (http://gravitee.io)
+# Licensed under the Apache License, Version 2.0 (the "License");
+# you may not use this file except in compliance with the License.
+# You may obtain a copy of the License at
+# http://www.apache.org/licenses/LICENSE-2.0
+# Unless required by applicable law or agreed to in writing, software
+# distributed under the License is distributed on an "AS IS" BASIS,
+# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
+# See the License for the specific language governing permissions and
+# limitations under the License.
+#-------------------------------------------------------------------------------
+version: '2'
+
+volumes:
+ local_datamongo: {}
+ local_dataelasticsearch: {}
+
+services:
+ local_elasticsearch:
+ extends:
+ file: common.yml
+ service: elasticsearch
+ volumes:
+ - local_dataelasticsearch:/usr/share/elasticsearch/data
+ - ./logs/elasticsearch:/var/log/elasticsearch
+
+ local_mongodb:
+ extends:
+ file: common.yml
+ service: mongodb
+ volumes:
+ - local_datamongo:/data/db
+ - ./logs/mongodb:/var/log/mongodb
+
+ local_gateway:
+ extends:
+ file: common.yml
+ service: gateway
+ links:
+ - "local_mongodb:demo-mongodb"
+ - "local_elasticsearch:demo-elasticsearch"
+ ports:
+ - "8000:8082"
+ volumes:
+ - ./logs/gateway:/etc/gravitee.io/log
+ environment:
+ - gravitee_management_mongodb_uri=mongodb://demo-mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_ratelimit_mongodb_uri=mongodb://demo-mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_reporters_elasticsearch_endpoints_0=http://demo-elasticsearch:9200
+
+ local_managementui:
+ extends:
+ file: common.yml
+ service: managementui
+ ports:
+ - "8002:80"
+ volumes:
+ - ./logs/management-ui:/var/log/httpd
+ environment:
+ - MGMT_API_URL=http:\/\/localhost:8005\/management\/
+
+ local_managementapi:
+ extends:
+ file: common.yml
+ service: managementapi
+ ports:
+ - "8005:8083"
+ volumes:
+ - ./logs/management-api:/home/gravitee/logs
+ links:
+ - "local_mongodb:demo-mongodb"
+ - "local_elasticsearch:demo-elasticsearch"
+ environment:
+ - gravitee_management_mongodb_uri=mongodb://demo-mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_analytics_elasticsearch_endpoints_0=http://demo-elasticsearch:9200
diff --git a/favorite-file/gravitee-docker-compose/environments/demo/docker-compose-traefik-latest.yml b/favorite-file/gravitee-docker-compose/environments/demo/docker-compose-traefik-latest.yml
new file mode 100644
index 00000000..e3ea6bce
--- /dev/null
+++ b/favorite-file/gravitee-docker-compose/environments/demo/docker-compose-traefik-latest.yml
@@ -0,0 +1,76 @@
+#-------------------------------------------------------------------------------
+# Copyright (C) 2015 The Gravitee team (http://gravitee.io)
+# Licensed under the Apache License, Version 2.0 (the "License");
+# you may not use this file except in compliance with the License.
+# You may obtain a copy of the License at
+# http://www.apache.org/licenses/LICENSE-2.0
+# Unless required by applicable law or agreed to in writing, software
+# distributed under the License is distributed on an "AS IS" BASIS,
+# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
+# See the License for the specific language governing permissions and
+# limitations under the License.
+#-------------------------------------------------------------------------------
+version: '2'
+
+volumes:
+ latest_datamongo: {}
+ latest_dataelasticsearch: {}
+
+services:
+ latest_elasticsearch:
+ network_mode: "bridge"
+ extends:
+ file: common.yml
+ service: elasticsearch
+ volumes:
+ - latest_dataelasticsearch:/usr/share/elasticsearch/data
+
+ latest_mongodb:
+ network_mode: "bridge"
+ extends:
+ file: common.yml
+ service: mongodb
+ volumes:
+ - latest_datamongo:/data/db
+
+ latest_gateway:
+ network_mode: "bridge"
+ extends:
+ file: common.yml
+ service: gateway
+ links:
+ - latest_mongodb
+ - latest_elasticsearch
+ labels:
+ - "traefik.backend=graviteeio-gateway"
+ - "traefik.frontend.rule=Host:demo.gravitee.io;PathPrefixStrip:/gateway"
+ environment:
+ - gravitee_management_mongodb_uri=mongodb://demo-mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_ratelimit_mongodb_uri=mongodb://demo-mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_reporters_elasticsearch_endpoints_0=http://demo-elasticsearch:9200
+
+ latest_managementui:
+ network_mode: "bridge"
+ extends:
+ file: common.yml
+ service: managementui
+ labels:
+ - "traefik.backend=graviteeio-managementui"
+ - "traefik.frontend.rule=Host:demo.gravitee.io"
+ environment:
+ - MGMT_API_URL=https:\/\/demo.gravitee.io\/management\/
+
+ latest_managementapi:
+ network_mode: "bridge"
+ extends:
+ file: common.yml
+ service: managementapi
+ labels:
+ - "traefik.backend=graviteeio-managementapi"
+ - "traefik.frontend.rule=Host:demo.gravitee.io;PathPrefix:/management"
+ links:
+ - latest_mongodb
+ - latest_elasticsearch
+ environment:
+ - gravitee_management_mongodb_uri=mongodb://demo-mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_analytics_elasticsearch_endpoints_0=http://demo-elasticsearch:9200
\ No newline at end of file
diff --git a/favorite-file/gravitee-docker-compose/environments/demo/docker-compose-traefik-nightly.yml b/favorite-file/gravitee-docker-compose/environments/demo/docker-compose-traefik-nightly.yml
new file mode 100644
index 00000000..2369851c
--- /dev/null
+++ b/favorite-file/gravitee-docker-compose/environments/demo/docker-compose-traefik-nightly.yml
@@ -0,0 +1,79 @@
+#-------------------------------------------------------------------------------
+# Copyright (C) 2015 The Gravitee team (http://gravitee.io)
+# Licensed under the Apache License, Version 2.0 (the "License");
+# you may not use this file except in compliance with the License.
+# You may obtain a copy of the License at
+# http://www.apache.org/licenses/LICENSE-2.0
+# Unless required by applicable law or agreed to in writing, software
+# distributed under the License is distributed on an "AS IS" BASIS,
+# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
+# See the License for the specific language governing permissions and
+# limitations under the License.
+#-------------------------------------------------------------------------------
+version: '2'
+
+volumes:
+ nightly_datamongo: {}
+ nightly_dataelasticsearch: {}
+
+services:
+ nightly_elasticsearch:
+ network_mode: "bridge"
+ extends:
+ file: common.yml
+ service: elasticsearch
+ volumes:
+ - nightly_dataelasticsearch:/usr/share/elasticsearch/data
+
+ nightly_mongodb:
+ network_mode: "bridge"
+ extends:
+ file: common.yml
+ service: mongodb
+ volumes:
+ - nightly_datamongo:/data/db
+
+ nightly_gateway:
+ image: graviteeio/gateway:nightly
+ network_mode: "bridge"
+ extends:
+ file: common.yml
+ service: gateway
+ links:
+ - nightly_mongodb
+ - nightly_elasticsearch
+ labels:
+ - "traefik.backend=nightly-graviteeio-gateway"
+ - "traefik.frontend.rule=Host:nightly.gravitee.io;PathPrefixStrip:/gateway"
+ environment:
+ - gravitee_management_mongodb_uri=mongodb://demo-mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_ratelimit_mongodb_uri=mongodb://demo-mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_reporters_elasticsearch_endpoints_0=http://demo-elasticsearch:9200
+
+ nightly_managementui:
+ image: graviteeio/management-ui:nightly
+ network_mode: "bridge"
+ extends:
+ file: common.yml
+ service: managementui
+ labels:
+ - "traefik.backend=nightly-graviteeio-managementui"
+ - "traefik.frontend.rule=Host:nightly.gravitee.io"
+ environment:
+ - MGMT_API_URL=https:\/\/nightly.gravitee.io\/management\/
+
+ nightly_managementapi:
+ image: graviteeio/management-api:nightly
+ network_mode: "bridge"
+ extends:
+ file: common.yml
+ service: managementapi
+ labels:
+ - "traefik.backend=nightly-graviteeio-managementapi"
+ - "traefik.frontend.rule=Host:nightly.gravitee.io;PathPrefix:/management"
+ links:
+ - nightly_mongodb
+ - nightly_elasticsearch
+ environment:
+ - gravitee_management_mongodb_uri=mongodb://demo-mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_analytics_elasticsearch_endpoints_0=http://demo-elasticsearch:9200
\ No newline at end of file
diff --git a/favorite-file/gravitee-docker-compose/environments/demo/launch.sh b/favorite-file/gravitee-docker-compose/environments/demo/launch.sh
new file mode 100755
index 00000000..ff51ff04
--- /dev/null
+++ b/favorite-file/gravitee-docker-compose/environments/demo/launch.sh
@@ -0,0 +1,91 @@
+#!/bin/bash
+#-------------------------------------------------------------------------------
+# Copyright (C) 2015 The Gravitee team (http://gravitee.io)
+# Licensed under the Apache License, Version 2.0 (the "License");
+# you may not use this file except in compliance with the License.
+# You may obtain a copy of the License at
+# http://www.apache.org/licenses/LICENSE-2.0
+# Unless required by applicable law or agreed to in writing, software
+# distributed under the License is distributed on an "AS IS" BASIS,
+# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
+# See the License for the specific language governing permissions and
+# limitations under the License.
+#-------------------------------------------------------------------------------
+
+readonly WORKDIR="$HOME/graviteeio-demo"
+readonly DIRNAME=`dirname $0`
+readonly PROGNAME=`basename $0`
+readonly color_title='\033[32m'
+readonly color_text='\033[1;36m'
+
+# OS specific support (must be 'true' or 'false').
+declare cygwin=false
+declare darwin=false
+declare linux=false
+declare dc_exec="docker-compose -f docker-compose-local.yml up"
+
+welcome() {
+ echo
+ echo -e " ${color_title} _____ _____ __ _______ _______ ______ ______ _____ ____ \033[0m"
+ echo -e " ${color_title} / ____| __ \ /\ \ / /_ _|__ __| ____| ____| |_ _/ __ \ \033[0m"
+ echo -e " ${color_title}| | __| |__) | / \ \ / / | | | | | |__ | |__ | || | | | \033[0m"
+ echo -e " ${color_title}| | |_ | _ / / /\ \ \/ / | | | | | __| | __| | || | | | \033[0m"
+ echo -e " ${color_title}| |__| | | \ \ / ____ \ / _| |_ | | | |____| |____ _ _| || |__| | \033[0m"
+ echo -e " ${color_title} \_____|_| \_\/_/ \_\/ |_____| |_| |______|______(_)_____\____/ \033[0m"
+ echo -e " ${color_title} | | \033[0m${color_text}http://gravitee.io\033[0m"
+ echo -e " ${color_title} __| | ___ _ __ ___ ___ \033[0m"
+ echo -e " ${color_title} / _\` |/ _ \ '_ \` _ \ / _ \ \033[0m"
+ echo -e " ${color_title}| (_| | __/ | | | | | (_) | \033[0m"
+ echo -e " ${color_title} \__,_|\___|_| |_| |_|\___/ \033[0m"
+ echo
+}
+
+init_env() {
+ local dockergrp
+ # define env
+ case "`uname`" in
+ CYGWIN*)
+ cygwin=true
+ ;;
+
+ Darwin*)
+ darwin=true
+ ;;
+
+ Linux)
+ linux=true
+ ;;
+ esac
+
+ # test if docker must be run with sudo
+ dockergrp=$(groups | grep -c docker)
+ if [[ $darwin == false && $dockergrp == 0 ]]; then
+ dc_exec="sudo $dc_exec";
+ fi
+}
+
+init_dirs() {
+ echo "Init log directory in $WORKDIR ..."
+ mkdir -p "$WORKDIR/logs/"
+ echo
+}
+
+main() {
+ welcome
+ init_env
+ if [[ $? != 0 ]]; then
+ exit 1
+ fi
+ set -e
+ init_dirs
+ pushd $WORKDIR > /dev/null
+ echo "Download docker compose files ..."
+ curl -L https://raw.githubusercontent.com/gravitee-io/gravitee-docker/master/environments/demo/common.yml -o "common.yml"
+ curl -L https://raw.githubusercontent.com/gravitee-io/gravitee-docker/master/environments/demo/docker-compose-local.yml -o "docker-compose-local.yml"
+ echo
+ echo "Launch GraviteeIO demo ..."
+ $dc_exec
+ popd > /dev/null
+}
+
+main
diff --git a/favorite-file/gravitee-docker-compose/environments/sample-apis/docker-compose-sample-apis.yml b/favorite-file/gravitee-docker-compose/environments/sample-apis/docker-compose-sample-apis.yml
new file mode 100644
index 00000000..10c1a074
--- /dev/null
+++ b/favorite-file/gravitee-docker-compose/environments/sample-apis/docker-compose-sample-apis.yml
@@ -0,0 +1,47 @@
+#-------------------------------------------------------------------------------
+# Copyright (C) 2015 The Gravitee team (http://gravitee.io)
+# Licensed under the Apache License, Version 2.0 (the "License");
+# you may not use this file except in compliance with the License.
+# You may obtain a copy of the License at
+# http://www.apache.org/licenses/LICENSE-2.0
+# Unless required by applicable law or agreed to in writing, software
+# distributed under the License is distributed on an "AS IS" BASIS,
+# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
+# See the License for the specific language governing permissions and
+# limitations under the License.
+#-------------------------------------------------------------------------------
+version: '2'
+
+services:
+
+ sample-api-index:
+ image: graviteeio/gravitee-sample-index:latest
+ network_mode: "bridge"
+ labels:
+ - "traefik.backend=gravitee-sample-index"
+ - "traefik.frontend.rule=Host:api.gravitee.io"
+ - "traefik.frontend.entryPoints=https"
+
+ sample-api-echo:
+ image: graviteeio/gravitee-echo-api:nightly
+ network_mode: "bridge"
+ labels:
+ - "traefik.backend=gravitee-echo-api"
+ - "traefik.frontend.rule=Host:api.gravitee.io;PathPrefix:/echo"
+ - "traefik.frontend.entryPoints=https"
+
+ sample-api-whoami:
+ image: graviteeio/gravitee-whoami-api:latest
+ network_mode: "bridge"
+ labels:
+ - "traefik.backend=gravitee-whoami-api"
+ - "traefik.frontend.rule=Host:api.gravitee.io;PathPrefix:/whoami"
+ - "traefik.frontend.entryPoints=https"
+
+ sample-api-whattimeisit:
+ image: graviteeio/gravitee-whattimeisit-api:latest
+ network_mode: "bridge"
+ labels:
+ - "traefik.backend=gravitee-whattimeisit-api"
+ - "traefik.frontend.rule=Host:api.gravitee.io;PathPrefix:/whattimeisit"
+ - "traefik.frontend.entryPoints=https"
diff --git a/favorite-file/gravitee-docker-compose/platform/docker-compose.yml b/favorite-file/gravitee-docker-compose/platform/docker-compose.yml
new file mode 100644
index 00000000..3771102c
--- /dev/null
+++ b/favorite-file/gravitee-docker-compose/platform/docker-compose.yml
@@ -0,0 +1,135 @@
+version: '3'
+
+networks:
+ default:
+
+services:
+ nginx:
+ image: nginx:1.15-alpine
+ container_name: gio_platform_nginx
+ volumes:
+ - ./nginx/nginx.conf:/etc/nginx/nginx.conf
+ - ./nginx/ssl/gio-selfsigned.crt:/etc/ssl/certs/gio-selfsigned.crt
+ - ./nginx/ssl/gio-selfsigned.key:/etc/ssl/private/gio-selfsigned.key
+ - ./nginx/ssl/gio.pem:/etc/ssl/certs/gio.pem
+ ports:
+ - "80:80"
+ - "443:443"
+ depends_on:
+ - apim_gateway
+ - apim_portal
+ - apim_management
+ - am_gateway
+ - am_management
+ - am_webui
+
+ mongodb:
+ image: mongo:3.4
+ container_name: gio_platform_mongo
+ ports:
+ - 27017:27017
+ environment:
+ - MONGO_INITDB_DATABASE=gravitee
+ volumes:
+ - ./mongo/docker-entrypoint-initdb.d:/docker-entrypoint-initdb.d
+ - ./data/mongo:/data/db
+ - ./logs/mongodb:/var/log/mongodb
+
+ elasticsearch:
+ image: elasticsearch:6.4.0
+ container_name: gio_platform_elasticsearch
+ ports:
+ - 9200:9200
+ environment:
+ - http.host=0.0.0.0
+ - transport.host=0.0.0.0
+ - xpack.security.enabled=false
+ - xpack.monitoring.enabled=false
+ - cluster.name=elasticsearch
+ ulimits:
+ nofile: 65536
+ volumes:
+ - ./data/elasticsearch:/usr/share/elasticsearch/data
+ - ./logs/elasticsearch:/var/log/elasticsearch
+
+ apim_gateway:
+ image: graviteeio/gateway:latest
+ container_name: gio_platform_apim_gateway
+ volumes:
+ - ./logs/apim-gateway:/opt/graviteeio-gateway/logs
+ environment:
+ - gravitee_management_mongodb_uri=mongodb://mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_ratelimit_mongodb_uri=mongodb://mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_reporters_elasticsearch_endpoints_0=http://elasticsearch:9200
+ - gravitee_services_metrics_enabled=true
+ - gravitee_services_metrics_prometheus.enabled=true
+ depends_on:
+ - mongodb
+ - elasticsearch
+
+ apim_portal:
+ image: graviteeio/management-ui:latest
+ container_name: gio_platform_apim_portal
+ environment:
+ - MGMT_API_URL=https:\/\/localhost\/apim\/management\/
+ depends_on:
+ - apim_management
+
+ apim_management:
+ image: graviteeio/management-api:latest
+ container_name: gio_platform_apim_mgmt_api
+ volumes:
+ - ./logs/apim-management-api:/opt/graviteeio-management-api/logs
+ environment:
+ - gravitee_management_mongodb_uri=mongodb://mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_ratelimit_mongodb_uri=mongodb://mongodb:27017/gravitee?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_analytics_elasticsearch_endpoints_0=http://elasticsearch:9200
+ - gravitee_jwt_cookiepath=/apim/management
+ - gravitee_jwt_cookiesecure=true
+ depends_on:
+ - mongodb
+ - elasticsearch
+
+ am_gateway:
+ image: graviteeio/am-gateway:2
+ container_name: gio_platform_am_gateway
+ volumes:
+ - ./logs/am-gateway:/opt/graviteeio-am-gateway/logs
+ environment:
+ - gravitee_management_mongodb_uri=mongodb://mongodb:27017/gravitee-am?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_oauth2_mongodb_uri=mongodb://mongodb:27017/gravitee-am?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ depends_on:
+ - mongodb
+
+ am_management:
+ image: graviteeio/am-management-api:2
+ container_name: gio_platform_am_management
+ volumes:
+ - ./logs/am-management-api:/opt/graviteeio-am-management-api/logs
+ environment:
+ - gravitee_management_mongodb_uri=mongodb://mongodb:27017/gravitee-am?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_oauth2_mongodb_uri=mongodb://mongodb:27017/gravitee-am?serverSelectionTimeoutMS=5000&connectTimeoutMS=5000&socketTimeoutMS=5000
+ - gravitee_jwt_cookiepath=/am/management
+ - gravitee_jwt_cookiesecure=true
+ depends_on:
+ - mongodb
+ grafana:
+ image: grafana/grafana
+ ports:
+ - "3000:3000"
+ prometheus:
+ image: prom/prometheus
+ volumes:
+ - "./prometheus.yml:/etc/prometheus/prometheus.yml"
+ ports:
+ - "9090:9090"
+ am_webui:
+ image: graviteeio/am-management-ui:2
+ container_name: gio_platform_am_webui
+ environment:
+ - MGMT_API_URL=https:\/\/localhost\/am\/
+ - MGMT_UI_URL=https:\/\/localhost\/am\/ui\/
+ volumes:
+ - ./logs/am-webui:/var/log/nginx
+ depends_on:
+ - am_management
diff --git a/favorite-file/gravitee-docker-compose/platform/mongo/docker-entrypoint-initdb.d/create-index.js b/favorite-file/gravitee-docker-compose/platform/mongo/docker-entrypoint-initdb.d/create-index.js
new file mode 100644
index 00000000..b6f2d379
--- /dev/null
+++ b/favorite-file/gravitee-docker-compose/platform/mongo/docker-entrypoint-initdb.d/create-index.js
@@ -0,0 +1,92 @@
+
+// "apis" collection
+db.apis.dropIndexes();
+db.apis.createIndex( { "visibility" : 1 } );
+db.apis.createIndex( { "group" : 1 } );
+db.apis.reIndex();
+
+// "applications" collection
+db.applications.dropIndexes();
+db.applications.createIndex( { "group" : 1 } );
+db.applications.createIndex( { "name" : 1 } );
+db.applications.createIndex( { "status" : 1 } );
+db.applications.reIndex();
+
+// "events" collection
+db.events.dropIndexes();
+db.events.createIndex( { "type" : 1 } );
+db.events.createIndex( { "updatedAt" : 1 } );
+db.events.createIndex( { "properties.api_id" : 1 } );
+db.events.createIndex( { "properties.api_id":1, "type":1} );
+db.events.reIndex();
+
+// "plans" collection
+db.plans.dropIndexes();
+db.plans.createIndex( { "apis" : 1 } );
+db.plans.reIndex();
+
+// "subscriptions" collection
+db.subscriptions.dropIndexes();
+db.subscriptions.createIndex( { "plan" : 1 } );
+db.subscriptions.createIndex( { "application" : 1 } );
+db.subscriptions.reIndex();
+
+// "keys" collection
+db.keys.dropIndexes();
+db.keys.createIndex( { "plan" : 1 } );
+db.keys.createIndex( { "application" : 1 } );
+db.keys.createIndex( { "updatedAt" : 1 } );
+db.keys.createIndex( { "revoked" : 1 } );
+db.keys.createIndex( { "plan" : 1 , "revoked" : 1, "updatedAt" : 1 } );
+db.keys.reIndex();
+
+// "pages" collection
+db.pages.dropIndexes();
+db.pages.createIndex( { "api" : 1 } );
+db.pages.reIndex();
+
+// "memberships" collection
+db.memberships.dropIndexes();
+db.memberships.createIndex( {"_id.userId":1, "_id.referenceId":1, "_id.referenceType":1}, { unique: true } );
+db.memberships.createIndex( {"_id.referenceId":1, "_id.referenceType":1} );
+db.memberships.createIndex( {"_id.referenceId":1, "_id.referenceType":1, "roles":1} );
+db.memberships.createIndex( {"_id.userId":1, "_id.referenceType":1} );
+db.memberships.createIndex( {"_id.userId":1, "_id.referenceType":1, "roles":1} );
+db.memberships.reIndex();
+
+// "roles" collection
+db.roles.dropIndexes();
+db.roles.createIndex( {"_id.scope": 1 } );
+db.roles.reIndex();
+
+// "audits" collection
+db.audits.dropIndexes();
+db.audits.createIndex( { "referenceType": 1, "referenceId": 1 } );
+db.audits.createIndex( { "createdAt": 1 } );
+db.audits.reIndex();
+
+// "rating" collection
+db.rating.dropIndexes();
+db.rating.createIndex( { "api" : 1 } );
+db.rating.reIndex();
+
+// "ratingAnswers" collection
+db.ratingAnswers.dropIndexes();
+db.ratingAnswers.createIndex( { "rating" : 1 } );
+
+// "portalnotifications" collection
+db.portalnotifications.dropIndexes();
+db.portalnotifications.createIndex( { "user" : 1 } );
+db.portalnotifications.reIndex();
+
+// "portalnotificationconfigs" collection
+db.portalnotificationconfigs.dropIndexes();
+db.portalnotificationconfigs.createIndex( {"_id.user":1, "_id.referenceId":1, "_id.referenceType":1}, { unique: true } );
+db.portalnotificationconfigs.createIndex( {"_id.referenceId":1, "_id.referenceType":1, "hooks":1});
+db.portalnotificationconfigs.reIndex();
+
+// "genericnotificationconfigs" collection
+db.genericnotificationconfigs.dropIndexes();
+db.genericnotificationconfigs.createIndex( {"referenceId":1, "referenceType":1, "hooks":1});
+db.genericnotificationconfigs.createIndex( {"referenceId":1, "referenceType":1});
+db.genericnotificationconfigs.reIndex();
diff --git a/favorite-file/gravitee-docker-compose/platform/nginx/nginx.conf b/favorite-file/gravitee-docker-compose/platform/nginx/nginx.conf
new file mode 100644
index 00000000..d08fc26c
--- /dev/null
+++ b/favorite-file/gravitee-docker-compose/platform/nginx/nginx.conf
@@ -0,0 +1,133 @@
+worker_processes 4;
+
+events { worker_connections 1024; }
+
+http {
+ include /etc/nginx/mime.types;
+ resolver 127.0.0.11 ipv6=off;
+
+ upstream apim_management {
+ server apim_management:8083;
+ }
+
+ upstream apim_gateway {
+ server apim_gateway:8082;
+ }
+
+ upstream apim_portal {
+ server apim_portal:80;
+ }
+
+ upstream am_management {
+ server am_management:8093;
+ }
+
+ upstream am_gateway {
+ server am_gateway:8092;
+ }
+
+ upstream am_webui {
+ server am_webui:80;
+ }
+
+ server {
+ listen 80;
+ server_name localhost;
+ return 301 https://$server_name$request_uri; #Redirection
+ }
+
+ server {
+ listen 443 ssl;
+ listen [::]:443 ssl;
+
+ server_name localhost;
+
+ ssl_certificate /etc/ssl/certs/gio-selfsigned.crt;
+ ssl_certificate_key /etc/ssl/private/gio-selfsigned.key;
+ ssl_dhparam /etc/ssl/certs/gio.pem;
+
+ error_page 500 502 503 504 /50x.html;
+
+ location /apim/portal/ {
+ proxy_pass http://apim_portal/;
+ proxy_redirect $scheme://$host:$server_port/ $scheme://$http_host/apim/portal/;
+ proxy_set_header Host $host;
+ proxy_set_header X-Real-IP $remote_addr;
+ proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
+ proxy_set_header X-Forwarded-Host $server_name;
+ }
+
+ location /apim/management/ {
+ proxy_pass http://apim_management/management/;
+ proxy_redirect $scheme://$host:$server_port/management/ /apim/management/;
+ sub_filter "/management/" "/apim/management/";
+ sub_filter_types application/json;
+ sub_filter_once off;
+ proxy_cookie_path /management /apim/management;
+ proxy_set_header Host $host;
+ proxy_set_header X-Real-IP $remote_addr;
+ proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
+ proxy_set_header X-Forwarded-Host $server_name;
+ proxy_set_header X-Forwarded-Proto $scheme;
+ }
+
+ location /apim/ {
+ proxy_pass http://apim_gateway/;
+ proxy_cookie_path / /apim;
+ proxy_set_header Host $host;
+ proxy_set_header X-Real-IP $remote_addr;
+ proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
+ proxy_set_header X-Forwarded-Host $server_name;
+ }
+
+ location /am/ui/ {
+ proxy_pass http://am_webui/;
+ proxy_set_header Host $host;
+ proxy_set_header X-Real-IP $remote_addr;
+ proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
+ proxy_set_header X-Forwarded-Host $server_name;
+ sub_filter '
+ - 选择:linux64 类型下载
+- 授权:`chmod +x atlassian-confluence-6.15.4-x64.bin`
+
+
+```
+./atlassian-confluence-6.15.4-x64.bin
+
+开始提示:
+
+Unpacking JRE ...
+Starting Installer ...
+
+This will install Confluence 6.9.0 on your computer.
+OK [o, Enter], Cancel [c]
+
+>> 输入o或直接回车
+
+Click Next to continue, or Cancel to exit Setup.
+
+Choose the appropriate installation or upgrade option.
+Please choose one of the following:
+Express Install (uses default settings) [1],
+Custom Install (recommended for advanced users) [2, Enter],
+Upgrade an existing Confluence installation [3]
+1
+>> 这里输入数字1
+
+See where Confluence will be installed and the settings that will be used.
+Installation Directory: /opt/atlassian/confluence
+Home Directory: /var/atlassian/application-data/confluence
+HTTP Port: 8090
+RMI Port: 8000
+Install as service: Yes
+Install [i, Enter], Exit [e]
+i
+
+>> 输入i或者直接回车
+
+Extracting files ...
+
+Please wait a few moments while we configure Confluence.
+
+Installation of Confluence 6.9.0 is complete
+Start Confluence now?
+Yes [y, Enter], No [n]
+
+>> 输入y或者直接回车
+
+Please wait a few moments while Confluence starts up.
+Launching Confluence ...
+
+Installation of Confluence 6.9.0 is complete
+Your installation of Confluence 6.9.0 is now ready and can be accessed via
+your browser.
+Confluence 6.9.0 can be accessed at http://localhost:8090
+Finishing installation ...
+
+# 安装完成,访问本机的8090端口进行web端安装
+# 开放防火墙端口
+firewall-cmd --add-port=8090/tcp --permanent
+firewall-cmd --add-port=8000/tcp --permanent
+firewall-cmd --reload
+```
+
+- 默认是安装在 /opt 目录下:`/opt/atlassian/confluence/confluence/WEB-INF/lib`
+- 启动:`sh /opt/atlassian/confluence/bin/start-confluence.sh`
+- 停止:`sh /opt/atlassian/confluence/bin/stop-confluence.sh`
+- 查看 log:`tail -300f /opt/atlassian/confluence/logs/catalina.out`
+- 卸载:`sh /opt/atlassian/confluence/uninstall`
+- 设置 MySQL 连接驱动,把 mysql-connector-java-5.1.47.jar 放在目录 `/opt/atlassian/confluence/confluence/WEB-INF/lib`
+
+#### 首次配置
+
+- 访问:
+- 参考文章:
+- 参考文章:
+- 因为步骤一样,所以我就不再截图了。
+
+#### License 过程
+
+- 参考自己的为知笔记
+
+
+## 反向代理的配置可以参考
+
+-
+
+
+## 使用 markdown
+
+- 点击右上角小齿轮 > 管理应用 > 搜索市场应用 > 输入 markdown > 安装
+
+
+## 其他资料
+
+-
+-
diff --git a/markdown-file/Docker-Install-And-Usage.md b/markdown-file/Docker-Install-And-Usage.md
index 20db7079..734c11de 100644
--- a/markdown-file/Docker-Install-And-Usage.md
+++ b/markdown-file/Docker-Install-And-Usage.md
@@ -309,6 +309,11 @@ CONTAINER ID NAME CPU % MEM USAGE / LI
- `docker run -it 镜像ID --link redis-name:myredis /bin/bash`
- `redis-name` 是容器名称
- `myredis` 是容器别名,其他容器连接它可以用这个别名来写入到自己的配置文件中
+- 容器与宿主机之间文件的拷贝
+ - `docker cp /www/runoob 96f7f14e99ab:/www/` 将主机 /www/runoob 目录拷贝到容器 96f7f14e99ab 的 /www 目录下
+ - `docker cp /www/runoob 96f7f14e99ab:/www` 将主机 /www/runoob 目录拷贝到容器 96f7f14e99ab 中,目录重命名为 www。
+ - `docker cp 96f7f14e99ab:/www /tmp/` 将容器96f7f14e99ab的/www目录拷贝到主机的/tmp目录中。
+
#### docker 网络模式
@@ -774,7 +779,8 @@ logger.warn("-------------maxMemory=" + ((double) maxMemory / (1024 * 1024)));
- Docker Compose 主要用于定义和运行多个 Docker 容器的工具,这样可以快速运行一套分布式系统
- 容器之间是有依赖关系,比如我一个 Java web 系统依赖 DB 容器、Redis 容器,必须这些依赖容器先运行起来。
- 一个文件:docker-compose.yml
-- 一个命令:docker-compose up
+- 一个命令:`docker-compose up`
+ - 指定文件:`docker-compose -f zookeeper.yml -p zk_test up -d`
- 官网安装说明:
- 安装方法:
diff --git a/markdown-file/Elasticsearch-Base.md b/markdown-file/Elasticsearch-Base.md
index a7e98bba..959a7a93 100644
--- a/markdown-file/Elasticsearch-Base.md
+++ b/markdown-file/Elasticsearch-Base.md
@@ -1,27 +1,101 @@
# Elasticsearch 知识
-## Docker 部署
+## Docker 单节点部署
-```
-version: "3"
+- 官网:
+- 官网列表:
+- 阿里云支持版本:
+ - 阿里云有一个 `插件配置` 功能,常用的 Elasticsearch 插件都带了,勾选下即可安装。也支持上传安装。
+- 注意:docker 版本下 client.transport.sniff = true 是无效的。
+
+#### 5.6.x
+
+- `vim ~/elasticsearch-5.6.8-docker.yml`
+- 启动:`docker-compose -f ~/elasticsearch-5.6.8-docker.yml -p elasticsearch_5.6.8 up -d`
+```
+version: '3'
services:
- elasticsearch:
- image: elasticsearch:5.6.8
- restart: always
- container_name: elasticsearch
- hostname: elasticsearch
+ elasticsearch1:
+ image: docker.elastic.co/elasticsearch/elasticsearch:5.6.8
+ container_name: elasticsearch-5.6.8
environment:
- - 'http.host=0.0.0.0'
- - 'transport.host=127.0.0.1'
- "ES_JAVA_OPTS=-Xms512m -Xmx512m"
+ - "cluster.name=elasticsearch"
+ - "network.host=0.0.0.0"
+ - "http.host=0.0.0.0"
+ - "xpack.security.enabled=false"
+ ulimits:
+ memlock:
+ soft: -1
+ hard: -1
+ nofile:
+ soft: 65536
+ hard: 65536
ports:
- - "9200:9200"
- - "9300:9300"
+ - 9200:9200
+ - 9300:9300
volumes:
- /data/docker/elasticsearch/data:/usr/share/elasticsearch/data
+
+```
+
+
+#### 6.7.x(带 ik 分词)
+
+- `vim ~/elasticsearch-6.7.2-docker.yml`
+- 启动:`docker-compose -f ~/elasticsearch-6.7.2-docker.yml -p elasticsearch_6.7.2 up -d`
+- `mkdir -p /data/docker/elasticsearch-6.7.2/data`
+- 如果官网镜像比较慢可以换成阿里云:`registry.cn-hangzhou.aliyuncs.com/elasticsearch/elasticsearch:6.7.2`
+- 下载 ik 分词(版本必须和 Elasticsearch 版本对应,包括小版本号):
+
+```
+version: '3'
+services:
+ elasticsearch1:
+ image: docker.elastic.co/elasticsearch/elasticsearch:6.7.2
+ container_name: elasticsearch-6.7.2
+ environment:
+ - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
+ - "cluster.name=elasticsearch"
+ - "network.host=0.0.0.0"
+ - "http.host=0.0.0.0"
+ - "xpack.security.enabled=false"
+ ulimits:
+ memlock:
+ soft: -1
+ hard: -1
+ nofile:
+ soft: 65536
+ hard: 65536
+ ports:
+ - 9200:9200
+ - 9300:9300
+ volumes:
+ - /data/docker/elasticsearch-6.7.2/data:/usr/share/elasticsearch/data
+ - /data/docker/ik:/usr/share/elasticsearch/plugins/ik
+```
+
+- Elasticsearch Head 插件地址:
+- 测试:
+
+
+```
+http://localhost:9200/
+_analyze?pretty POST
+
+
+{"analyzer":"ik_smart","text":"安徽省长江流域"}
+```
+
+- ik_max_word 和 ik_smart 什么区别?
+
+```
+ik_max_word: 会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合,适合 Term Query;
+ik_smart: 会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”,适合 Phrase 查询。
```
+
-------------------------------------------------------------------
@@ -58,10 +132,12 @@ elasticsearch hard memlock unlimited
#### 开始安装
+- 检查:`rpm -qa | grep elastic`
+- 卸载:`rpm -e --nodeps elasticsearch`
- 官网 RPM 安装流程(重要,以下资料都是对官网的总结):
- 导入 KEY:`rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch`
- 新建文件:`vim /etc/yum.repos.d/elasticsearch.repo`
-- 内容如下:
+- 内容如下(6.x):
```
[elasticsearch-6.x]
@@ -74,6 +150,19 @@ autorefresh=1
type=rpm-md
```
+- 内容如下(5.x):
+
+```
+[elasticsearch-5.x]
+name=Elasticsearch repository for 5.x packages
+baseurl=https://artifacts.elastic.co/packages/5.x/yum
+gpgcheck=1
+gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
+enabled=1
+autorefresh=1
+type=rpm-md
+```
+
- 开始安装:`yum install -y elasticsearch`,预计文件有 108M 左右,国内网络安装可能会很慢,慢慢等
- 安装完后会多了一个:elasticsearch 用户和组
- 设置 java 软链接:`ln -s /usr/local/jdk1.8.0_181/jre/bin/java /usr/local/sbin/java`
@@ -106,6 +195,9 @@ type=rpm-md
- 默认只能 localhost 访问,修改成支持外网访问
```
+打开这个注释:#cluster.name: my-application
+集群名称最好是自己给定,不然有些 client 端会连不上,或者要求填写
+
打开这个注释:#network.host: 192.168.0.1
改为:network.host: 0.0.0.0
```
diff --git a/markdown-file/Gitlab-Install-And-Settings.md b/markdown-file/Gitlab-Install-And-Settings.md
index f8f3eaab..c9a4c1e3 100644
--- a/markdown-file/Gitlab-Install-And-Settings.md
+++ b/markdown-file/Gitlab-Install-And-Settings.md
@@ -51,40 +51,27 @@ gitlab-postgresql:
- 本质就是把文件、缓存、数据库抽离出来,然后部署多个 Gitlab 用 nginx 前面做负载。
-## 原始安装方式
+## 原始安装方式(推荐)
-- 环境:
- - CPU:1 core
- - 内存:2G
-- 我习惯使用 root 用户
+- 推荐至少内存 4G,它有大量组件
- 有开源版本和收费版本,各版本比较:
- 官网:
- 中文网:
- 官网下载:
-- 安装的系统环境要求:
- - 从文章看目前要求 ruby 2.3,用 yum 版本过低,那就源码安装 ruby 吧,官网当前最新是:2.4.1(大小:14M)
- 官网安装说明:
-- 安装 ruby
- - 下载:
- - 解压:`tar zxvf ruby-2.4.1.tar.gz`
- - 编译安装:
- - `cd ruby-2.4.1`
- - `./configure`
- - `make`,过程有点慢
- - `make install`
- - 默认安装到这个目录:`/usr/local`
- - 查看当前版本号:`ruby -v`
-- CentOS 6 安装流程:
- - 当前(201703)的版本是:`GitLab Community Edition 9.0.0`
- - `sudo yum install -y curl openssh-server openssh-clients postfix cronie`
- - `sudo service postfix start`
- - `sudo chkconfig postfix on`
- - `sudo lokkit -s http -s ssh`
- - `curl -sS https://packages.gitlab.com/install/repositories/gitlab/gitlab-ce/script.rpm.sh | sudo bash`
- - `sudo yum install gitlab-ce`,软件大小:272M,下载速度不稳定
- - `sudo gitlab-ctl reconfigure`,这个过程比较慢
- 如果上面的下载比较慢,也有国内的镜像:
- 清华:
+- 参考:
+
+```
+sudo yum install -y curl policycoreutils-python openssh-server
+
+sudo systemctl enable sshd
+sudo systemctl start sshd
+
+curl https://packages.gitlab.com/install/repositories/gitlab/gitlab-ce/script.rpm.sh | sudo bash
+sudo EXTERNAL_URL="http://192.168.1.123:8181" yum install -y gitlab-ce
+```
## 配置
@@ -92,7 +79,10 @@ gitlab-postgresql:
- 配置域名 / IP
- 编辑配置文件:`sudo vim /etc/gitlab/gitlab.rb`
- 找到 13 行左右:`external_url 'http://gitlab.example.com'`,改为你的域名 / IP
- - 重启服务:`sudo gitlab-ctl reconfigure`
+ - 刷新配置:`sudo gitlab-ctl reconfigure`,第一次这个时间会比较久,我花了好几分钟
+ - 启动服务:`sudo gitlab-ctl start`
+ - 停止服务:`sudo gitlab-ctl stop`
+ - 重启服务:`sudo gitlab-ctl restart`
- 前面的初始化配置完成之后,访问当前机子 IP:`http://192.168.1.111:80`
- 默认用户是 `root`,并且没有密码,所以第一次访问是让你设置你的 root 密码,我设置为:gitlab123456(至少 8 位数)
- 设置会初始化密码之后,你就需要登录了。输入设置的密码。
@@ -234,6 +224,69 @@ gitlab-postgresql:
-
+## 接入第三方登录
+
+- 官网文档:
+ -
+ -
+ -
+
+- gitlab 自己本身维护一套用户系统,第三方认证服务一套用户系统,gitlab 可以将两者关联起来,然后用户可以选择其中一种方式进行登录而已。
+- 所以,gitlab 第三方认证只能用于网页登录,clone 时仍然使用用户在 gitlab 的账户密码,推荐使用 ssh-key 来操作仓库,不再使用账户密码。
+- 重要参数:block_auto_created_users=true 的时候则自动注册的账户是被锁定的,需要管理员账户手动的为这些账户解锁,可以改为 false
+- 编辑配置文件引入第三方:`sudo vim /etc/gitlab/gitlab.rb`,在 309 行有默认的一些注释配置
+ - 其中 oauth2_generic 模块默认是没有,需要自己 gem,其他主流的那些都自带,配置即可使用。
+
+```
+gitlab_rails['omniauth_enabled'] = true
+gitlab_rails['omniauth_allow_single_sign_on'] = ['google_oauth2', 'facebook', 'twitter', 'oauth2_generic']
+gitlab_rails['omniauth_block_auto_created_users'] = false
+gitlab_rails['omniauth_sync_profile_attributes'] = ['email','username']
+gitlab_rails['omniauth_external_providers'] = ['google_oauth2', 'facebook', 'twitter', 'oauth2_generic']
+gitlab_rails['omniauth_providers'] = [
+ {
+ "name"=> "google_oauth2",
+ "label"=> "Google",
+ "app_id"=> "123456",
+ "app_secret"=> "123456",
+ "args"=> {
+ "access_type"=> 'offline',
+ "approval_prompt"=> '123456'
+ }
+ },
+ {
+ "name"=> "facebook",
+ "label"=> "facebook",
+ "app_id"=> "123456",
+ "app_secret"=> "123456"
+ },
+ {
+ "name"=> "twitter",
+ "label"=> "twitter",
+ "app_id"=> "123456",
+ "app_secret"=> "123456"
+ },
+ {
+ "name" => "oauth2_generic",
+ "app_id" => "123456",
+ "app_secret" => "123456",
+ "args" => {
+ client_options: {
+ "site" => "http://sso.cdk8s.com:9090/sso",
+ "user_info_url" => "/oauth/userinfo"
+ },
+ user_response_structure: {
+ root_path: ["user_attribute"],
+ attributes: {
+ "nickname": "username"
+ }
+ }
+ }
+ }
+]
+
+```
+
## 资料
diff --git a/markdown-file/Grafana-Install-And-Settings.md b/markdown-file/Grafana-Install-And-Settings.md
index 095c2b27..c0c12ae3 100644
--- a/markdown-file/Grafana-Install-And-Settings.md
+++ b/markdown-file/Grafana-Install-And-Settings.md
@@ -6,6 +6,30 @@
- [支持的 Elasticsearch 版本](http://docs.grafana.org/features/datasources/elasticsearch/#elasticsearch-version)
+## Grafana Docker 安装
+
+- 官网:
+
+```
+mkdir -p /data/docker/grafana/data
+chmod 777 -R /data/docker/grafana/data
+
+docker run -d --name grafana -p 3000:3000 -v /data/docker/grafana/data:/var/lib/grafana grafana/grafana
+
+docker exec -it grafana /bin/bash
+
+容器中默认的配置文件位置:/etc/grafana/grafana.ini
+复制出配置文件到宿主机:docker cp grafana:/etc/grafana/grafana.ini /Users/gitnavi/
+```
+
+-
+- 默认管理账号;admin,密码:admin,第一次登录后需要修改密码,也可以通过配置文件修改
+
+```
+[security]
+admin_user = admin
+admin_password = admin
+```
----------------------------------------------------------------------------------------------
## Grafana 安装
@@ -62,6 +86,12 @@ sudo systemctl status grafana-server
- 个性化设置:
- 软件变量:
+## 官网 dashboard
+
+- dashboar仓库地址:
+- 本地可以通过输入 dashboard id 导入别人模板
+- 打开:
+ - 输入对应的 id,点击 Load 即可
----------------------------------------------------------------------------------------------
diff --git a/markdown-file/Influxdb-Install-And-Settings.md b/markdown-file/Influxdb-Install-And-Settings.md
new file mode 100644
index 00000000..82fe262d
--- /dev/null
+++ b/markdown-file/Influxdb-Install-And-Settings.md
@@ -0,0 +1,70 @@
+# Influxdb 安装和配置
+
+
+
+## Influxdb Docker 安装
+
+- 官网库:
+
+
+```
+docker run -d --name influxdb \
+-p 8086:8086 -p 8083:8083 \
+-e INFLUXDB_HTTP_AUTH_ENABLED=true \
+-e INFLUXDB_ADMIN_ENABLED=true -e INFLUXDB_ADMIN_USER=admin -e INFLUXDB_ADMIN_PASSWORD=123456 \
+-e INFLUXDB_DB=mydb1 \
+-v /Users/gitnavi/docker_data/influxdb/data:/var/lib/influxdb influxdb
+```
+
+
+- 进入终端交互:
+
+```
+docker exec -it influxdb /bin/bash
+
+输入:influx,开始终端交互
+
+auth admin 123456
+show databases;
+
+use springboot
+show measurements
+
+show series from "jvm_buffer_total_capacity"
+
+select * from "jvm_buffer_total_capacity"
+
+
+如果你要再额外创建数据库:
+create database demo
+
+如果你要再创建用户:
+create user "myuser" with password '123456' with all privileges
+```
+
+
+----------------------------------------------------------------------------------------------
+
+## 配置
+
+
+
+----------------------------------------------------------------------------------------------
+
+
+
+----------------------------------------------------------------------------------------------
+
+
+## 其他资料
+
+-
+- <>
+- <>
+- <>
+- <>
+- <>
+- <>
+- <>
+- <>
+
diff --git a/markdown-file/JMeter-Install-And-Settings.md b/markdown-file/JMeter-Install-And-Settings.md
index 3fd087b9..31946f33 100644
--- a/markdown-file/JMeter-Install-And-Settings.md
+++ b/markdown-file/JMeter-Install-And-Settings.md
@@ -160,8 +160,8 @@ remote_hosts=192.168.0.1:1099,192.168.0.2:1099
- [快速学习Jmeter性能测试工具](http://gitbook.cn/books/58de71a8be13fa66243873ef/index.html)
- [jmeter:菜鸟入门到进阶系列](http://www.cnblogs.com/imyalost/p/7062784.html)
- 国内视频教程:
- - [JMeter 性能测试入门篇 - 慕课网](https://www.imooc.com/learn/735)
- [JMeter 之 HTTP 协议接口性能测试 - 慕课网](https://www.imooc.com/learn/791)
+ - [接口测试基础之入门篇 - 慕课网](https://www.imooc.com/learn/738)
- [JMeter 性能测试进阶案例实战 - 慕课网](https://coding.imooc.com/class/142.html)
- [性能测试工具—Jmeter- 我要自学网](http://www.51zxw.net/list.aspx?page=2&cid=520)
- [jmeter 视频教学课程 - 小强](https://www.youtube.com/watch?v=zIiXpCBaBgQ&list=PL3rfV4zNE8CD-rAwlXlGXilN5QpkqDWox)
diff --git a/markdown-file/Jenkins-Install-And-Settings.md b/markdown-file/Jenkins-Install-And-Settings.md
index 82cc053c..a4101dea 100644
--- a/markdown-file/Jenkins-Install-And-Settings.md
+++ b/markdown-file/Jenkins-Install-And-Settings.md
@@ -158,6 +158,37 @@ This may also be found at: /root/.jenkins/secrets/initialAdminPassword
- 如果配置插件过程遇到这个错误:`No valid crumb was included in the request`,则多重试几次。
- 登录后把: 下面的 `防止跨站点请求伪造` 勾选去掉。遇到问题多试几次。
+
+## 忘记 admin 密码进行重置
+
+- 备份配置文件:`cp /root/.jenkins/config.xml /root/.jenkins/config.xml.back`
+- 编辑:`vim /root/.jenkins/config.xml`,删除 config.xml 文件中的这部分内容,在 10 行左右位置
+
+```
+true
+
+ true
+
+
+ true
+ false
+
+```
+
+- 重启服务,进入首页此时系统是免密状态
+- 选择左侧的 `系统管理`,系统会提示你需要配置安全设置:`全局安全配置`
+ - 勾选 `启用安全`
+ - 安全域 > 勾选 `Jenkins专有用户数据库`
+ - 点击保存
+- 重新点击首页:`系统管理`
+ - 点击 `管理用户`
+ - 在用户列表中点击 admin 右侧齿轮
+ - 修改密码,修改后即可重新登录。
+- 选择左侧的 `系统管理`,系统会提示你需要配置安全设置:`全局安全配置`
+ - 勾选 `启用安全`
+ - 授权策略 > 勾选 `登录用户可以做任何事` 或 `安全矩阵`
+ - 点击保存
+
-------------------------------------------------------------------
## pipeline 语法
@@ -927,3 +958,4 @@ pipeline {
-
-
-
+-
\ No newline at end of file
diff --git a/markdown-file/Jira-Install-And-Settings.md b/markdown-file/Jira-Install-And-Settings.md
index c3457adc..b831ae36 100644
--- a/markdown-file/Jira-Install-And-Settings.md
+++ b/markdown-file/Jira-Install-And-Settings.md
@@ -1,42 +1,82 @@
# Jira 安装和配置
+## Jira 7.13.3
-## Jira 安装
-
-- Jira 安装
- - 官网:
- - 官网下载:
- - 中文在线试用:
- - 官网帮助说明:
- - 官网中文语言包:
- - Jira 6.3.6 网盘下载:
- - Jira 6.3.6 中文语言包网盘下载:
- - 环境要求:
- - JDK 7 或更新版本;
- - Mysql
- - 我们要使用的版本:**atlassian-jira-6.3.6.tar.gz**
- - 我个人习惯 `/opt` 目录下创建一个目录 `setups` 用来存放各种软件安装包;在 `/usr` 目录下创建一个 `program` 用来存放各种解压后的软件包,下面的讲解也都是基于此习惯
- - 我个人已经使用了第三方源:`EPEL、RepoForge`,如果你出现 `yum install XXXXX` 安装不成功的话,很有可能就是你没有相关源,请查看我对源设置的文章
- - 解压:`tar zxvf atlassian-jira-6.3.6.tar.gz`
- - 修改目录名:`mv atlassian-jira-6.3.6/ jira6.3.6/`
- - 移到我个人的安装目录下:`mv jira6.3.6/ /usr/program/`
- - 创建存放数据目录:`mkdir -p /usr/program/jira6.3.6/data/`
- - 设置环境变量:
- - 编辑:`vim /etc/profile`
- - 在文件尾部添加:
- ``` ini
- JIRA_HOME=/usr/program/jira6.3.6/data/
- export JIRA_HOME
- ```
- - 刷新配置:`source /etc/profile`
- - 运行:`/usr/program/jira6.3.6/bin/start-jira.sh`
- - 访问:`http://192.168.0.111:8080/`
- - 汉化:`cp JIRA-6.3.6-language-pack-zh_CN.jar /usr/program/jira6.3.6/atlassian-jira/WEB-INF/lib/`
- - 配置过程:
- - 
- - 
- - 
- - 
- - 
- - 
- - 重新激活页面地址:`http://192.168.0.111:8090/secure/admin/ViewLicense.jspa`
\ No newline at end of file
+- 最新 7.13.3 版本时间:2019-04
+
+#### 数据库
+
+```
+docker run \
+ --name mysql-jira \
+ --restart always \
+ -p 3306:3306 \
+ -e MYSQL_ROOT_PASSWORD=adg123456 \
+ -e MYSQL_DATABASE=jira_db \
+ -e MYSQL_USER=jira_user \
+ -e MYSQL_PASSWORD=jira_123456 \
+ -d \
+ mysql:5.7
+```
+
+- 连上容器:`docker exec -it mysql-jira /bin/bash`
+ - 连上 MySQL:`mysql -u root -p`
+- 设置编码:**必须做这一步,不然配置过程会报错,JIRA 的 DB 要求是 utf8mb4**
+
+```
+SET NAMES 'utf8mb4';
+alter database jira_db character set utf8mb4;
+```
+
+
+#### 安装
+
+- 下载:
+ - 选择:tar.gz 类型下载
+- 解压:`tar zxvf atlassian-jira-software-7.13.3.tar.gz`
+- 创建 home 目录:`mkdir /usr/local/atlassian-jira-software-7.13.3-standalone/data`
+- 配置 home 变量:
+
+```
+编辑:vim ~/.zshrc
+
+在文件尾部添加:
+
+JIRA_HOME=/usr/local/atlassian-jira-software-7.13.3-standalone/data
+export JIRA_HOME
+
+
+刷新配置:`source ~/.zshrc`
+```
+
+- 设置 MySQL 连接:
+- 把 mysql-connector-java-5.1.47.jar 放在目录 `/usr/local/atlassian-jira-software-7.13.3-standalone/atlassian-jira/WEB-INF/lib`
+
+
+#### License 过程
+
+- 参考自己的为知笔记
+
+#### 运行
+
+- 启动:`sh /usr/local/atlassian-jira-software-7.13.3-standalone/bin/start-jira.sh`
+- 停止:`sh /usr/local/atlassian-jira-software-7.13.3-standalone/bin/stop-jira.sh`
+ - `ps -ef | grep java`
+- 查看 log:`tail -300f /usr/local/atlassian-jira-software-7.13.3-standalone/logs/catalina.out`
+- 访问:
+ - 注意防火墙配置
+- 如果需要更换端口号可以修改:`/usr/local/atlassian-jira-software-7.13.3-standalone/conf/server.xml` 文件中的内容。
+
+
+#### 中文化
+
+- 从 7.x 版本默认已经有中文支持,不需要再汉化了
+- 在安装后首次进入的时候就可以配置,选择中文了
+
+
+#### 首次配置
+
+- 参考文章:
+- 因为步骤一样,所以我就不再截图了。
+
+
diff --git a/markdown-file/MongoDB-Install-And-Settings.md b/markdown-file/MongoDB-Install-And-Settings.md
index 71cddd81..f05e7b74 100644
--- a/markdown-file/MongoDB-Install-And-Settings.md
+++ b/markdown-file/MongoDB-Install-And-Settings.md
@@ -22,8 +22,9 @@
- 请查看介绍中支持哪个版本:
- 目前 201712 支持 MongoDB 3.4
+-------------------------------------------------------------------
-## Docker 下安装 MongoDB
+## Docker 下安装 MongoDB(方式一)
- 先创建一个宿主机以后用来存放数据的目录:`mkdir -p /data/docker/mongo/db`
- 赋权:`chmod 777 -R /data/docker/mongo/db`
@@ -51,16 +52,63 @@ db.createUser(
- 导出:`docker exec -it cloud-mongo mongoexport -h 127.0.0.1 -u 用户名 -p 密码 -d 库名 -c 集合名 -o /data/db/mongodb.json --type json`
- 导入:`docker exec -it cloud-mongo mongoimport -h 127.0.0.1 -u 用户名 -p 密码 -d 库名 -c 集合名 --file /data/db/mongodb.json --type json`
-## 安装环境
-- CentOS 6
-## MongoDB 安装
+## Docker 下安装 MongoDB(方式二)
+
+- 先创建一个宿主机以后用来存放数据的目录:`mkdir -p /data/docker/mongo/db`
+- 赋权:`chmod 777 -R /data/docker/mongo/db`
+- 运行镜像:`docker run --name cloud-mongo2 -p 37017:27017 -v /data/docker/mongo/db:/data/db -d mongo:3.4 --auth`
+- 进入容器中 mongo shell 交互界面:`docker exec -it cloud-mongo2 mongo`
+- 创建一个超级用户:
+
+```
+use admin
+
+db.createUser(
+ {
+ user: "mongo-admin",
+ pwd: "123456",
+ roles: [
+ { role: "root", db: "admin" }
+ ]
+ }
+)
+
+db.auth("mongo-admin","123456")
+```
+
+- 使用 db.auth() 可以对数据库中的用户进行验证,如果验证成功则返回 1,否则返回 0
+- 接着创建一个普通数据库和用户:
+
+```
+
+use my_test_db
+
+
+db.createUser(
+ {
+ user: "mytestuser",
+ pwd: "123456",
+ roles: [
+ { role: "dbAdmin", db: "my_test_db" },
+ { role: "readWrite", db: "my_test_db" }
+ ]
+ }
+)
+
+
+db.auth("mytestuser","123456")
+```
+
+-------------------------------------------------------------------
+
+## MongoDB 传统方式安装
- 关闭 SELinux
- 编辑配置文件:`vim /etc/selinux/config`
- 把 `SELINUX=enforcing` 改为 `SELINUX=disabled`
-- MongoDB 安装
+- MongoDB 资料
- 官网:
- 官网文档:
- 此时(20170228) 最新稳定版本为:**3.4.2**
@@ -362,6 +410,15 @@ $ne ->not equal 不等于
- Robomongo:
+## 基准测试
+
+-
+
+## 随机生成测试数据
+
+-
+
+
## 资料
-
diff --git a/markdown-file/Mysql-Install-And-Settings.md b/markdown-file/Mysql-Install-And-Settings.md
index acb54084..5eb73d43 100644
--- a/markdown-file/Mysql-Install-And-Settings.md
+++ b/markdown-file/Mysql-Install-And-Settings.md
@@ -1,7 +1,34 @@
# MySQL 安装和配置
-## Docker 安装 MySQL
+## Docker 安装 MySQL(不带挂载)
+
+```
+docker run \
+ --name mysql-jira \
+ --restart always \
+ -p 3306:3306 \
+ -e MYSQL_ROOT_PASSWORD=adg_123456 \
+ -e MYSQL_DATABASE=jira_db \
+ -e MYSQL_USER=jira_user \
+ -e MYSQL_PASSWORD=jira_123456 \
+ -d \
+ mysql:5.7
+```
+
+
+- 连上容器:`docker exec -it mysql-jira /bin/bash`
+ - 连上 MySQL:`mysql -u root -p`
+- 设置编码:
+
+```
+SET NAMES 'utf8mb4';
+alter database jira_db character set utf8mb4;
+```
+
+
+
+## Docker 安装 MySQL(带挂载)
- 关掉:SELinux
- 创建本地数据存储 + 配置文件目录:`mkdir -p /data/docker/mysql/datadir /data/docker/mysql/conf /data/docker/mysql/log`
diff --git a/markdown-file/Mysql-Optimize.md b/markdown-file/Mysql-Optimize.md
index 1cbad473..cd0c58d5 100644
--- a/markdown-file/Mysql-Optimize.md
+++ b/markdown-file/Mysql-Optimize.md
@@ -3,6 +3,15 @@
- 下面说的优化基于 MySQL 5.6,理论上 5.5 之后的都算适用,具体还是要看官网
+## 优秀材料
+
+-
+-
+- <>
+- <>
+- <>
+
+
## 服务状态查询
- 查看当前数据库的状态,常用的有:
@@ -10,14 +19,23 @@
- 查看刚刚执行 SQL 是否有警告信息:`SHOW WARNINGS;`
- 查看刚刚执行 SQL 是否有错误信息:`SHOW ERRORS;`
- 查看已经连接的所有线程状况:`SHOW FULL PROCESSLIST;`
+ - 输出参数说明:
+ - 可以结束某些连接:`kill id值`
- 查看当前连接数量:`SHOW STATUS LIKE 'max_used_connections';`
- 查看变量,在 my.cnf 中配置的变量会在这里显示:`SHOW VARIABLES;`
+ - 查询慢 SQL 配置:`show variables like 'slow%';`
+ - 开启慢 SQL:`set global slow_query_log='ON'`
+ - 查询慢 SQL 秒数值:` show variables like 'long%';`
+ - 调整秒速值:`set long_query_time=1;`
- 查看当前MySQL 中已经记录了多少条慢查询,前提是配置文件中开启慢查询记录了.
- `SHOW STATUS LIKE '%slow_queries%';`
- 查询当前MySQL中查询、更新、删除执行多少条了,可以通过这个来判断系统是侧重于读还是侧重于写,如果是写要考虑使用读写分离。
- `SHOW STATUS LIKE '%Com_select%';`
+ - `SHOW STATUS LIKE '%Com_insert%';`
- `SHOW STATUS LIKE '%Com_update%';`
- `SHOW STATUS LIKE '%Com_delete%';`
+ - 如果 rollback 过多,说明程序肯定哪里存在问题
+ - `SHOW STATUS LIKE '%Com_rollback%';`
- 显示MySQL服务启动运行了多少时间,如果MySQL服务重启,该时间重新计算,单位秒
- `SHOW STATUS LIKE 'uptime';`
- 显示查询缓存的状态情况
@@ -35,79 +53,172 @@
- 6. Qcache_not_cached # 没有进行缓存的查询的数量,通常是这些查询未被缓存或其类型不允许被缓存
- 7. Qcache_queries_in_cache # 在当前缓存的查询(和响应)的数量。
- 8. Qcache_total_blocks #缓存中块的数量。
+- 查询哪些表在被使用,是否有锁表:`SHOW OPEN TABLES WHERE In_use > 0;`
+- 查询 innodb 状态(输出内容很多):`SHOW ENGINE INNODB STATUS;`
+- 锁性能状态:`SHOW STATUS LIKE 'innodb_row_lock_%';`
+ - Innodb_row_lock_current_waits:当前等待锁的数量
+ - Innodb_row_lock_time:系统启动到现在、锁定的总时间长度
+ - Innodb_row_lock_time_avg:每次平均锁定的时间
+ - Innodb_row_lock_time_max:最长一次锁定时间
+ - Innodb_row_lock_waits:系统启动到现在、总共锁定次数
+- 帮我们分析表,并提出建议:`select * from my_table procedure analyse();`
+
+
+## 系统表
+
+- 当前运行的所有事务:`select * from information_schema.INNODB_TRX;`
+- 当前事务出现的锁:`select * from information_schema.INNODB_LOCKS;`
+- 锁等待的对应关系:`select * from information_schema.INNODB_LOCK_WAITS;`
+
+
+## otpimizer trace
+- 作用:输入我们想要查看优化过程的查询语句,当该查询语句执行完成后,就可以到 information_schema 数据库下的OPTIMIZER_TRACE表中查看 mysql 自己帮我们的完整优化过程
+- 是否打开(默认都是关闭):`SHOW VARIABLES LIKE 'optimizer_trace';`
+ - one_line的值是控制输出格式的,如果为on那么所有输出都将在一行中展示,不适合人阅读,所以我们就保持其默认值为off吧。
+- 打开配置:`SET optimizer_trace="enabled=on";`
+- 关闭配置:`SET optimizer_trace="enabled=off";`
+- 查询优化结果:`SELECT * FROM information_schema.OPTIMIZER_TRACE;`
+```
+我们所说的基于成本的优化主要集中在optimize阶段,对于单表查询来说,我们主要关注optimize阶段的"rows_estimation"这个过程,这个过程深入分析了对单表查询的各种执行方案的成本;
+对于多表连接查询来说,我们更多需要关注"considered_execution_plans"这个过程,这个过程里会写明各种不同的连接方式所对应的成本。
+反正优化器最终会选择成本最低的那种方案来作为最终的执行计划,也就是我们使用EXPLAIN语句所展现出的那种方案。
+如果有小伙伴对使用EXPLAIN语句展示出的对某个查询的执行计划很不理解,大家可以尝试使用optimizer trace功能来详细了解每一种执行方案对应的成本,相信这个功能能让大家更深入的了解MySQL查询优化器。
+```
-## my.cnf 常配置项
-- `key_buffer_size`,索引缓冲区大小。
-- `query_cache_size`,查询缓存。
-- `max_connections = 1000`,MySQL 的最大并发连接数
-- ``,
-- ``,
-- ``,
-- ``,
-- ``,
-- ``,
-- ``,
-- ``,
+## 查询优化(EXPLAIN 查看执行计划)
+- 使用 EXPLAIN 进行 SQL 语句分析:`EXPLAIN SELECT * FROM sys_user;`,效果如下:
-## 查询优化
+```
+id|select_type|table |partitions|type|possible_keys|key|key_len|ref|rows|filtered|Extra|
+--|-----------|--------|----------|----|-------------|---|-------|---|----|--------|-----|
+ 1|SIMPLE |sys_user| |ALL | | | | | 2| 100| |
+```
-- 使用 EXPLAIN 进行 SQL 语句分析:`EXPLAIN SELECT * FROM sys_user;`
-- 得到的结果有下面几列:
- - **id**,该列表示当前结果序号,无特殊意义,不重要
+- 简单描述
+ - `id`:在一个大的查询语句中每个 SELECT 关键字都对应一个唯一的id
+ - `select_type`:SELECT 关键字对应的那个查询的类型
+ - `table`:表名
+ - `partitions`:匹配的分区信息
+ - `type`:针对单表的访问方法
+ - `possible_keys`:可能用到的索引
+ - `key`:实际上使用的索引
+ - `key_len`:实际使用到的索引长度
+ - `ref`:当使用索引列等值查询时,与索引列进行等值匹配的对象信息
+ - `rows`:预估的需要读取的记录条数
+ - `filtered`:某个表经过搜索条件过滤后剩余记录条数的百分比
+ - `Extra`:一些额外的信息
+- 有多个结果的场景分析
+ - 有子查询的一般都会有多个结果,id 是递增值。但是,有些场景查询优化器可能对子查询进行重写,转换为连接查询。所以有时候 id 就不是自增值。
+ - 对于连接查询一般也会有多个接口,id 可能是相同值,相同值情况下,排在前面的记录表示驱动表,后面的表示被驱动表
+ - UNION 场景会有 id 为 NULL 的情况,这是一个去重后临时表,合并多个结果集的临时表。但是,UNION ALL 不会有这种情况,因为这个不需要去重。
+- 根据具体的描述:
+ - **id**,该列表示当前结果序号
- **select_type**,表示 SELECT 语句的类型,有下面几种
- - SIMPLE,表示简单查询,其中不包括连接查询和子查询
- - PRIMARY,表示主查询,或者是最外面的查询语句。比如你使用一个子查询语句,比如这条 SQL:`EXPLAIN SELECT * FROM (SELECT sys_user_id FROM sys_user WHERE sys_user_id = 1) AS temp_table;`
- - 这条 SQL 有两个结果,其中有一个结果的类型就是 PRIMARY
- - UNION,使用 UNION 的 SQL 是这个类型
- - DERIVED,在 SQL 中 From 后面子查询
- - SUBQUERY,子查询
+ - `SIMPLE`:表示简单查询,其中不包括 UNION 查询和子查询
+ - `PRIMARY`:对于包含UNION、UNION ALL或者子查询的大查询来说,它是由几个小查询组成的,其中最左边的那个查询的select_type值就是PRIMARY
+ - `UNION`:对于包含UNION或者UNION ALL的大查询来说,它是由几个小查询组成的,其中除了最左边的那个小查询以外,其余的小查询的select_type值就是UNION
+ - `UNION RESULT`:MySQL选择使用临时表来完成UNION查询的去重工作,针对该临时表的查询的select_type就是UNION RESULT
+ - `SUBQUERY`:如果包含子查询的查询语句不能够转为对应的semi-join的形式,并且该子查询是不相关子查询,并且查询优化器决定采用将该子查询物化的方案来执行该子查询时,该子查询的第一个SELECT关键字代表的那个查询的select_type就是SUBQUERY
+ - `DEPENDENT SUBQUERY`:如果包含子查询的查询语句不能够转为对应的semi-join的形式,并且该子查询是相关子查询,则该子查询的第一个SELECT关键字代表的那个查询的select_type就是DEPENDENT SUBQUERY
+ - `DEPENDENT UNION`:在包含UNION或者UNION ALL的大查询中,如果各个小查询都依赖于外层查询的话,那除了最左边的那个小查询之外,其余的小查询的select_type的值就是DEPENDENT UNION
+ - `DERIVED`:对于采用物化的方式执行的包含派生表的查询,该派生表对应的子查询的select_type就是DERIVED
+ - `MATERIALIZED`:当查询优化器在执行包含子查询的语句时,选择将子查询物化之后与外层查询进行连接查询时,该子查询对应的select_type属性就是MATERIALIZED
- 还有其他一些
- **table**,表名或者是子查询的一个结果集
- **type**,表示表的链接类型,分别有(以下的连接类型的顺序是从最佳类型到最差类型)**(这个属性重要)**:
- 性能好:
- - system,表仅有一行,这是 const 类型的特列,平时不会出现,这个也可以忽略不计。
- - const,数据表最多只有一个匹配行,因为只匹配一行数据,所以很快,常用于 PRIMARY KEY 或者 UNIQUE 索引的查询,可理解为 const 是最优化的。
- - eq_ref,mysql 手册是这样说的:"对于每个来自于前面的表的行组合,从该表中读取一行。这可能是最好的联接类型,除了 const 类型。它用在一个索引的所有部分被联接使用并且索引是 UNIQUE(唯一键) 也不是 PRIMARY KEY(主键)"。eq_ref 可以用于使用 = 比较带索引的列。
- - ref,查询条件索引既不是 UNIQUE(唯一键) 也不是 PRIMARY KEY(主键) 的情况。ref 可用于 = 或 < 或 > 操作符的带索引的列。
- - ref_or_null,该联接类型如同 ref,但是添加了 MySQL 可以专门搜索包含 NULL 值的行。在解决子查询中经常使用该联接类型的优化。
+ - `system`:当表中只有一条记录并且该表使用的存储引擎的统计数据是精确的,比如MyISAM、Memory,那么对该表的访问方法就是system,平时不会出现,这个也可以忽略不计。
+ - `const`:当我们根据主键或者唯一二级索引列与常数进行等值匹配时,对单表的访问方法就是const,常用于 PRIMARY KEY 或者 UNIQUE 索引的查询,可理解为 const 是最优化的。
+ - `eq_ref`:在连接查询时,如果被驱动表是通过主键或者唯一二级索引列等值匹配的方式进行访问的(如果该主键或者唯一二级索引是联合索引的话,所有的索引列都必须进行等值比较),则对该被驱动表的访问方法就是eq_ref
+ - `ref`:当通过普通的二级索引列与常量进行等值匹配时来查询某个表,那么对该表的访问方法就可能是ref。ref 可用于 = 或 < 或 > 操作符的带索引的列。
+ - `ref_or_null`:当对普通二级索引进行等值匹配查询,该索引列的值也可以是NULL值时,那么对该表的访问方法就可能是ref_or_null
- 性能较差:
- - index_merge,该联接类型表示使用了索引合并优化方法。在这种情况下,key 列包含了使用的索引的清单,key_len 包含了使用的索引的最长的关键元素。
- - unique_subquery,该类型替换了下面形式的IN子查询的ref: `value IN (SELECT primary_key FROM single_table WHERE some_expr)`。unique_subquery 是一个索引查找函数,可以完全替换子查询,效率更高。
- - index_subquery,该联接类型类似于 unique_subquery。可以替换 IN 子查询, 但只适合下列形式的子查询中的非唯一索引: `value IN (SELECT key_column FROM single_table WHERE some_expr)`
- - range,只检索给定范围的行, 使用一个索引来选择行。
- - index,该联接类型与 ALL 相同, 除了只有索引树被扫描。这通常比 ALL 快, 因为索引文件通常比数据文件小。
+ - `index_merge`:该联接类型表示使用了索引合并优化方法。在这种情况下,key 列包含了使用的索引的清单,key_len 包含了使用的索引的最长的关键元素。
+ - `unique_subquery`:类似于两表连接中被驱动表的eq_ref访问方法,unique_subquery是针对在一些包含IN子查询的查询语句中,如果查询优化器决定将IN子查询转换为EXISTS子查询,而且子查询可以使用到主键进行等值匹配的话,那么该子查询执行计划的type列的值就是unique_subquery
+ - `index_subquery`:index_subquery与unique_subquery类似,只不过访问子查询中的表时使用的是普通的索引
+ - `range`:只检索给定范围的行, 使用一个索引来选择行。
+ - `index`:该联接类型与 ALL 相同, 除了只有索引树被扫描。这通常比 ALL 快, 因为索引文件通常比数据文件小。
+ - 再一次强调,对于使用InnoDB存储引擎的表来说,二级索引的记录只包含索引列和主键列的值,而聚簇索引中包含用户定义的全部列以及一些隐藏列,所以扫描二级索引的代价比直接全表扫描,也就是扫描聚簇索引的代价更低一些
- 性能最差:
- - ALL,对于每个来自于先前的表的行组合, 进行完整的表扫描。(性能最差)
- - **possible_keys**,指出 MySQL 能使用哪个索引在该表中找到行。如果该列为 NULL,说明没有使用索引,可以对该列创建索引来提供性能。**(这个属性重要)**
- - **key**,显示 MySQL 实际决定使用的键 (索引)。如果没有选择索引, 键是 NULL。**(这个属性重要)**
- - **key**_len,显示 MySQL 决定使用的键长度。如果键是 NULL, 则长度为 NULL。注意:key_len 是确定了 MySQL 将实际使用的索引长度。
- - **ref**,显示使用哪个列或常数与 key 一起从表中选择行。
- - **rows**,显示 MySQL 认为它执行查询时必须检查的行数。**(这个属性重要)**
- - **Extra**,该列包含 MySQL 解决查询的详细信息:
- - Distinct:MySQL 发现第 1 个匹配行后, 停止为当前的行组合搜索更多的行。
- - Not exists:MySQL 能够对查询进行 LEFT JOIN 优化, 发现 1 个匹配 LEFT JOIN 标准的行后, 不再为前面的的行组合在该表内检查更多的行。
- - range checked for each record (index map: #):MySQL 没有发现好的可以使用的索引, 但发现如果来自前面的表的列值已知, 可能部分索引可以使用。
- - Using filesort:MySQL 需要额外的一次传递, 以找出如何按排序顺序检索行。
- - Using index: 从只使用索引树中的信息而不需要进一步搜索读取实际的行来检索表中的列信息。
- - Using temporary: 为了解决查询,MySQL 需要创建一个临时表来容纳结果。
- - Using where:WHERE 子句用于限制哪一个行匹配下一个表或发送到客户。
- - Using sort_union(...), Using union(...), Using intersect(...): 这些函数说明如何为 index_merge 联接类型合并索引扫描。
- - Using index for group-by: 类似于访问表的 Using index 方式,Using index for group-by 表示 MySQL 发现了一个索引, 可以用来查 询 GROUP BY 或 DISTINCT 查询的所有列, 而不要额外搜索硬盘访问实际的表。
-- **了解对索引不生效的查询情况 (这个属性重要)**
- - 使用 LIKE 关键字的查询,在使用 LIKE 关键字进行查询的查询语句中,如果匹配字符串的第一个字符为“%”,索引不起作用。只有“%”不在第一个位置,索引才会生效。
- - 使用联合索引的查询,MySQL 可以为多个字段创建索引,一个索引可以包括 16 个字段。对于联合索引,只有查询条件中使用了这些字段中第一个字段时,索引才会生效。
- - 使用 OR 关键字的查询,查询语句的查询条件中只有 OR 关键字,且 OR 前后的两个条件中的列都是索引列时,索引才会生效,否则,索引不生效。
-- 子查询优化
- - MySQL 从 4.1 版本开始支持子查询,使用子查询进行 SELECT 语句嵌套查询,可以一次完成很多逻辑上需要多个步骤才能完成的 SQL 操作。
- - 子查询虽然很灵活,但是执行效率并不高。
- - 执行子查询时,MYSQL 需要创建临时表,查询完毕后再删除这些临时表,所以,子查询的速度会受到一定的影响。
- - 优化:
- - 可以使用连接查询(JOIN)代替子查询,连接查询时不需要建立临时表,其速度比子查询快。
+ - `ALL`:对于每个来自于先前的表的行组合, 进行完整的表扫描。(性能最差)
+ - `possible_keys`,指出 MySQL 能使用哪个索引在该表中找到行。如果该列为 NULL,说明没有使用索引,可以对该列创建索引来提供性能。**(这个属性重要)**
+ - possible_keys列中的值并不是越多越好,可能使用的索引越多,查询优化器计算查询成本时就得花费更长时间,所以如果可以的话,尽量删除那些用不到的索引。
+ - `key`,显示 MySQL 实际决定使用的键 (索引)。如果没有选择索引, 键是 NULL。**(这个属性重要)**
+ - 不过有一点比较特别,就是在使用index访问方法来查询某个表时,possible_keys列是空的,而key列展示的是实际使用到的索引
+ - `key_len`,表示当优化器决定使用某个索引执行查询时,该索引记录的最大长度。如果键是可以为 NULL, 则长度多 1。
+ - `ref`,显示使用哪个列或常数与 key 一起从表中选择行。
+ - `rows`,显示 MySQL 认为它执行查询时必须检查的行数。**(这个属性重要)**
+ - `Extra`,该列包含 MySQL 解决查询的详细信息:
+ - `Distinct` MySQL 发现第 1 个匹配行后, 停止为当前的行组合搜索更多的行。
+ - `Not exists` 当我们使用左(外)连接时,如果WHERE子句中包含要求被驱动表的某个列等于NULL值的搜索条件,而且那个列又是不允许存储NULL值的,那么在该表的执行计划的Extra列就会提示Not exists额外信息
+ - `range checked for each record (index map: #)` MySQL 没有发现好的可以使用的索引, 但发现如果来自前面的表的列值已知, 可能部分索引可以使用。
+ - `Using filesort` 有一些情况下对结果集中的记录进行排序是可以使用到索引的
+ - 需要注意的是,如果查询中需要使用filesort的方式进行排序的记录非常多,那么这个过程是很耗费性能的,我们最好想办法将使用文件排序的执行方式改为使用索引进行排序。
+ - `Using temporary` 在许多查询的执行过程中,MySQL可能会借助临时表来完成一些功能,比如去重、排序之类的,比如我们在执行许多包含DISTINCT、GROUP BY、UNION等子句的查询过程中,如果不能有效利用索引来完成查询,MySQL很有可能寻求通过建立内部的临时表来执行查询。如果查询中使用到了内部的临时表,在执行计划的Extra列将会显示Using temporary提示
+ - 如果我们并不想为包含GROUP BY子句的查询进行排序,需要我们显式的写上:ORDER BY NULL
+ - 执行计划中出现Using temporary并不是一个好的征兆,因为建立与维护临时表要付出很大成本的,所以我们最好能使用索引来替代掉使用临时表
+ - `Using join buffer (Block Nested Loop)` 在连接查询执行过程过,当被驱动表不能有效的利用索引加快访问速度,MySQL一般会为其分配一块名叫join buffer的内存块来加快查询速度,也就是我们所讲的基于块的嵌套循环算法
+ - `Using where`
+ - 当我们使用全表扫描来执行对某个表的查询,并且该语句的WHERE子句中有针对该表的搜索条件时,在Extra列中会提示上述额外信息
+ - 当使用索引访问来执行对某个表的查询,并且该语句的WHERE子句中有除了该索引包含的列之外的其他搜索条件时,在Extra列中也会提示上述额外信息
+ - `Using sort_union(...), Using union(...), Using intersect(...)` 如果执行计划的Extra列出现了Using intersect(...)提示,说明准备使用Intersect索引合并的方式执行查询,括号中的...表示需要进行索引合并的索引名称;如果出现了Using union(...)提示,说明准备使用Union索引合并的方式执行查询;出现了Using sort_union(...)提示,说明准备使用Sort-Union索引合并的方式执行查询。
+ - `Using index condition` 有些搜索条件中虽然出现了索引列,但却不能使用到索引
+ - `Using index` 当我们的查询列表以及搜索条件中只包含属于某个索引的列,也就是在可以使用索引覆盖的情况下,在Extra列将会提示该额外信息
+ - `Using index for group-by` 类似于访问表的 Using index 方式,Using index for group-by 表示 MySQL 发现了一个索引, 可以用来查 询 GROUP BY 或 DISTINCT 查询的所有列, 而不要额外搜索硬盘访问实际的表。
+
+
+## 查询不走索引优化
+
+- WHERE字句的查询条件里有不等于号(WHERE column!=…),MYSQL将无法使用索引
+- 类似地,如果WHERE字句的查询条件里使用了函数(如:WHERE DAY(column)=…),MYSQL将无法使用索引
+- 在JOIN操作中(需要从多个数据表提取数据时),MYSQL只有在主键和外键的数据类型相同时才能使用索引,否则即使建立了索引也不会使用
+- 如果WHERE子句的查询条件里使用了比较操作符LIKE和REGEXP,MYSQL只有在搜索模板的第一个字符不是通配符的情况下才能使用索引。比如说,如果查询条件是LIKE 'abc%',MYSQL将使用索引;如果条件是LIKE '%abc',MYSQL将不使用索引。
+- 在ORDER BY操作中,MYSQL只有在排序条件不是一个查询条件表达式的情况下才使用索引。尽管如此,在涉及多个数据表的查询里,即使有索引可用,那些索引在加快ORDER BY操作方面也没什么作用。
+- 如果某个数据列里包含着许多重复的值,就算为它建立了索引也不会有很好的效果。比如说,如果某个数据列里包含了净是些诸如“0/1”或“Y/N”等值,就没有必要为它创建一个索引。
+- 索引有用的情况下就太多了。基本只要建立了索引,除了上面提到的索引不会使用的情况下之外,其他情况只要是使用在WHERE条件里,ORDER BY 字段,联表字段,一般都是有效的。 建立索引要的就是有效果。 不然还用它干吗? 如果不能确定在某个字段上建立的索引是否有效果,只要实际进行测试下比较下执行时间就知道。
+- 如果条件中有or(并且其中有or的条件是不带索引的),即使其中有条件带索引也不会使用(这也是为什么尽量少用or的原因)。注意:要想使用or,又想让索引生效,只能将or条件中的每个列都加上索引
+- 如果列类型是字符串,那一定要在条件中将数据使用引号引用起来,否则不使用索引
+- 如果mysql估计使用全表扫描要比使用索引快,则不使用索引
+
+
+## 子查询优化
+
+- MySQL 从 4.1 版本开始支持子查询,使用子查询进行 SELECT 语句嵌套查询,可以一次完成很多逻辑上需要多个步骤才能完成的 SQL 操作。
+- 子查询虽然很灵活,但是执行效率并不高。
+- 执行子查询时,MYSQL 需要创建临时表,查询完毕后再删除这些临时表,所以,子查询的速度会受到一定的影响。
+- 优化:
+ - 可以使用连接查询(JOIN)代替子查询,连接查询时不需要建立临时表,其速度比子查询快。
+
+## 其他查询优化
+
+- 关联查询过程
+ - 确保 ON 或者 using子句中的列上有索引
+ - 确保任何的 groupby 和 orderby 中的表达式只涉及到一个表中的列。
+- count()函数优化
+ - count()函数有一点需要特别注意:它是不统计值为NULL的字段的!所以:不能指定查询结果的某一列,来统计结果行数。即 count(xx column) 不太好。
+ - 如果想要统计结果集,就使用 count(*),性能也会很好。
+- 分页查询(数据偏移量大的场景)
+ - 不允许跳页,只能上一页或者下一页
+ - 使用 where 加上上一页 ID 作为条件(具体要看 explain 分析效果):`select xxx,xxx from test_table where id < '上页id分界值' order by id desc limit 20;`
+
+## 创表原则
+
+- 所有字段均定义为 NOT NULL ,除非你真的想存 Null。因为表内默认值 Null 过多会影响优化器选择执行计划
+
+
+## 建立索引原则
+
+- 使用区分度高的列作为索引,字段不重复的比例,区分度越高,索引树的分叉也就越多,一次性找到的概率也就越高。
+- 尽量使用字段长度小的列作为索引
+- 使用数据类型简单的列(int 型,固定长度)
+- 选用 NOT NULL 的列。在MySQL中,含有空值的列很难进行查询优化,因为它们使得索引、索引的统计信息以及比较运算更加复杂。你应该用0、一个特殊的值或者一个空串代替空值。
+- 尽量的扩展索引,不要新建索引。比如表中已经有a的索引,现在要加(a,b)的索引,那么只需要修改原来的索引即可。这样也可避免索引重复。
+
## 数据库结构优化
@@ -142,7 +253,9 @@
- 插入数据之前执行禁止事务的自动提交,数据插入完成后再恢复,可以提供插入速度。
- 禁用:`SET autocommit = 0;`
- 开启:`SET autocommit = 1;`
-
+ - 插入数据之前执行禁止对外键的检查,数据插入完成后再恢复
+ - 禁用:`SET foreign_key_checks = 0;`
+ - 开启:`SET foreign_key_checks = 1;`
## 服务器优化
@@ -152,7 +265,36 @@
- 可以看我整理的这篇文章:
- 由于 binlog 日志的读写频繁,可以考虑在 my.cnf 中配置,指定这个 binlog 日志到一个 SSD 硬盘上。
+
+## 锁相关
+
+InnoDB支持事务;InnoDB 采用了行级锁。也就是你需要修改哪行,就可以只锁定哪行。
+在 Mysql 中,行级锁并不是直接锁记录,而是锁索引。索引分为主键索引和非主键索引两种,如果一条sql 语句操作了主键索引,Mysql 就会锁定这条主键索引;如果一条语句操作了非主键索引,MySQL会先锁定该非主键索引,再锁定相关的主键索引。
+InnoDB 行锁是通过给索引项加锁实现的,如果没有索引,InnoDB 会通过隐藏的聚簇索引来对记录加锁。也就是说:如果不通过索引条件检索数据,那么InnoDB将对表中所有数据加锁,实际效果跟表锁一样。因为没有了索引,找到某一条记录就得扫描全表,要扫描全表,就得锁定表。
+
+
+数据库的增删改操作默认都会加排他锁,而查询不会加任何锁。
+
+排他锁:对某一资源加排他锁,自身可以进行增删改查,其他人无法进行任何操作。语法为:
+select * from table for update;
+
+共享锁:对某一资源加共享锁,自身可以读该资源,其他人也可以读该资源(也可以再继续加共享锁,即 共享锁可多个共存),但无法修改。
+要想修改就必须等所有共享锁都释放完之后。语法为:
+select * from table lock in share mode;
+
+
+
## 资料
-
-
+-
+-
+-
+-
+-
+- <>
+- <>
+- <>
+- <>
+- <>
\ No newline at end of file
diff --git a/markdown-file/Mysql-Test.md b/markdown-file/Mysql-Test.md
index 2a5799e0..f18d3f0f 100644
--- a/markdown-file/Mysql-Test.md
+++ b/markdown-file/Mysql-Test.md
@@ -199,6 +199,8 @@ cd tpcc-mysql/src
make
如果make没报错,就会在tpcc-mysql 根目录文件夹下生成tpcc二进制命令行工具tpcc_load、tpcc_start
+
+如果要同时支持 PgSQL 可以考虑:https://github.com/Percona-Lab/sysbench-tpcc
```
### 测试的几个表介绍
diff --git a/markdown-file/Nginx-Install-And-Settings.md b/markdown-file/Nginx-Install-And-Settings.md
index 71cb04a4..6a5ffb0c 100644
--- a/markdown-file/Nginx-Install-And-Settings.md
+++ b/markdown-file/Nginx-Install-And-Settings.md
@@ -102,6 +102,26 @@ http {
-------------------------------------------------------------------
+## Nginx 源码编译安装(带 Prometheus 模块)
+
+```
+./configure \
+--prefix=/usr/local/nginx \
+--pid-path=/var/local/nginx/nginx.pid \
+--lock-path=/var/lock/nginx/nginx.lock \
+--error-log-path=/var/log/nginx/error.log \
+--http-log-path=/var/log/nginx/access.log \
+--with-http_gzip_static_module \
+--http-client-body-temp-path=/var/temp/nginx/client \
+--http-proxy-temp-path=/var/temp/nginx/proxy \
+--http-fastcgi-temp-path=/var/temp/nginx/fastcgi \
+--http-uwsgi-temp-path=/var/temp/nginx/uwsgi \
+--with-http_ssl_module \
+--with-http_stub_status_module \
+--http-scgi-temp-path=/var/temp/nginx/scgi \
+--add-module=/usr/local/nginx-module-vts
+```
+
## Nginx 源码编译安装(带监控模块)
@@ -290,6 +310,27 @@ upgrade:
- 更新 `make upgrade`
+## 为 Nginx 添加 basic_auth
+
+```
+yum install httpd-tools
+
+htpasswd -c /opt/nginx-auth/passwd.db myusername,回车之后输入两次密码
+
+
+server {
+ ...
+
+ location / {
+ auth_basic "please input you user name and password";
+ auth_basic_user_file /opt/nginx-auth/passwd.db;
+ ....
+ }
+}
+
+```
+
+
## Nginx 全局变量
- $arg_PARAMETER #这个变量包含GET请求中,如果有变量PARAMETER时的值。
@@ -578,6 +619,20 @@ http {
```
+- 最新版本的 Nginx SSL 配置
+
+```
+listen 443 ssl;
+
+ssl_certificate /opt/jar/ssl/server.crt;
+ssl_certificate_key /opt/jar/ssl/server.key;
+
+ssl_session_timeout 5m;
+ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
+ssl_ciphers ECDHE-RSA-AES128-GCM-SHA256:HIGH:!aNULL:!MD5:!RC4:!DHE;
+ssl_prefer_server_ciphers on;
+```
+
----------------------------------------------------------------------
## Nginx 压力测试
diff --git a/markdown-file/PostgreSQL-Install-And-Settings.md b/markdown-file/PostgreSQL-Install-And-Settings.md
new file mode 100644
index 00000000..b2f3182e
--- /dev/null
+++ b/markdown-file/PostgreSQL-Install-And-Settings.md
@@ -0,0 +1,32 @@
+# PostgreSQL 安装和配置
+
+
+## 官网
+
+- 官网:
+ - 201906 最新版本
+ - 12 beat
+ - 11 release
+- 官网 Docker hub:
+
+
+## Docker 安装 PostgreSQL(带挂载)
+
+```
+docker run \
+ -d \
+ --name pgsql \
+ -p 5432:5432 \
+ -e POSTGRES_USER=adg_user \
+ -e POSTGRES_PASSWORD=adg123456 \
+ -v ~/docker_data/pgsql/data:/var/lib/postgresql/data \
+ postgres:11
+```
+
+- 连上容器:`docker exec -it pgsql /bin/bash`
+ - 连上 PostgreSQL:`psql -h 127.0.0.1 -p 5432 -U adg_user`
+
+
+## 资料
+
+-
diff --git a/markdown-file/Prometheus-Install-And-Settings.md b/markdown-file/Prometheus-Install-And-Settings.md
new file mode 100644
index 00000000..7780838c
--- /dev/null
+++ b/markdown-file/Prometheus-Install-And-Settings.md
@@ -0,0 +1,313 @@
+# Prometheus 安装和配置
+
+- 不错的发展史说明:
+- 特别说明:一般这类环境要尽可能保证所有服务器时间一致
+- Prometheus 本地存储不适合存长久数据,一般存储一个月就够了。要永久存储需要用到远端存储,远端存储可以用 OpenTSDB
+- Prometheus 也不适合做日志存储,日志存储还是推荐 ELK 方案
+
+## Prometheus Docker 安装
+
+- 官网:
+- Docker 官方镜像:
+- 这里以 Spring Boot Metrics 为收集信息
+- 创建配置文件:`vim /data/docker/prometheus/config/prometheus.yml`
+- 在 scrape_configs 位置下增加我们自己应用的路径信息
+
+```
+# my global config
+global:
+ scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
+ evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
+ # scrape_timeout is set to the global default (10s).
+
+# Alertmanager configuration
+alerting:
+ alertmanagers:
+ - static_configs:
+ - targets:
+ # - alertmanager:9093
+
+# Load rules once and periodically evaluate them according to the global 'evaluation_interval'.
+rule_files:
+ # - "first_rules.yml"
+ # - "second_rules.yml"
+
+# A scrape configuration containing exactly one endpoint to scrape:
+# Here it's Prometheus itself.
+scrape_configs:
+ - job_name: 'springboot'
+ metrics_path: '/tkey-actuator/actuator/prometheus'
+ static_configs:
+ - targets: ['192.168.2.225:8811']
+```
+
+- 启动
+
+```
+docker run -d --name prometheus -p 9091:9090 \
+-v /data/docker/prometheus/config/prometheus.yml:/etc/prometheus/prometheus.yml \
+prom/prometheus
+```
+
+- 然后配置 Grafana,使用这个 dashboard:
+
+
+----------------------------------------------------------------------------------------------
+
+## 配置
+
+- 官网 exporter 列表:
+- 官网 exporter 暴露的端口列表:
+
+
+### CentOS7 服务器
+
+- 当前最新版本:node_exporter 0.18.1(201907)
+
+```
+mkdir -p /usr/local/prometheus/node_exporter
+
+cd /usr/local/prometheus/node_exporter
+
+wget https://github.com/prometheus/node_exporter/releases/download/v0.18.1/node_exporter-0.18.1.linux-amd64.tar.gz
+
+tar -zxvf node_exporter-0.18.1.linux-amd64.tar.gz
+
+```
+
+
+```
+创建Systemd服务
+vim /etc/systemd/system/node_exporter.service
+
+
+
+[Unit]
+Description=node_exporter
+After=network.target
+
+[Service]
+Type=simple
+User=root
+ExecStart=/usr/local/prometheus/node_exporter/node_exporter-0.18.1.linux-amd64/node_exporter
+Restart=on-failure
+
+[Install]
+WantedBy=multi-user.target
+```
+
+- 关于 ExecStart 参数,可以再附带一些启动监控的参数,官网介绍:
+ - 格式:`ExecStart=/usr/local/prometheus/node_exporter/node_exporter-0.18.1.linux-amd64/node_exporter --collectors.enabled meminfo,hwmon,entropy`
+
+
+```
+启动 Node exporter
+systemctl start node_exporter
+
+systemctl daemon-reload
+
+systemctl status node_exporter
+
+```
+
+
+```
+修改prometheus.yml,加入下面的监控目标:
+
+vim /data/docker/prometheus/config/prometheus.yml
+
+scrape_configs:
+ - job_name: 'centos7'
+ static_configs:
+ - targets: ['192.168.1.3:9100']
+ labels:
+ instance: centos7_node1
+
+```
+
+- 重启 prometheus:`docker restart prometheus`
+- Grafana 有现成的 dashboard:
+ -
+ -
+
+----------------------------------------------------------------------------------------------
+
+
+### Nginx 指标
+
+- 这里使用 Nginx VTS exporter:
+
+- 安装 nginx 模块:
+
+```
+git clone --depth=1 https://github.com/vozlt/nginx-module-vts.git
+
+
+编译 nginx 的时候加上:
+./configure --prefix=/usr/local/nginx --with-http_ssl_module --add-module=/opt/nginx-module-vts
+
+make(已经安装过了,就不要再 make install)
+```
+
+
+```
+也有人做好了 docker 镜像:
+https://hub.docker.com/r/xcgd/nginx-vts
+
+docker run --name nginx-vts -p 80:80 -v /data/docker/nginx/conf/nginx.conf:/etc/nginx/nginx.conf:ro -d xcgd/nginx-vts
+```
+
+
+```
+修改Nginx配置
+
+
+http {
+ vhost_traffic_status_zone;
+ vhost_traffic_status_filter_by_host on;
+
+ ...
+
+ server {
+
+ ...
+
+ location /status {
+ vhost_traffic_status_display;
+ vhost_traffic_status_display_format html;
+ }
+ }
+}
+
+
+验证nginx-module-vts模块:http://192.168.1.3/status,会展示:
+Nginx Vhost Traffic Status 统计表
+
+```
+
+```
+如果不想统计流量的server,可以禁用vhost_traffic_status,配置示例:
+server {
+ ...
+ vhost_traffic_status off;
+ ...
+}
+```
+
+
+- 安装 nginx-vts-exporter
+
+```
+官网版本:https://github.com/hnlq715/nginx-vts-exporter/releases
+
+wget https://github.com/hnlq715/nginx-vts-exporter/releases/download/v0.10.3/nginx-vts-exporter-0.10.3.linux-amd64.tar.gz
+
+tar zxvf nginx-vts-exporter-0.10.3.linux-amd64.tar.gz
+
+chmod +x /usr/local/nginx-vts-exporter-0.10.3.linux-amd64/nginx-vts-exporter
+```
+
+```
+创建Systemd服务
+vim /etc/systemd/system/nginx_vts_exporter.service
+
+
+[Unit]
+Description=nginx_exporter
+After=network.target
+
+[Service]
+Type=simple
+User=root
+ExecStart=/usr/local/nginx-vts-exporter-0.10.3.linux-amd64/nginx-vts-exporter -nginx.scrape_uri=http://192.168.1.3/status/format/json
+Restart=on-failure
+
+[Install]
+WantedBy=multi-user.target
+```
+
+
+```
+启动nginx-vts-exporter
+systemctl start nginx_vts_exporter.service
+systemctl daemon-reload
+systemctl status nginx_vts_exporter.service
+```
+
+
+```
+修改 prometheus.yml,加入下面的监控目标:
+vim /data/docker/prometheus/config/prometheus.yml
+
+scrape_configs:
+ - job_name: 'nginx'
+ static_configs:
+ - targets: ['192.168.1.3:9913']
+ labels:
+ instance: nginx1
+
+
+如果nginx 有加 basic auth,则需要这样:
+scrape_configs:
+ - job_name: "nginx"
+ metrics_path: /status/format/prometheus
+ basic_auth:
+ username: youmeek
+ password: '123456'
+ static_configs:
+ - targets: ['192.168.1.3:9913']
+ labels:
+ instance: 'nginx1'
+
+```
+
+- 重启 prometheus:`docker restart prometheus`
+- Grafana 有现成的 dashboard:
+ -
+ -
+
+----------------------------------------------------------------------------------------------
+
+
+
+### 微服务下的多服务收集
+
+-
+
+----------------------------------------------------------------------------------------------
+
+
+### 告警
+
+-
+-
+
+- 告警配置
+
+- 告警检测
+
+- [Grafana+Prometheus系统监控之邮件报警功能](https://blog.52itstyle.vip/archives/2014/)
+- [Grafana+Prometheus系统监控之钉钉报警功能](https://blog.52itstyle.vip/archives/2029/)
+- [Grafana+Prometheus系统监控之webhook](https://blog.52itstyle.vip/archives/2068/)
+
+
+## 远端存储方案
+
+-
+
+
+----------------------------------------------------------------------------------------------
+
+
+## 其他资料
+
+-
+ - 写得非常非常非常好
+-
+-
+- <>
+- <>
+- <>
+- <>
+- <>
+
diff --git a/markdown-file/SkyWalking-Install-And-Settings.md b/markdown-file/SkyWalking-Install-And-Settings.md
new file mode 100644
index 00000000..db9cf77c
--- /dev/null
+++ b/markdown-file/SkyWalking-Install-And-Settings.md
@@ -0,0 +1,202 @@
+# SkyWalking 安装和配置
+
+
+## OpenAPM 相关
+
+- 目前市场工具一览:
+- 目前最活跃的标准:[OpenTracing](https://opentracing.io/)
+- 现在比较活跃的应该是:
+ - [Jaeger](https://www.jaegertracing.io/)
+ - [SkyWalking](https://skywalking.apache.org/)
+
+
+## 官网资料
+
+- 当前时间:2019-05,最新版本:6.1
+- 官网:
+- 官网 Github:
+- 官网文档:
+- 官网下载:
+ - 该网页显示:官网目前推荐的是通过源码构建出包,docker 镜像推荐
+ - 源码构建方法:
+- 这里简单抽取下核心内容:
+- 至少需要 jdk8 + maven3
+- 需要 Elasticsearch
+ - Elasticsearch 和 SkyWalking 的所在服务器的时间必须一致
+ - 看了下源码依赖的 Elasticsearch 依赖包,目前支持 5.x 和 6.x
+
+
+## 支持收集的组件列表
+
+- 国内常用的组件目前看来都支持了
+-
+
+
+## 基于 IntelliJ IDEA 直接运行、Debug
+
+- 这里选择 IntelliJ IDEA 运行服务,方便我们 debug 了解 SkyWalking:
+
+```
+cd skywalking/
+
+git submodule init
+
+git submodule update
+
+mvn clean package -DskipTests
+
+因为需要设置 gRPC 的自动生成的代码目录,为源码目录,所以:
+手工将下面提到的目录下的 grpc-java 和 java 目录设置为 IntelliJ IDEA 的源码目录(Sources Root)
+/skywalking/apm-protocol/apm-network/target/generated-sources/protobuf
+/skywalking/oap-server/server-core/target/generated-sources/protobuf
+/skywalking/oap-server/server-receiver-plugin/receiver-proto/target/generated-sources/protobuf
+/skywalking/oap-server/exporter/target/generated-sources/protobuf
+
+
+手工将下面提到的目录下的 antlr4 目录设置为 IntelliJ IDEA 的源码目录(Sources Root)
+/skywalking/oap-server/generate-tool-grammar/target/generated-sources
+
+手工将下面提到的目录下的 oal 目录设置为 IntelliJ IDEA 的源码目录(Sources Root)
+/skywalking/oap-server/generated-analysis/target/generated-sources
+
+```
+
+#### 启动 Server 项目
+
+- 现在可以通过 IntelliJ IDEA 启动服务:
+- 编辑 server 配置:`/skywalking/oap-server/server-starter/src/main/resources/application.yml`
+ - 里面有关 Elasticsearch 连接信息的配置,你可以根据自己的情况进行配置。
+- 启动类:`/skywalking/oap-server/server-starter/src/main/java/org/apache/skywalking/oap/server/starter/OAPServerStartUp.java`
+ - 第一次启动会创建 540 个左右的 Elasticsearch 索引库,会花点时间。
+
+
+#### 启动 UI 项目
+
+
+- 现在启动 UI 项目,找到:`/skywalking/apm-webapp/src/main/java/org/apache/skywalking/apm/webapp/ApplicationStartUp.java`
+- 访问 UI 地址:
+ - 用户名:admin
+ - 密码:admin
+
+
+## Java Agent(探针)
+
+
+#### IntelliJ IDEA 项目调试
+
+- 前面构建服务的时候记得构建出 jar 包出来,这里要用到
+- 自己的 Spring Boot 项目
+- 引包:
+
+```
+
+
+
+ org.apache.skywalking
+ apm-toolkit-trace
+ 6.1.0
+
+
+```
+
+- 常用注解:
+
+
+```
+@Trace
+@ApiOperation(tags = {"用户系统管理->用户管理->用户列表"}, value = "查询所有用户列表", notes = "查询所有用户列表")
+@RequestMapping(value = "/list", method = RequestMethod.GET)
+@ResponseBody
+public List list() {
+ List sysUserList = sysUserService.findAll();
+ ActiveSpan.tag("一共有数据:", sysUserList.size() + "条");
+ log.info("当前 traceId={}", TraceContext.traceId());
+ return sysUserList;
+}
+
+```
+
+- 更多注解的使用:
+
+- 你的 demo 项目在 IntelliJ IDEA 启动的时候加上 VM 参数上设置:
+
+```
+-javaagent:/你自己的路径/skywalking-agent.jar -Dskywalking.agent.application_code=my_app_001 -Dskywalking.collector.backend_service=localhost:11800
+```
+
+- 默认 11800 是 gRPC 的接收接口
+- 你自己构建出来的 jar 路径一般是:`/skywalking/apm-sniffer/apm-agent/target/skywalking-agent.jar`
+- 然后请求你带有 Trace 的 Controller,然后去 UI 界面看统计情况
+
+#### jar 包方式
+
+- 你的 Spring Boot jar 包 run 之前加上 VM 参数:
+
+```
+java -javaagent:/你自己的路径/skywalking-agent.jar -Dskywalking.collector.backend_service=localhost:11800 -Dskywalking.agent.application_code=my_app_002 -jar my-project-1.0-SNAPSHOT.jar
+```
+
+
+#### Docker 方式
+
+- Dockerfile
+
+```
+FROM openjdk:8-jre-alpine
+
+LABEL maintainer="tanjian20150101@gmail.com"
+
+ENV SW_AGENT_NAMESPACE=java-agent-demo \
+ SW_AGENT_COLLECTOR_BACKEND_SERVICES=localhost:11800
+
+COPY skywalking-agent /apache-skywalking-apm-bin/agent
+
+COPY target/sky-demo-1.0-SNAPSHOT.jar /demo.jar
+
+ENTRYPOINT java -javaagent:/apache-skywalking-apm-bin/agent/skywalking-agent.jar -jar /demo.jar
+```
+
+- 构建镜像:
+
+```
+docker build -t hello-demo .
+docker run -p 10101:10101 -e SW_AGENT_NAMESPACE=hello-world-demo-005 -e SW_AGENT_COLLECTOR_BACKEND_SERVICES=127.10.0.2:11800 hello-demo
+```
+
+
+
+## 构建 jar 部署在服务器
+
+- 如果想直接打包出 jar 部署与服务器,只需要这样:
+
+```
+cd skywalking/
+
+git submodule init
+
+git submodule update
+
+mvn clean package -DskipTests
+```
+
+## 告警配置
+
+-
+
+
+## 资料
+
+-
+-
+-
+-
+- <>
+- <>
+- <>
+- <>
+
+
+
+
+
+
diff --git a/markdown-file/WordPress-Install-And-Settings.md b/markdown-file/WordPress-Install-And-Settings.md
index 39fdc9c2..c11835da 100644
--- a/markdown-file/WordPress-Install-And-Settings.md
+++ b/markdown-file/WordPress-Install-And-Settings.md
@@ -194,6 +194,19 @@ systemctl enable httpd.service
- 我是托管到 DNSPOD,重新指向到新 IP 地址即可
+## 常用插件
+
+- JP Markdown
+- WP Code Highlight.js
+- FooBox Image Lightbox
+- WP Super Cache
+
+## 常见问题
+
+- 安装插件出现:`WordPress需要访问您网页服务器的权限。 请输入您的FTP登录凭据以继续`
+- 解决办法:`chown -R apache:apache /var/www/html`
+
+
## 资料
-
diff --git a/markdown-file/Zsh.md b/markdown-file/Zsh.md
index 2186bc74..e0e294a3 100644
--- a/markdown-file/Zsh.md
+++ b/markdown-file/Zsh.md
@@ -64,6 +64,18 @@
- 编辑配置文件:`vim /root/.zshrc`,找到下图的地方,怎么安装,原作者注释写得很清楚了,别装太多了,默认 git 是安装的。
- 
- 插件推荐:
+ - `zsh-autosuggestions`
+ - 这个插件会对历史命令一些补全,类似 fish 终端
+ - 插件官网:
+ - 安装,复制该命令:`git clone https://github.com/zsh-users/zsh-autosuggestions ${ZSH_CUSTOM:-~/.oh-my-zsh/custom}/plugins/zsh-autosuggestions`
+ - 编辑:`vim ~/.zshrc`,找到这一行,后括号里面的后面添加:`plugins=( 前面的一些插件名称,换行,加上:zsh-autosuggestions)`
+ - 刷新下配置:`source ~/.zshrc`
+ - `zsh-syntax-highlighting`
+ - 这个插件会对终端命令高亮显示,比如正确的拼写会是绿色标识,否则是红色,另外对于一些shell输出语句也会有高亮显示,算是不错的辅助插件
+ - 插件官网:
+ - 安装,复制该命令:`git clone https://github.com/zsh-users/zsh-syntax-highlighting.git ${ZSH_CUSTOM:-~/.oh-my-zsh/custom}/plugins/zsh-syntax-highlighting`
+ - 编辑:`vim ~/.zshrc`,找到这一行,后括号里面的后面添加:`plugins=( 前面的一些插件名称,换行,加上:zsh-syntax-highlighting)`
+ - 刷新下配置:`source ~/.zshrc`
- `wd`
- 简单地讲就是给指定目录映射一个全局的名字,以后方便直接跳转到这个目录,比如:
- 编辑配置文件,添加上 wd 的名字:`vim /root/.zshrc`
@@ -80,12 +92,6 @@
- 进入解压后目录并安装:`cd autojump_v21.1.2/ ; ./install.sh`
- 再执行下这个:`source /etc/profile.d/autojump.sh`
- 编辑配置文件,添加上 autojump 的名字:`vim /root/.zshrc`
- - `zsh-syntax-highlighting`
- - 这个插件会对终端命令高亮显示,比如正确的拼写会是绿色标识,否则是红色,另外对于一些shell输出语句也会有高亮显示,算是不错的辅助插件
- - 插件官网:
- - 安装,复制该命令:'git clone https://github.com/zsh-users/zsh-syntax-highlighting.git ${ZSH_CUSTOM:-~/.oh-my-zsh/custom}/plugins/zsh-syntax-highlighting'
- - 编辑:`vim ~/.zshrc`,找到这一行,后括号里面的后面添加:`plugins=( 前面的一些插件名称 zsh-syntax-highlighting)`
- - 刷新下配置:`source ~/.zshrc`
### 主题
diff --git a/markdown-file/monitor.md b/markdown-file/monitor.md
index 38ae729c..9a825839 100644
--- a/markdown-file/monitor.md
+++ b/markdown-file/monitor.md
@@ -66,6 +66,8 @@ procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
- `bi` 表示从块设备读取数据的量(读磁盘)
- `bo` 表示从块设备写入数据的量(写磁盘)
- **如果bi和bo两个数字比较高,则说明,磁盘IO压力大。**
+ - `in` 每秒 CPU 的中断次数,包括时间中断
+ - `cs` 每秒上下文切换次数,例如我们调用系统函数,就要进行上下文切换,线程的切换,也要进程上下文切换,这个值要越小越好,太大了,要考虑调低线程或者进程的数目
- `wa` 表示I/O等待所占用CPU的时间比
#### 命令:sar(综合)
@@ -266,6 +268,7 @@ atctive 和 passive 的数目通常可以用来衡量服务器的负载:接受
- 在 `top` 命令状态下按 shfit + m 可以按照 **内存使用** 大小排序
- 在 `top` 命令状态下按 shfit + p 可以按照 **CPU 使用** 大小排序
- 展示数据上,%CPU 表示进程占用的 CPU 百分比,%MEM 表示进程占用的内存百分比
+- mac 下不一样:要先输入 o,然后输入 cpu 则按 cpu 使用量排序,输入 rsize 则按内存使用量排序。
#### CPU 其他工具
@@ -573,7 +576,7 @@ TOTAL:(总的流量) 12.9GB 229Mb 190Mb 193Mb
#### lsof
- 安装 lsof:`yum install -y lsof`
-- 查看 3316 端口是否有被使用:`lsof -i:3316`,**有被使用会输出类似如下信息,如果没被使用会没有任何信息返回**
+- 查看 3316 端口是否有被使用(macOS 也适用):`lsof -i:3316`,**有被使用会输出类似如下信息,如果没被使用会没有任何信息返回**
```
COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME
@@ -593,7 +596,7 @@ docker-pr 13551 root 4u IPv6 2116824 0t0 TCP *:aicc-cmi (LISTEN)
#### netstat
- 更多用法可以看:[netstat 的10个基本用法](https://linux.cn/article-2434-1.html)
-- 查看所有在用的端口:`netstat -ntlp`
+- 查看所有在用的端口(macOS 也适用):`netstat -ntlp`
```
Active Internet connections (only servers)
@@ -855,11 +858,12 @@ access_log /home/wwwlogs/hicrew.log special_main;
#### 一次 JVM 引起的 CPU 高排查
- 使用 `ps -ef | grep java`,查看进程 PID
- - 根据高 CPU 的进程 PID,查看其线程 CPU 使用情况:`top -Hp PID`,找到占用 CPU 资源高的线程 PID
-- 保存堆栈情况:`jstack -l PID >> /opt/jstack-tomcat1-PID-20181017.log`
-- 把占用 CPU 资源高的线程十进制的 PID 转换成 16 进制:`printf "%x\n" PID`,比如:`printf "%x\n" 12401` 得到结果是:`3071`
+ - 根据高 CPU 的进程 PID,查看其线程 CPU 使用情况:`top -Hp PID`,找到占用 CPU 资源高的线程 TID
+ - 也可以用:`ps -mp PID -o THREAD,tid,time`
+- 保存堆栈情况:`jstack -l TID >> /opt/jstack-tomcat1-TID-20181017.log`
+- 把占用 CPU 资源高的线程十进制的 TID 转换成 16 进制:`printf "%x\n" TID`,比如:`printf "%x\n" 12401` 得到结果是:`3071`
- 在刚刚输出的那个 log 文件中搜索:`3071`,可以找到:`nid=0x3071`
-- 也可以在终端中直接看:`jstack PID |grep 十六进制线程 -A 30`,此时如果发现如下:
+- 也可以在终端中直接看:`jstack TID |grep 十六进制线程 -A 30`,此时如果发现如下:
```
"GC task thread#0 (ParallelGC)" os_prio=0 tid=0x00007fd0ac01f000 nid=0x66f runnable
diff --git a/markdown-file/wrk-Install-And-Settings.md b/markdown-file/wrk-Install-And-Settings.md
index 0b96c3c7..f6b7c67f 100644
--- a/markdown-file/wrk-Install-And-Settings.md
+++ b/markdown-file/wrk-Install-And-Settings.md
@@ -26,19 +26,19 @@ sudo cp wrk /usr/local/bin
## 使用
-- 启用 10 个线程,每个线程发起 100 个连接,持续 15 秒:`wrk -t10 -c100 -d15s http://www.baidu.com`
+- 启用 10 个线程,每个线程发起 100 个连接,持续 30 秒:`wrk -t10 -c100 -d30s http://www.baidu.com`
- 最终报告:
```
-Running 15s test @ http://www.baidu.com
- 10 threads and 100 connections
+Running 30s test @ http://www.baidu.com
+ 5 threads and 5 connections
Thread Stats Avg Stdev Max +/- Stdev
- Latency 208.39ms 324.00ms 1.91s 87.70%
- Req/Sec 82.68 64.81 414.00 70.60%
- 11345 requests in 15.02s, 166.51MB read
- Socket errors: connect 0, read 20, write 0, timeout 59
-Requests/sec: 755.26
-Transfer/sec: 11.08MB
+ Latency 44.59ms 17.41ms 331.91ms 95.66%
+ Req/Sec 23.11 5.77 30.00 57.04%
+ 3439 requests in 30.03s, 50.47MB read
+ Socket errors: connect 0, read 10, write 0, timeout 0
+Requests/sec: 114.52
+Transfer/sec: 1.68MB
```
#### 使用 lua 脚本(发送一个 post 请求)
@@ -62,4 +62,4 @@ wrk.headers["Content-Type"] = "application/x-www-form-urlencoded"
## 资料
-
--
\ No newline at end of file
+-