#### 安装普罗米修斯
#普罗米修斯环境变量
导出PATH=$PATH:/游戏/软件/普罗米修斯
#### Prometheus启动文件
[单元]
描述=普罗米修斯
之后=网络.目标
[服务]
类型=简单
ExecStart=/游戏/软件/普罗米修斯/普罗米修斯
config.file=/game/soft/prometheus/prometheus.yml
web.enable-lifecycle
storage.tsdb.path=/game/soft/prometheus/data
storage.tsdb.retention=30d
–query.timeout=2m
web.enable-lifecycle
ExecReload=/bin/kill -HUP $MAINPID
重新启动=失败时
用户=普罗米修斯
组=普罗米修斯
[安装]
WantedBy=多用户.Target
使用权
http://IP地址:9090/
#### 配置文件prometheus.yml
#
全球:
默认拉取频率[ scrape_interval: | default = 1m ]
刮擦间隔: 15秒
拉取超时时间[ scrape_timeout: | default = 10s ]
scrape_timeout: 10 秒
告警规则检测频率[ evaluation_interval: | default = 1m ]
评估间隔: 30 秒
通信时添加到任何时间序列或告警的标签[ : … ]
外部标签:
xxx:yyy
#
规则文件:
“/游戏/软件/普罗米修斯/规则/*.yml”
#
警报:
#alert_relabel_configs:
#设置alertmanager与prometheus交互的接口,即alertmanager监听的IP地址和端口。
警报管理员:
– static_configs:
– 目标:
– “127.0.0.1:9093”
#
#scrape_configs指定prometheus监控的资源。默认情况下,prometheus自己的时间序列数据是通过http://hostIP:9090/metrics获取的。
#Ascrape_config 指定一组目标和参数并描述如何拉取它们。一般来说,拉配置指定一个作业。在高级配置中,这可能会改变。
#Targets 可以使用static_configs 参数静态配置,也可以使用支持的服务发现机制之一动态发现。
#此外,可以在拉取目标及其标签之前修改relabel_configs
scrape_configs:
职位名称: 职位名称
拉取频率
[scrape_interval: | 默认=global_config.scrape_interval]
拉取超时时间
[scrape_timeout: | 默认=global_config.scrape_timeout]
拉取的http路径
[度量路径:
| 默认=/指标]
honor_labels 控制prometheus处理已存在于收集数据中的标签与prometheus将附加在服务器端的标签(\”作业\”和\”实例\”标签、手动配置的目标标签和由服务发现实现生成的标签)之间的冲突
如果 honor_labels 设置为 “true”,则通过保持从拉取数据获得的标签值并忽略冲突的服务器端标签来解决标签冲突
如果 honor_labels 设置为 “false”,则通过将拉取数据中冲突的标签重命名为\”exported_“来解决标签冲突(例如\”exported_instance”、“exported_job”),然后附加服务器端标签
注意,任何全局配置的 \”external_labels\”都不受此设置的影响。在与外部系统的通信中,只有当时间序列还没有给定的标签时,它们才被应用,否则就会被忽略
[ Honor_labels: | 默认=false ]
honor_timestamps 控制prometheus是否遵守拉取数据中的时间戳
如果 honor_timestamps 设置为 “true”,将使用目标公开的metrics的时间戳
如果 honor_timestamps 设置为 “false”,目标公开的metrics的时间戳将被忽略
[ Honor_timestamps: | 默认=true ]
配置用于请求的协议
[ 方案: | 默认=http ]
可选的http url参数
参数:
[ : [, …] ]
在每个拉取请求上配置 username 和 password 来设置 Authorization 头部,password 和 password_file 二选一
基本_auth:
[用户名:]
[密码:]
[密码文件:]
在每个拉取请求上配置 bearer token 来设置 Authorization 头部,bearer_token 和 bearer_token_file 二选一
[bearer_token:]
在每个拉取请求上配置 bearer_token_file 来设置 Authorization 头部,bearer_token_file 和 bearer_token 二选一
[ bearer_token_file: /path/to/bearer/token/file ]
配置拉取请求的TLS设置
tls_config:
[tls_配置]
可选的代理URL
[proxy_url:]
Azure服务发现配置列表
azure_sd_configs:
[-azure_sd_config …]
Consul服务发现配置列表
领事_sd_configs:
[-consul_sd_config …]
DNS服务发现配置列表
dns_sd_configs:
[-dns_sd_config . ]
EC2服务发现配置列表
ec2_sd_configs:
[-ec2_sd_config . ]
OpenStack服务发现配置列表
openstack_sd_configs:
[- openstack_sd_config … ]
file服务发现配置列表
file_sd_configs:
[-file_sd_config . ]
GCE服务发现配置列表
gce_sd_configs:
[-gce_sd_config . ]
Kubernetes服务发现配置列表
kubernetes_sd_configs:
[-kubernetes_sd_config …]
Marathon服务发现配置列表
marathon_sd_configs:
[-marathon_sd_config …]
AirBnB’s Nerve服务发现配置列表
神经_sd_configs:
[-neur_sd_config.]
Zookeeper Serverset服务发现配置列表
服务器set_sd_configs:
[-serverset_sd_config …]
Triton服务发现配置列表
triton_sd_configs:
[- triton_sd_config … ]
静态配置目标列表
静态配置:
[-静态配置.]
目标relabel配置列表
重新标签_configs:
[-relabel_config.]
metric relabel配置列表
metric_relabel_configs:
[-relabel_config.]
每次拉取样品的数量限制
metric relabelling之后,如果有超过这个数量的样品,整个拉取将被视为失效。0表示没有限制
[ 样本限制: | 默认=0 ]
#
#### 配置示例
my global config
全球:
scrape_interval: 15s # 设置抓取间隔为每15秒一次。默认为每分钟。
evaluation_interval: 15s # 每15 秒评估一次规则。默认为每分钟。
scrape_timeout is set to the global default (10s).
Alertmanager configuration
警报:
警报管理员:
– static_configs:
– 目标:
– “127.0.0.1:9093”
Load rules once and periodically evaluate them according to the global ‘evaluation_interval’.
规则文件:
“/游戏/软件/普罗米修斯/规则/*.yml”
– “second_rules.yml”
A scrape configuration containing exactly one endpoint to scrape:
Here it’s Prometheus itself.
scrape_configs:
The job name is added as a label job=job\\_name to any timeseries scraped from this config.
职业名称:“普罗米修斯”
metrics_path defaults to ‘/metrics’
scheme defaults to ‘http’.
static_configs:
目标: [“10.148.0.51:9090”]
主持人
job_name: \”节点\”
静态配置:
目标: [\”10.148.0.51:9100\”、\”10.148.0.48:9100\”、\”10.148.0.49:9100\”、\”10.148.0.50:9100\”、\”10.148.0.200:9100\” ,“10.148.0.201:9100”,“10.148.0.202:9100”]
#mongo
职位名称:“Mongo”
静态配置:
目标: [“10.148.0.48:5117”]
#redis
job_name:“get_redis_cluster”
静态配置:
目标:
redis://10.148.0.200:6380redis://10.148.0.200:6381redis://10.148.0.201:6380redis://10.148.0.201:6381redis3 3360//10.148.0.202:6380redis://10.148.0.202:6381
metrics_path:/抓取
重新标签_configs:
我们专门整理了上百道【运维技术栈面试题】,成为您运维面试路上的好助手。这样,你就可以毫无惊慌地参加面试并获得高薪offer。
这些面试题涵盖了从Shell、MySQL到K8s等云原生技术栈,适合运维行业新人以及运维行业新人的面试需求。升职或换工作以增加薪水。
本次访谈集内容为
174 运维工程师面试题128 k8s 面试题108 shell 脚本面试题200 Linux 面试题51 Docker 面试题35 Jenkis 面试题78 MongoDB 面试题17 ansible 面试题60 dubbo 面试题53 Kafka 面试题18 mysql 面试题40 nginx面试题题77 redis面试题Zookeeper题28
总共1000多道面试题,内容全面且有价值。
174道运维工程师面试题
1.什么是运维?
2、运维人员在工作场所经常需要与操作人员进行交互。运营人员做什么工作?
3. 您目前有300台服务器,您如何管理它们?
4. 简要说明RAID0和Raid1raid5这两种工作模式的工作原理和特点。
5、LVS、Nginx、HAproxy有什么区别?
6. Squid、Varinsh、Nginx 有什么区别,你在工作中如何选择?
7.Tomcat和Resin有什么区别?
8.什么是中间件?
9、Tomcat中的8005、8009、8080这三个端口是什么意思?
10.什么是CDN?
11.什么是网站灰度发布?
12、请简单说明一下DNS域名解析的过程。
13.什么是RabbitMQ?
14.Keepalived如何工作?
15.描述LVS工作流程的三种模式。
16、mysql的innodb如何识别锁定问题以及mysql如何减少主从复制延迟?
选择?
6. Squid、Varinsh、Nginx 有什么区别,你在工作中如何选择?
7.Tomcat和Resin有什么区别?
8.什么是中间件?
9、Tomcat中的8005、8009、8080这三个端口是什么意思?
10.什么是CDN?
11.什么是网站灰度发布?
12、请简单说明一下DNS域名解析的过程。
13.什么是RabbitMQ?
14.Keepalived如何工作?
15.描述LVS工作流程的三种模式。
16、mysql的innodb如何识别锁定问题以及mysql如何减少主从复制延迟?
17.如何重置mysql root密码?
以上关于安装部署#prometheus的相关内容摘自互联网,仅供参考。相关信息请参见官方公告。
原创文章,作者:CSDN,如若转载,请注明出处:https://www.sudun.com/ask/92099.html