水利项目
You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

245 lines
7.4 KiB

2 years ago
# 项目相关配置
shuili:
# 名称
name: 天汇重构
#系统别名 英文/汉语拼音 做缓存的前缀 每个模块的配置必须一样
nameKey: tianhui_chonggou
# 版本
version: 1.0
# 版权年份
copyrightYear: 2023
# 实例演示开关
demoEnabled: true
# 临时文件地址
profile: E:/tianhui
# 获取ip地址开关
addressEnabled: false
# 验证码类型 math 数组计算 char 字符验证
captchaType: math
#数据库配置 参考枚举类DbType
dbType: mysql
#初始话数据的位置
initData: E:\\199it
init: false
#neo4j的一个from
database: tianhui_chonggou
# 开发环境配置
server:
# 服务器的HTTP端口,默认为8080
port: 18080
servlet:
# 应用的访问路径
context-path: /tianhui-admin-web
tomcat:
# tomcat的URI编码
uri-encoding: UTF-8
# tomcat最大线程数,默认为200
max-threads: 800
# Tomcat启动初始化的线程数,默认值25
min-spare-threads: 30
# 日志配置
logging:
level:
com.kms: debug
org.springframework: warn
thrift:
host: 192.168.0.61
port: 9710
timeOut: 60000
maxActive: 20000
max-total: 50
max-idle: 10
min-idle: 5
max-wait-millis: 200
indexName: tianhui-chonggou
indexType: doc
esEntity: com.kms.system.es.EsEntity
# Spring配置
spring:
kafka:
autoStartup: true
topics: hangtian
# kafka信息 http://182.92.86.163:9092/
bootstrap-servers: 106.2.224.58:8021
#bootstrap-servers: 182.92.86.163:9092
producer: # 生产者配置
retries: 3 # 设置大于0的值,则客户端会将发送失败的记录重新发送
batch-size: 33554432 #32M
buffer-memory: 33554432 #32M
acks: 1
# 指定消息key和消息体的编解码方式
key-serializer: org.apache.kafka.common.serialization.StringSerializer
value-serializer: org.apache.kafka.common.serialization.StringSerializer
consumer:
session:
timeout: 200000000 # 链接超时时间
group-id: shuilikeji # 消费者组
enable-auto-commit: false # 关闭自动提交
auto-offset-reset: earliest # 当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费
key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
listener:
# 当每一条记录被消费者监听器(ListenerConsumer)处理之后提交
# RECORD
# 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后提交
# BATCH
# 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后,距离上次提交时间大于TIME时提交
# TIME
# 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后,被处理record数量大于等于COUNT时提交
# COUNT
# TIME | COUNT 有一个条件满足时提交
# COUNT_TIME
# 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后, 手动调用Acknowledgment.acknowledge()后提交
# MANUAL
# 手动调用Acknowledgment.acknowledge()后立即提交,一般使用这种
# MANUAL_IMMEDIATE
ack-mode: manual_immediate
data:
neo4j:
uri: bolt://192.168.0.61:7687
username: neo4j
password: password
mongodb:
uri: mongodb://192.168.0.61:27017/tianhui
field-naming-strategy: org.springframework.data.mapping.model.SnakeCaseFieldNamingStrategy
# 资源信息
messages:
# 国际化资源文件路径
basename: i18n/messages
profiles:
active: druid-zhishiku
session:
store-type: redis
redis:
flush-mode: immediate
# 文件上传
servlet:
multipart:
# 单个文件大小
max-file-size: 1000MB
# 设置总上传的文件大小
max-request-size: 20000MB
# 服务模块
devtools:
restart:
# 热部署开关
enabled: true
# redis 配置
redis:
# 地址
host: 192.168.0.61
# cluster:
# nodes: 192.168.1.20:7001,192.168.1.20:7002,192.168.1.20:7003,192.168.1.20:7004,192.168.1.20:7005,192.168.1.20:7006
# max-redirects: 3
# 端口,默认为6379
port: 6379
# 密码
password:
# 连接超时时间
timeout: 10s
lettuce:
pool:
# 连接池中的最小空闲连接
min-idle: 16
# 连接池中的最大空闲连接
max-idle: 32
# 连接池的最大数据库连接数
max-active: 8
# #连接池最大阻塞等待时间(使用负值表示没有限制)
max-wait: -1ms
# password: password
sa-token:
# token名称 (同时也是cookie名称)
token-name: shuili
# token有效期,单位s 默认30天, -1代表永不过期
timeout: -1
# token临时有效期 (指定时间内无操作就视为token过期) 单位: 秒
activity-timeout: 1800
# 是否允许同一账号并发登录 (为true时允许一起登录, 为false时新登录挤掉旧登录)
is-concurrent: true
# 在多人登录同一账号时,是否共用一个token (为true时所有登录共用一个token, 为false时每次登录新建一个token)
is-share: false
# token风格
token-style: uuid
# 是否输出操作日志
is-log: true
isReadCookie: false
tokenSessionCheckLogin: false
#是否在初始化配置时打印版本字符画
isV: false
#token前缀, 格式样例(satoken: Bearer xxxx-xxxx-xxxx-xxxx) 参考:token前缀
tokenPrefix: water
# 是否打开自动续签 (如果此值为true, 框架会在每次直接或间接调用getLoginId()时进行一次过期检查与续签操作)
autoRenew: true
#是否尝试从header里读取token
isReadHead: true
#mybatis-plus配置
mybatis-plus:
configuration:
#下划线驼峰命名
map-underscore-to-camel-case: true
auto-mapping-behavior: full
#开启日志打印
log-impl: org.apache.ibatis.logging.stdout.StdOutImpl
#配置Mapper映射文件
mapper-locations: classpath*:mapper/**/*Mapper.xml
type-aliases-package: com.kms.**.domain
# Swagger配置
swagger:
# 是否开启swagger
enabled: true
# 请求前缀
pathMapping: /
# 防止XSS攻击
xss:
# 过滤开关
enabled: true
# 排除链接(多个用逗号分隔)
excludes: /system/notice/*
# 匹配链接
urlPatterns: /system/*,/monitor/*,/tool/*
fdfs:
soTimeout: 1500
connectTimeout: 600
thumbImage: #缩略图生成参数
width: 150
height: 150
#预览的地址
showFileUrl: 192.168.61:8888
#使用的是http 还是https
urlAgreement: http
trackerList: #TrackerList参数,支持多个
- 192.168.0.61:22122
ignored:
/v2/*,/favicon.ico,/swagger-resources/**,/druid/**,/swagger-ui.html,/webjars/**,
/app/login,
/doc.html,
/chunk/*,
/error,
/login,
/captchaImage,
/system/file/**,
/system/user/exportExcel,
/system/kaptcha/render,
/test/**
# http请求连接池
http:
pool:
# 连接超时
connectTimeout: 5000000
connectionRequestTimeout: 5000000
defaultMaxPerRoute: 20
# 最大连接数
maxTotal: 100
# 服务器返回数据(response)的时间
socketTimeout: 5000000
validateAfterInactivity: 5000000
#算法配置
algorithm:
#图片ocr服务
entity: http://192.168.0.14:17856/analyze_text
# 自动打抽取摘要
summary: http://192.168.0.210:12343
ocr: http://192.168.0.62:12340/ExtractServer?WSDL