Linux容器日志管理核心是通过stdout/stderr输出日志并由Docker守护进程接管,需配置json-file/syslog驱动、max-size/max-file轮转策略,使用docker logs高效提取,对接Fluentd/Filebeat+ELK或Loki集中分析,并规范应用层直接输出至标准输出。
Linux容器日志管理核心在于不把日志写进容器文件系统,而是通过标准输出(stdout/stderr)交由Docker守护进程统一接管。这是高效收集与分析的前提。
Docker默认使用json-file驱动,日志以JSON格式落盘,但不设限会导致磁盘打满。推荐在/etc/docker/daemon.json中配置:
json-file或syslog(对接系统日志服务)"max-size": "10m" — 单个日志文件最大体积"max-file": "3" — 最多保留3个历史文件"labels": "env,service" — 为日志添加容器标签元数据修改后执行sudo systemctl restart docker生效。该配置对所有新建容器生效,已有容器需重建才应用。
避免登录容器用cat /var/log/app.log——这违背容器不可变原则,且日志可能根本没落地。
docker logs -t --since="2h" myapp查看带时间戳的最近2小时日志-f实时跟踪:docker logs -f --tail=50 myapp(仅看最后50行并持续输出)for c in $(docker ps -q --filter "label=env=prod"); do echo "== $c =="; docker logs "$c" --since="24h" | head -20; done
单机docker logs只能应急,生产环境必须集中采集。
fluentd或filebeat监听/var/lib/docker/containers/*/*-json.log路径(Docker json-file驱动的日志落盘位置)log、time、container_id、name等字段,再打上K8s Pod/Node标签(若运行在集群中){job="docker"} |~ "timeout" | line_format "{{.log}}" | unwrap log
容器内进程必须把业务日志直接输出到stdout,而非重定向到文件。
,禁用FileAppender
logging.basicConfig(level=logging.INFO, format="%(asctime)s %(levelname)s %(message)s"),不指定filename
console.log()/console.error(),避免fs.writeFileSync("app.log", ...)
若旧程序强制写文件,可用tail -f /app/logs/*.log >&1在启动脚本中将其转发到标准输出。