备忘:logrotate.d (Nginx)日志文件分卷服务
实际是通用的日志分卷服务,备忘用于 nginx的情况
前言
nginx开启了日志,保存路径在 /home/wwwlogs/access.log
。
需要对定期日志分卷和打包,避免无人值守下把有限的磁盘空间给占满
实际是通用的日志分卷服务,备忘用于 nginx的情况
nginx开启了日志,保存路径在 /home/wwwlogs/access.log
。
需要对定期日志分卷和打包,避免无人值守下把有限的磁盘空间给占满
还是不打算写具体的配置实现。懂的人给思路已经够了,不能助长抄作业。
备忘笔记补充一些安全事项。搭建反代之后发现不请自来了不少 扫描的爬虫,这些可能仅仅是无目的地试探系统漏洞的机器人。
产生日志如下
192.241.236.34 - - [06/Jun/2023:22:16:47 +0800] "GET /owa/auth/logon.aspx?url=https%3a%2f%2f1%2fecp%2f HTTP/1.1" 404 142 "-" "Mozilla/5.0 zgrab/0.x" "-"
138.68.249.116 - - [06/Jun/2023:22:27:38 +0800] "SSTP_DUPLEX_POST /sra_{BA195980-CD49-458b-9E23-C84EE0ADCD75}/ HTTP/1.1" 400 150 "-" "-" "-"
15.204.173.67 - - [06/Jun/2023:22:28:18 +0800] "GET / HTTP/1.1" 403 146 "-" "python-requests/2.25.1" "-"
162.243.128.23 - - [06/Jun/2023:22:32:48 +0800] "GET / HTTP/1.1" 403 146 "-" "Mozilla/5.0 zgrab/0.x" "-"
原本这也没什么,反正这台中继服务器上没有任何数据和有价值的东西。就算被黑了也没有损失。
唯一需要担心的是目前所有请求无差别甩给openAI的 API。
万一被这些爬虫乱搞或者无差别DDos的话,openAI溯源把这个机器IP给拉黑就不好了。
为了避免这种结果的发生,有必要对这些异常的请求全部进行拦截。
拦截的方法也很简单直接,GPT的API要求通过 HEADER Authorization 里附带 key。那么识别有效请求就从这里入手
增加一个访问规则在 vhost 对应 .conf 的 location /{} 里的最前面
上文略
location / {
if ($http_authorization !~ "^Bearer ") {
return 403; # 拒绝访问
}
# 其他配置
{略}
}
下文略
配置完 运行校验
lnmp nginx configtest
Test nginx configure files... nginx: the configuration file /usr/local/nginx/conf/nginx.conf syntax is ok
nginx: configuration file /usr/local/nginx/conf/nginx.conf test is successful
检查配置,没问题,重启服务(reload也可以)
lnmp nginx restart
跟踪日志效果如下,不是GPT的请求已经全部拦截了。
113.10.20.171 - - [06/Jun/2023:22:33:23 +0800] "GET / HTTP/2.0" 403 548 "-" "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/109.0.0.0 Safari/537.36" "-"
113.10.20.171 - - [06/Jun/2023:22:33:24 +0800] "GET /favicon.ico HTTP/2.0" 403 548 "https://gpt.XXX.XXX/" "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/109.0.0.0 Safari/537.36" "-"
完美!收工!
给客户搞了一台工控机,要求安全稳定还得不能沾任何盗版。 因业务需求比较单一就给灌了ubuntu 22
没想到试用了一下还挺顺手的,和win11的使用体验差距不大。
如果以后是纯工作用的机器。
单纯的 office全套加VSC之类敲代码 再配浏览器和媒体播放器,
不玩游戏不装steam 也不涉及网银就能满足需要的话。
搞这么一台似乎也不错。
真的觉得不错。
emmm~ 也可能是我错觉,当年我摸 mac mini 也有过这样的错觉,最后还是吃灰
OpenAI提供了billing相关的接口,用api key 查询账号的用量和额度。但统计数据是针对账号而不是key的,因此当一个账号有多个keys 的情况下无法分辨每个key用量的多少。这是定论,也是openai论坛呼声很高的一个需求。
How to track API usage and cost by API key?
既然有需求在,那么来解决一下。说下我的思路
我需要把API分开给不同的应用或者分享给不同的人,我需要知道他们分别的使用情况,有没有被滥用或闲置。
额外地,还需要工具对apikey批量查询用量,这里用别人现成的
https://github.com/ClarenceDan/openai-billing
用户
->GPT
单向请求(用户输入的信息量),但AI返回的信息量长度没有记录。(还没写)
流水账,以下步骤均在 chatGPT指导下完成
cnode 最近发布了 8.0.0 版本的更新,虽然是一个 mainnet release ,但没有打算那么早更新。只是打算作为提早了解的心态找个本地节点进行了尝试,没想到陷进去一整个晚上搞到焦头烂额。从下午一直反复试错,到现在得出结果已经是凌晨 1:26。淦!
主要发现的问题是cntools无法正常使用,表现在所有的wallet显示余额为0,无法对资金进行任何的操作。
由于一个cntools的历史升级,改了查询余额的方式,改用了远程的API,而好死不死这个API因为某些原因在本地不好使。导致所有的资金操作卡死,因为任何的tx操作需要支付fee,余额0会直接导致失败。
提示
ERROR: payment and/or stake signing keys missing from wallet!
解决办法,根据官方的文档恢复旧方式查询(命令行查询 UTxOs 或使用本地部署那个远程API, 不去调用远端的API)