8月的主线任务
- 戒糖
- 戒掉抖音,注销+删APP
- 戒掉外卖,尤其是宵夜
- 拥抱外卖,打不过就加入
- 每日润够10+单,7000+步。
7-31 体重 113 KG
7-31 体重 113 KG
删除指定目录下(含子文件夹)的html文件
检索html的文件
find ./ -name '*.html'
检索并删除
find ./ -name '*.html' | xargs rm -r
还有其他参数,例如利用 find 的 -exec 参数方式等
槽点密集得让人无限出戏,全片狗屁不通
本次是一个大更新,官方计划的转主网的时间是 7月底。由于 1.35.0 的 release 已经放出,提前做一下升级。
基本的升级流程和以前版本一致,相同的部分略过不表。有一个小坑需要备忘一下
按以前的步骤git更新到目标版本, 然后运行 cabal_build_all.sh
先说结论:只要文件是同个文件,hash是一致的。
md5sum filepath
#md5sum 01000.chunk
ae2056ca156511f3a8223e2a4599b7bf 01000.chunk
md5_file(filename);
<?php
$file = "01000.chunk";
$md5 = md5_file($file);
var_dump($md5);
//string(32) "ae2056ca156511f3a8223e2a4599b7bf"
?>
这个稍微复杂点,要自己实现,而且执行起来效率貌似也有点低。不清楚为何,按理说所有方法都要读取完整文件效率应该相差不大才对,可能是我方法不对。
import hashlib
fname = "01000.chunk"
def md5_file(filename):
m = hashlib.md5() #创建md5对象
with open(filename,'rb') as fobj:
while True:
data = fobj.read(4096)
if not data:
break
m.update(data) #更新md5对象
return m.hexdigest()
hash = md5_file(fname)
print(hash, fname)