f大 openwrt下qbitorrent下载到 /mnt/mmcblk2p2 被撑爆的问题处理

step 1. openwrt登录后台,然后系统-TTYD终端,通过 df -h 命令查询内存占用情况

step 2. 通过 cd / ,进入 /dev/mmcblk2p2 挂载的 / 根目录下,然后通过 du -sh [文件夹] 查询每个文件夹的占用情况

step 3. 最终定位到是由于 qbitorrent 重启后,自定义下载目录失效导致下载到 /mnt/sda1/pt 下,将里面qbitorrent下载的碎片删除后正常

step 4. 奇怪的是 /mnt/sda1/pt 本来是移动硬盘的挂载点,但是这里却没看到硬盘挂载成功,重启 openwrt 后正常。

step 5.  打开 qbitorrent WEB界面,确保 qbitorrent 中,设置-选项-下载
1. 默认 Torrent 管理模式 , 为 自动
2. 默认保存路径为 /mnt/sda1/pt
3. 勾选 保存未完成的 torrent 到 /mnt/sda1/pt

Google书签同步慢的问题

1. SwitchyOmega 中的auto switch模式中添加规则
域名通配符 *.google* 你的代理
保存后,重启浏览器

2. 打开谷歌浏览器,输入 chrome://sync-internals/
先点击 Stop Sync(Keep Data),然后再点击 Request Start
或者再点击一下 Trigger GetUpdates

TP6下使用chunk分块批量处理数据时,使用多字段分组时错误

数据量太大,使用TP6中chunk分块批量处理数据,而且需要使用多字段分组后批量处理。

问题分析:

使用 mysql 原生查询后,发现分组后的数据量有132298 rows。

使用chunk进行批量处理,发现一共处理了130398 rows。一共少处理了1900 行数据。

查看 chunk 源码,并打印关键逻辑

 

可以看出,chunk中的第二次开始查询下一批数据时,是根据 $lastId 来进行了排序后查找,chunk 这个方法,传入的分组条件,也就是 $column ,最好是一个确定唯一的条件。默认会使用主键。像这样如果多字段group by后,存在多个部分字段重复的情况,也就不建议使用 chunk 方法了。

解决办法:

 

CryptoJS中AES加密与PHP7的相互转换

js中加密代码如下:

php中相应代码如下:

特别注意 bin2hex 、hex2bin 这个函数,

hex2bin() 函数把十六进制值的字符串转换为 ASCII 字符。

bin2hex() 函数把 ASCII 字符的字符串转换为十六进制值。

用 Guzzlehttp 发送 gzip 压缩过的 json 数据,post 请求