最终还是投向了obsidian
之前写过一篇文章,讲述了一些笔记软件的选择, 当时主力使用的是思源笔记,同时为了解决多端同步的问题,我是将思源直接部署在了vps上,通过网页进行访问,这样间接实现了数据同步的问题。
但是用了许久下来,发现了一些问题,而最终是这些问题,导致我放弃了思源笔记。
对于我而言,最主要的几个问题如下:
因为是部署在vps上的,一直担心哪天我的vps不续费了后续笔记就都丢失了(虽然做了备份,但是vps过期之后就无法公网访问了)
思源笔记更新太频繁,中间升级的过程会有一定的风险。依稀记的中间有一次为了使用它的一个新功能,将思源笔记进行了升级, 升级完之后,其中有几篇笔记的排版出现了错乱,不得已只能手工重新编辑。这次还好只是样式出现了问题,要是数据丢失了,那就真不知道去哪儿哭了。
所以,最终我还是选择了obsidian。选择obsidian是因为其本身存储就是一个markdown文件,这样只要该文件存在,即使后期obsidian不维护,仍然可以使用。而且obsidian在我看来,只要不折腾,其实还是非常简单且易于使用的。
同时,将思源笔记内容迁移到obsidian的过程,也是一个知识收纳与整理的过 ...
pve lxc容器使用vnpy的问题
最近在网上找较近时间的一些期货1分钟K线数据,发现基本上都是需要付费的,所以想着自己去录制行情数据。
录制这一块使用了vnpy。vnpy本身支持行情录制,但是有两个问题不符合我现在的需求,需要解决:
需要手动指定合约名称,而我的需求是录制全市场行情
无法录制主力合约
所以在网上找到了一个全市场行情录制的脚本, 修改了部分进行优化,同时对于主力合约,每天自己在后台合成。资源占用方面比较少(我这儿只录制了bar数据,没有录制tick数据,如果要录tick的话,所需的系统资源应该就更多了 )。
刚开始调试的时候,是在windows上运行的,没有问题,但是当我将脚本放到使用pve创建的lxc容器中(容器模板是ubuntu 22.04),不知道为啥,CTP一直在报连接成功,然后再连接断开,也没有更详细的报错日志。猜测可能是lxc,抱着尝试的心态新创建了一个ubuntu 22.04的虚拟机, 果然成功了。
至于为啥lxc不行, 暂时还不知晓,写此文章仅记录一下。
扔垃圾的感受
今天去扔垃圾,
突然发现将垃圾扔出去的时候,
心里有一种莫名的快感。
为什么呢?
可能是将不要的东西丢掉,是对过去的一种告别(☺瞎矫情☺)。
解决macos sierra重新安装时报错-准备安装时发生错误
最近打算把之前的一个旧的苹果笔记本出售,型号是2015 macbook air,因为出售之前需要把系统整个清理干净,所以按照苹果官方的建议,先将磁盘抹掉,然后重新安装。
选择重新安装的时候使用了这个笔记本最刚开始的版本macos sierra(没得选择,只有这个选项),但是安装到最后几秒的时候,报错“准备安装时发生错误”,试了好几次,中途使用了网上说的网络时间错误、APFS等措施,还是不行。
最后想到了一个可能,因为我这个笔记本中途升级到了Monterey,现在这样直接降级安装可能有问题,那如果安装这个Monterey版本是不是可行?
最终证明是可行的,也不用U盘等进行安装,具体操作步骤如下:
开机的时候按Command+Option+R进入网络恢复模式(注意千万不要使用Command+R那种方式进入,在这种恢复模式下只能安装sierra)
这个时候我们就能看到屏幕上有”重新安装macos Monterey” 选项, 此时如果直接进入安装,会发现没有磁盘。所以应该先进入磁盘工具,抹掉内置磁盘,格式选择APFS
点击菜单栏的退出磁盘工具,回到刚开始页面,此时再选择”重新安装macos ...
记录一下使用vercel搭建umami中需要注意的地方
在使用vercel搭建umami的时候,步骤比较简单,直接使用官网的deploy按钮,一步一步来就行。
其中有一个点需要注意,在填写环境变量DATABASE_URL的时候,按照官网说明,对于umami应该使用的是POSTGRES_PRISMA_URL,但此时如果直接使用POSTGRES_PRISMA_URL,在deploy的时候,连接数据库会报错,报错信息如下:
1prepared statement "s0" does not exist
看到supabase下面有这句话,对于umami使用的是prepared statements。
所以不能使用默认的6432端口, 改成5432端口就可以了。
1postgres://xxx@xxxxx:5432/postgres?sslmode=require&supa=base-pooler.x?pgbouncer=true&connect_timeout=10
还是不能太依赖自建服务
我发现有时还是不能太依赖自建的服务,否则后续升级的时候,可能会出现一系列问题。
比如我现在用来进行流量监控与分析的是自建的umami,最近因为需要用到其中的一些新功能,需要进行升级,但是发现升级比较困难,原因是旧版本umami用的mariadb版本比较老,新的umami用到了一些mariadb新的功能,所以需要同时升级mariadb,但是我的mariadb上还有其他的一些数据,不方便升级,所以只能放弃了。
Android应用在上架Google Play时封闭式测试的一些建议
最近上架了一个自己写的App到Google Play上,其中的封闭式测试这一环节卡了很久,现在将其中的一些注意事项记录一下,方便后来人看到。当然,这个只适用于那些没有自己的测试渠道,和我一样,单纯只有自己一个人的情况下,怎样通过封闭式测试。
因为我是第一次弄这个,前后经过了二次被拒,第三次才成功通过。
这是我第一次申请失败的截图。
Google Play对新注册的账号,如果需要发布应用,必须要有封闭式测试,且要求连续14天有20个人参与测试。
对于我这种没有自己测试渠道和测试人员的开发者,目前来看,成功率最高的是通过在reddit上发布帖子或者在别人发布的此类帖子下回帖,如此找到20个人参与测试,其中https://www.reddit.com/r/AndroidClosedTesting 这个板块热度较高,相对而言更容易。
首先是找人,可以在刚开始的前2天自己发帖或者回帖,凑齐20个人(可以多一点,因为中途可能会有人卸载),然后在之后的每天内都可以继续找人,还是为了防止中间有人卸载,不过之后的话就不用那么多了,每天找到几个就OK了。
还有一条是在这期间,可以发布几个版本,让Goog ...
JVM中的Shallow Size 和 Retained Size解释
在使用相关的JVM内存工具查看堆栈情况时, 有两个指标Shallow Size和Shallow Size不是很清楚其真正含义,现在通过一个例子来了解其含义。
先说一下概念描述:
shallow size: 对象自身占用的内存, 不包括它引用的其他实例。例如,对于一个简单的对象,如果它有几个基本数据类型的字段和对其他对象的引用,那么该值只计算这些字段所占的空间,而不计算被引用对象的空间
retained size: 当实例A被回收时, 可以同时被回收的实例的Shallow Size之和
示例代码很简答, 构造一个List,然后插入100万个元素, 在程序运行的过程中使用IDEA自带的Profiler来获取堆栈快照,后面的一个无限循环是为了防止程序运行完终止。
12345678910public static void main(String[] args) throws Exception { List<Integer> l = new ArrayList<>(); for (int i=0; i < 1000000; i++ ...
acme.sh自动生成泛域名证书的几个坑
先说一下我的环境与配置:
域名:在namesilo上购买的
证书使用方式:nginx
nginx部署方式:docker
说一下在使用过程中可能会遇到的一些坑, 方便后来人正确处理。
安装脚本过程安装acme.sh前要将系统用户切换到和nginx服务使用的用户, 否则之后的relaod命令将没有权限执行。
比如我使用root用户安装的docker启动nginx, 就切换到root,并在此用户下安装acme.sh
生成证书过程此处使用的是dns的api方式来验证,有几个点需要注意。
生成api key的时候,Generate key for read-only access 一定不要勾选
如果第一次没有注意勾选,并且使用脚本生成证书(不管是否生成失败),在新生成key之后, 需要先将.acme.sh account.conf Namesilo_Key 删除掉
老了
今天在公交上,一个应该是初中或高中的学生,让我帮忙弄一下行李箱,叫我 “叔叔”, 这好像是我印象中第一次有陌生人叫我这个称呼,看来是真老了。
但我的人生还有许多事没做,必须加紧步伐,把有限的时间花费在更有意义的事情上。
同时, 更重要的一点是身体,要加强锻炼,才能更好的应付之后可能发生的事。
希望今年心想事成,最重要的结婚和工作的事都能如意。