关于个人计划

返回主页

最初的计划

本系统开发的最初目标设置了三步走目标,第一步搭建系统基础框架,这就包含了基础数据爬虫以及简单盘后数据监控分析体系;第二步在现有爬虫网络和监控体系基础上构筑更复杂全面的分析框架;第三步则是根据全面分析框架,准确进行逐日预测,提前预知市场变化和主线变化。

最初的系统开发计划,至第一步结束后就发现存在重大问题,其中最主要的问题来源于数据由爬虫获取,严重滞后,即时分析失效,光依靠盘后分析预测并没有太大意义,因为此时交易结束,无法依赖盘后结果起到当日有效指导,而对次日预测分析无法突破更高精度,且依赖次日预测进行次日开盘交易决策存在重大误差,误差来原则是上一日无法精确预测次日盘中变化,而次日盘中可能出现任意变化影响昨日预判准确性,因此预测将在次日市场发展过程中彻底失效。如果遵循盘后体系继续开发,最终量化分析框架完全无法发挥应有作用。但如果采取盘中跟踪方式展开系统,又将遭遇时滞问题。

最初的计划在出现障碍后,个人重新分析了整个体系框架基础,并在新需求角度上开始计划新的计划,使系统的开发方向再次向实用性角度迁移。

第二阶段

工具与研发

进入新的第二阶段,主要目标开始朝向盘中实用性和即时预测角度发展。为了解决实用性不足问题,系统被迫开始强化盘中预测及分析,因此在原有框架基础上,重新利用已有基础算法并大量使用过滤程序,尽可能强化即时盘中计算,从大盘、板块、个股角度开始重新搭建新的盘中分析框架。而为了便于显示、监控,又需要开发一套完善的演示界面,最终目标落到了web端界面上。

因此第二阶段的任务主要涵盖了盘中监控系统开发、web端载体界面开发,而为了能够独立开发完整web端平台,不得已再次开始学习web端全栈开发。而同时也继续再逐个模块搭建盘中监控系统,其中需要重新调整并构筑新的爬虫子网络,子网络以速度作为唯一追求原则,尽可能省略基础数据存储,而通过即时获取、即时计算、即时结果存在的形式,加速结果输出,并在构建过程中更多关注反爬虫机制设计,以确保盘中快速大量获取数据的过程中不会存在错误,系统为了追求效率,也开始在盘中爬虫采取跨服务器多线程数据爬取,在数据库允许的极限数据吞吐条件下,尽可能多地榨取“效率”。加上爬虫端过滤机制的添加,系统终于可能以尽可能短的时间获取尽可能丰富的分析、预测结果,并提供给个人用于实盘交易。

在整个第二阶段中,web全栈开发也是重点中的重点,从零开始学习web全栈,从页面解析、爬虫、反爬机制开始,到html5、css、js、django框架、vue框架、flask框架,学习内容越来越复杂,但由于个人处于边开发边学习中,实际进度比预期快得多,如果说有问题,最大的问题仍是遇到问题无法及时获得准确答案,很多问题解决需要查阅大量资料,导致深入学习进度大幅延迟,直到AI工具开始普及。

开始使用AI工具,特别是大语言AI工具开始普及,使得解答web端甚至任何编程开发问题变得更加简单,这个阶段对各种编程工具、框架的学习进入加速状态。而有了AI工具的加持,且随着系统性学习的深入,开发进度也大幅提高。

第三阶段

新目标

目前第二阶段开发已经完成,在这一阶段,个人也开发了另一个web端内部系统,多个系统的开发,使得编程技术逐步熟练。直到个人量化分析系统的盘中监控模块完工、web端系统平台完工,第二阶段正式宣告结束。

进入第三阶段,主要任务有两个,第一继续完善、扩展需要的新功能,继续深度开发盘中监控系统模块;第二开始寻求整合盘后、盘中监控系统,并使得系统获取更高的智能分析能力,能够进行更适应市场的自动演化,并最终实现分析、预测、交易的全面自动化。这一步骤,特别是第二个目标可能需要持续数年时间,但考虑到盘中系统目前正在发挥作用,全面自动化的目标当前并没有过于紧迫。

除了系统开发,未来也希望分析框架体系能进一步延伸到其他资产品种甚至其他市场上。当然,实现分析框架的延展,由于核心算法模块已经进行模块化开发,在新品种和新市场上应用并不存在太大障碍,唯一的障碍依然是数据获取,包括当前数据库是否能承受更大数据并发以及更庞大表结构,都是需要考虑的问题。另外,随着AI模型的发展,是否需要引入更复杂、对算力要求更高的AI模型,也是需要考虑的重要方向。

个人认为,赛德塔斯系统逐步黑盒化可能是难以避免的最终趋势,但为了更好掌握系统演化方向,继续为系统添加运算过程中的日志记录,也是为了持续性的开发方向,目的依然是为了在未来系统可能出现某些错误时能够更轻松地识别、发现问题来源,并考察所开发的算法能否继续适应市场发展需求。

然而,无论第三阶段到哪一步,根本目标不会发生变化,最终总是希望系统可以为个人更稳定地产生更多利润,这一点永远都不会变。