2024,成长与短暂的一年:我的技术成长不完全回顾
年末碎碎念
又是一年的最后一天,窗外的雪花悄悄落下,伴随着键盘敲击的声音,我的代码和2024一起,都要画上句号了…(想象的)
回望这一整年,竟有些恍惚,仿佛前天还在挂机学习通,昨天在为春招疯狂复习面经,今天已经在为毕设焦头烂额。时间是写代码时最快的存在,不知不觉间,我的大四已经过去一半,我的大学生涯也已临近尾声…
项目中的成长
大创IM系统:那些熬夜的痕迹
接手这个项目可以说是我的技术转折点,从此知道了什么叫”看上去简单,做起来复杂”。
当我第一次写下new ServerBootstrap()
时,完全没想到后面等着我的是:
- 消息延迟问题( “怎么群里发消息经常隔了好几秒才收到?”)
- 连接暴增( “怎么新建一个通话就要建立这么多ws链接?!”)
- 内存爆炸( “压测才一分钟服务器又OOM了…”)
解决这些问题的过程真是一把辛酸泪。但也正因如此,我对消息中间件、异步编程和分布式系统的理解达到了新高度。
最自豪的改进:将消息分发架构从单队列改为多级队列分片处理,吞吐量从320/秒飙升至940/秒,这段代码简直是我的得意之作,每次看到它正常运行都有种”看我的孩子长大了”的感觉。
Aki-RPC:从0到1的造轮子之旅
暑假时突发奇想,要不从Spring开始写一个中间件?说干就干,从最初的一个Hello World
的动态代理验证,到最后支持服务注册、负载均衡、序列化、熔断限流…过程中遇到的坑真是数不胜数。
尤其是实现SPI机制那块,我卡了整整三天!Java的ServiceLoader让我又爱又恨。
值得回顾的是,造轮子让我理解了很多以前只知其然不知其所以然的知识点:
- 为什么Dubbo要用Netty而不用原生Socket?(性能差距大得惊人)
- 为什么需要心跳检测?(当遇到几千个僵尸连接,咱们就懂了…)
- 序列化框架为何重要?(JSON序列化比Protostuff慢40%)
最有成就感的时刻:当我第一次看到框架在本地伪分布式环境下达到4000+ TPS时,简直想放烟花庆祝!(终于算是结尾了,熬死我了)
纸上得来终觉浅,绝知此事要躬行。轮子造完,我才真正明白了框架设计的深刻含义。
所谓的水项目,真的扎扎实实做下来,一点也不“水”(昏倒
2024学习心得
回顾这一年,我有几点心得想分享:
底层原理真的很重要:理解JVM、操作系统和网络协议,能解决90%的疑难杂症。当你知道为什么会OOM,为什么会有死锁,为什么连接会超时,问题就变得简单多了。
画图是最好的思考工具:现在我解决复杂问题的第一步总是先画图,尤其是处理并发和分布式问题时。一张好图胜过千言万语的注释。
代码洁癖是好事:以前觉得能跑就行,现在却越来越注重代码质量。重构一段混乱的代码带来的满足感,不亚于实现一个新功能。
开源社区是最好的老师:阅读优秀开源项目的源码,比看十本教材还有效。我从Spring、Netty和Dubbo的源码中学到的设计思想,彻底改变了我写代码的方式。
总的来说,2024年我的技术栈更加全面,思考问题更加系统,写代码更加规范,解决问题更加高效。
对2025的展望
2024年,是辛苦的一年,是艰辛的一年,是寡淡的一年,是铺垫的一年
2025年,或许不会很精彩绝伦,但将会是风起云涌故事的续写,等待着沉寂之日后的万物复苏,只不过黎明还暂未显现,坚持,蛰伏,还有期许…
LLM?果然!
从理论上看,当前的大语言模型(LLM, Large Language Model)在任务执行能力上已具备「通用计算」的潜力。依据计算理论中的 Church-Turing 假设,只要模型在推理链(chain of thought)中拥有足够深的记忆与动态推演能力,理论上可以完成任何符号层面的认知任务。
然而,实际应用中最令人担忧的,仍然是 agent 系统对超长上下文处理的局限。当前即便有 128k 或百万 token 的上下文窗口,agent 在跨多个任务阶段持久保持一致性和记忆链条时,仍显得捉襟见肘。特别是在任务需要长时推理(long-horizon reasoning)或多轮状态管理(stateful management)时,当前 LLM-based agent 很容易出现上下文漂移(context drift)或遗忘。
此外,值得警惕的是,随着模型朝着「一体化大模型」(one model to solve all)方向演进,其内部推理路径趋向通用化,而非模块化。这种趋势与传统的专家模式逐渐背道而驰,可能埋下了「性能塌缩」(performance collapse)或「隐性盲区」(latent blind spot)的问题隐患,超低成本的专业模型,可能才是应用市场的未来。
不过,令人惊喜的是,已经有人开始探索真正意义上的 长时记忆机制。通过外部记忆增强或者神经检索器,某些系统已能在百万级 token 之外实现动态知识检索与持久状态保持,至少Cursor的性能实在是令我惊讶,或许LLM的满满长路仍没有走到尽头。
图形学,你崛起吧!
每次看到Pony、Lora、星野、可灵创作的这些作品,我总隐约觉得一个人人创作的时代已经到来,一个处处都是色彩和音乐、一个生活即电影的时代已经到来。
图形学正在经历翻天覆地的变革,从传统的多边形渲染到如今的AI生成、实时光线追踪,技术进步令人窒息。特别是实时渲染领域,UE5的Nanite和Lumen技术简直颠覆了我对渲染视觉的认知,只是。
虽然我不是图形学专业出身,但我的脑海一直有一个创造和艺术的幻梦,或许2025年,我会捡起落尘的数位板,或许有一天,我也可以把我感知的一切都…
对互联网未来的
不管怎样,我的职业之路还很长,而我也已准备好继续前行,或许有一天我不在用记录自己的小白日记,或许有一天我也能成为他人的依靠。
There is a crack in everything, that’s how the light gets in. ————莱昂纳多・科恩