第1986篇:给10年后自己的信——2035年AI工程师的工作会是什么样子
第1986篇:给10年后自己的信——2035年AI工程师的工作会是什么样子
今天是2026年4月,我想给2035年的自己写一封信。
不是那种"希望你一切都好"的煽情信,而是一封工程师给工程师写的信——关于技术、关于职业、关于我在2026年对未来最诚实的判断。有些是我相当有把握的预测,有些是我真心不确定但值得深想的问题,还有一些是我希望届时的自己能回头检验:我当初想对了多少。
写在开头:预测这件事本身是危险的
先说一个清醒的认识:预测技术未来是一件高度危险的事情。
2010年,几乎没有人预测到深度学习会彻底改变整个AI领域。2015年,几乎没有人预测AlphaGo会在2016年击败李世石。2020年,预测2023年会有GPT-4水准的语言模型的人,屈指可数。
所以我对这封信的定位是:不是预言,而是思维实验。如果现在的一些趋势线性外推,2035年会是什么样子?其中哪些是我觉得相当确定的,哪些充满变数?
写这封信的价值不是预测对不对,而是:让2035年的自己能回头看,当初的判断框架是否正确,错在哪里。
我比较确定的事情
软件工程的抽象层级会继续上移。
这是一个贯穿整个软件工程史的趋势:从机器码到汇编,从汇编到C,从C到Java,从Java到各种高层框架。每一次抽象上移,工程师的工作都从"写底层实现"变成了"描述意图和约束"。
在2026年,AI代码助手已经让很多"写模板代码"的工作半自动化了。我预测到2035年,对于一个很大类的功能需求,工程师的工作会更像是"写清楚需求和约束,然后审查AI生成的实现",而不是逐行写代码。
这不是在说工程师会失业,而是工程师的核心价值会转移:从"写对代码"到"判断代码是否真正解决了问题"。这两件事所需要的技能是不同的——后者需要更深的系统理解和业务判断。
AI应用工程这个职位会标准化。
现在"AI工程师"还是一个模糊的职位,每家公司对它的定义都不一样。我预测到2035年,这个职位会有相对标准化的技能体系和职级体系,就像今天"Java高级工程师"是一个有清晰定义的职位一样。
这个标准化过程意味着:进入门槛会有所提高(会的人更多了),但顶端的人的价值也会更高(真正理解系统的人更稀缺了)。
AI的可靠性问题会变得更加核心。
现在大家讨论AI的焦点是"能不能做到"。到2035年,焦点会转移到"能不能稳定可靠地做到"。幻觉问题、一致性问题、安全性问题,会是AI工程的核心挑战,而不是现在的"效果调优"。
这意味着:懂传统软件工程的工程师(测试、可观测性、容错设计)在AI系统里的价值会变大,不只是会prompt的人才算AI工程师。
我真心不确定的事情
通用人工智能(AGI)会在2035年之前出现吗?
这个问题我真的不知道。而且更重要的是:即使出现了,"出现"是什么意思?AGI不是一个二元的开关,而是一个程度问题。
我的直觉是:到2035年,AI的能力会显著超过今天,但"AGI"这个词的定义本身会变成一个争议点,因为不同人对它的定义不同,而且能力的提升是非均匀的——在某些任务上远超人类,在某些任务上依然表现奇怪。
编程这个职业会消失吗?
我的直觉是不会在2035年消失,但会深刻转型。不过我对这个判断没有很高的信心。
有一个让我不安的思路:如果AI已经能够从需求描述直接生成高质量的代码,而且能够自我测试、自我修复,那么"程序员"这个职位的存在意义是什么?也许答案是:需求描述本身需要足够精确,而把模糊的业务需求转化为精确的AI可理解的描述,这本身就是一种工程技能。
但我不确定这种转变是"工程师的工作重心转移"还是"工程师的总需求下降"。
AI会改变知识本身的价值吗?
现在知识的价值很大程度来自它的稀缺性:懂JVM原理的人比只会调Spring Boot参数的人更有价值,因为前者更稀缺。
如果AI让知识的获取成本趋近于零,那么知识的价值会跌吗?我觉得某些类型的知识会贬值(可以通过询问AI快速获取的知识),但另一些知识会升值(基于大量实践经验积累的判断力,AI无法简单复制)。
问题是:2035年,这条分界线会划在哪里?
给2035年的自己几个问题
第一个问题:你的核心工作是什么?
在2026年,我每天的工作是写代码、设计架构、review方案、写文档、讨论需求。
我想知道:2035年你的工作日里,比例最高的活动是什么?还是写代码吗?还是在做架构判断吗?还是变成了更多的"描述和审查"?
这个答案会告诉我,这封信里的预测中哪些是对的。
第二个问题:你最有价值的技能是什么?
在2026年,我觉得一个AI工程师最有价值的技能组合是:扎实的软件工程基础 + AI系统的理解 + 业务判断力。
2035年还是这样吗?有没有哪个技能的权重发生了根本性的变化?有没有2026年你根本想不到的新技能变得非常重要?
第三个问题:你感到幸福吗?
这个问题不是矫情,而是在提醒你:技术是手段,不是目的。
如果你在2035年因为深度参与了AI工程领域而实现了某些东西——帮助了一些人,做出了一些真正有意义的产品,在某个领域贡献了一些真正有价值的思考——那这个职业转型是值得的。
如果你只是跟上了技术浪潮,但依然感到空洞,那要想想是哪里出了问题。
写给现在读到这篇文章的人
这封信表面上是写给"10年后的自己",但实际上写给的是现在的你。
关于2035年AI工程师的工作,我有一个判断:现在你选择专注于哪些事情,会对你10年后在这个行业的位置产生决定性的影响。
不是因为预测一定准,而是因为:如果你现在就开始思考这些问题,你就会做出更有方向感的学习和工作决策,而不是随波逐流。
具体来说,我觉得现在值得投入的方向有这么几个:
1. 深化软件工程基础,不要只追AI表面
LLM的API调用今天可能只要三行代码,明天可能变了。但设计高可用系统的原则、理解数据库索引的本质、掌握并发控制的机制——这些知识在10年后依然有价值。AI会让这些知识的应用方式改变,但不会让这些知识本身变得无用。
2. 培养"AI质量判断力"
不只是会用AI,还要能评估AI的输出质量。这包括:识别幻觉、评估推理是否可靠、理解边界条件在哪里。这种判断力,在AI越来越渗入关键系统的2035年,会变得极其重要。
3. 建立自己的工程品味
工程品味是什么?是看到一个方案,能凭直觉感知到它的优雅程度、可维护性、潜在问题。这是一种通过大量实践积累的模式识别能力,是AI很难快速复制的东西。
现在积累你的工程品味——多读好代码,多研究优秀的开源项目架构,多在踩坑后深入反思。
4. 投资在人上,不只是在技术上
10年后,技术会变,但人际关系的积累不会归零。你在2026年帮助过的人,在2035年也许是你最有价值的合作伙伴。你在2026年建立的职业声誉,是你在2035年的资本之一。
不要因为专注于技术而忽视了对人的投资。
一个技术预测:到2035年的AI系统架构
让我尝试做一个相对具体的技术预测,虽然我知道很可能会错。
我预测2035年的典型企业级AI系统会是这样的架构:
和2026年相比,最大的变化会在"规划层"和"验证层":
- 规划层会从今天的"根据提示执行单次任务"变成"自主把复杂目标分解成可执行的子任务序列"
- 验证层会从今天的"由人工来判断对错"变成"系统自主检验输出的一致性和合理性"
这两个变化意味着AI系统的自主程度会大幅提高,但对工程师的"可靠性设计"要求也会随之提高——一个自主执行能力强但没有可靠验证机制的系统,风险是巨大的。
我对这个预测的信心:大方向应该对,但具体实现方式可能和我想象的完全不同。
结尾:给这封信一个边界
我知道有人会说:预测10年后的技术没有意义,因为变化太快了。
我不完全同意这个观点。预测具体技术的细节确实很难,但预测技术变化的方向性规律,是有意义的。
人类社会的工具一直在演进,但人类面对新工具的挑战却有相似的模式:适应新工具、利用新工具放大自己的能力、在新工具还无法替代的领域找到自己的位置。
10年后也会是这个模式。
工具会变,但能快速理解新工具、能把新工具与深厚经验结合、能判断工具的边界在哪里的人,永远有位置。
这是我最有信心的预测。
