大厂禁用Cursor,程序员重返手搓时代的挑战
近日,大厂纷纷禁用Cursor,引发程序员热议,这是否意味着程序员将回归“手搓时代”?对此,业内人士表示,禁用Cursor是为了提高编程效率和代码质量,促使程序员更加注重编程技巧和基础,虽然使用Cursor可以方便地进行操作,但过度依赖可能导致代码质量下降,影响软件开发效率,禁用Cursor并非让程序员回到“手搓时代”,而是推动其提高技能水平,适应新的编程环境。
又一家大厂,建起了自己的代码防火墙。
近日,据鞭牛士报道,相关人士爆料称,快手的研发线发布通知,对几款第三方编程软件收紧了使用权限。不少同学发现,只要在自己办公电脑上点开Cursor,它就直接闪退,根本用不了。
这导致一些早已将AI编程工具深度融入日常开发流程的工程师措手不及。主力辅助工具的突然失效,不仅打断了高度自动化的编码节奏,也让许多原本由AI即时补全或生成的环节被迫回归手动操作,整体开发效率明显下滑。
原本几分钟就能自动生成的模板代码,现在又得手动敲;原本靠自然语言描述就能完成的函数逻辑,如今不得不重新翻文档、查API。效率断崖式下跌,工作流被打断,甚至员工调侃:“没Cursor的日子,我连Hello World都写不顺了。”
而这其实并非孤例。在过去两年中AI工具从“新奇玩具”迅速演变为“开发标配”的过程中,越来越多技术团队开始面临一个两难命题:一边是肉眼可见的效率跃升,一边是难以量化的安全隐忧。
当一行由远程模型生成的代码可能携带着未知的数据回传、训练偏见甚至知识产权瑕疵,企业不得不重新评估——所谓“智能辅助”,边界究竟该划在哪里?
那么,类似的情况在其他大厂是否也已出现?这样的“代码防火墙”,究竟是未雨绸缪的安全防线,还是因噎废食的过度防御?其背后的考量、潜在的风险与实际收益,又该如何权衡?
01、字节微软亚马逊,选择牺牲效率要安全?
事实上,对代码与数据安全的警惕,并非AI时代才有的新课题,早在大模型尚未渗透进开发流程的年代,企业就已建立起层层防护机制。
事实上,对代码与数据安全的警惕,并非AI时代才有的新课题。早在大模型尚未渗透进开发流程的年代,企业就已建立起层层防护机制,其核心目标之一,正是防止敏感代码和业务逻辑通过开发工具或外部服务意外外泄。
上世纪末至2000年代初,随着开源协作和远程开发逐渐普及,企业开始严格限制开发者使用未经审核的第三方IDE插件、脚本工具或远程调试服务。彼时的管控逻辑很简单:任何可能将本地代码上传至外部服务器的行为,都被视为潜在的数据泄露风险。
于是,“禁止使用非官方插件”“禁用自动错误上报”“关闭远程日志回传”等策略,成为大型科技公司研发安全基线的一部分。
进入云时代后,这一原则并未松动,反而更加制度化。
即便是在广泛采用GitHub、GitLab等平台的今天,许多企业仍强制要求私有仓库隔离、代码提交审计,甚至对剪贴板操作、屏幕共享等行为进行监控,目的只有一个:确保核心代码不出内网。
而如今,当Cursor、Copilot这类AI编程工具默认将用户输入发送至云端模型进行推理时,它们本质上触发了同一套安全警报机制:你写的每一行注释、每一段未提交的草稿,都可能在不经意间离开企业边界。
正因如此,快手此次对AI编程工具的限制,其实是行业集体转向的一个缩影。
当“代码即资产”的认知深入人心,任何可能将未公开代码片段上传至外部模型的行为,都会被安全团队视为不可接受的风险敞口。事实上,在过去一年中,多家科技巨头已悄然收紧对第三方AI开发工具的管控,甚至不惜以牺牲短期效率为代价,也要守住数据主权的底线。
字节是最早采取系统性措施的公司之一。
5月28日,其安全与风控部门向全体员工发送邮件,明确指出:“为防范潜在的数据泄露风险”,自6月30日起,将在内部分批次禁用包括Cursor、Windsurf在内的第三方AI编程软件。
与此同时,字节大力推广其自研的智能编程助手Trae,要求研发团队逐步迁移至该内部工具。这一举措不仅切断了外部模型对内部代码的“窥探”路径,也标志着其在AI辅助开发领域加速构建技术闭环。
几乎在同一时间,微软也在政策层面划下红线。
9月,在一场国会听证会上,公司副董事长兼总裁布拉德·史密斯公开表示,微软已全面禁止员工使用DeepSeek相关应用。“我们不允许任何未经审查的AI服务接触公司代码库,”他强调,“这不仅关乎知识产权,更涉及客户信任。”
除去国别因素外,北美的不同企业间也在相互“提防”。
据路透社报道,亚马逊近期向工程师发布内部备忘录,要求优先使用自研AI编码工具「Kiro」,并明确表示将不再支持任何新增的第三方AI开发工具接入开发环境。
这意味着,包括OpenAI的Codex、Anthropic的Claude Code,以及广受开发者欢迎的Cursor等工具,均被排除在官方推荐列表之外。备忘录特别指出:“所有代码生成行为必须发生在可控、可审计的内部系统中。”
而除了这些互联网企业之外,一些本就注重数据安全的老牌大厂就更不用说了。譬如位于深圳的ICT、计算头部企业,也一直秉持着内部信息不上网的要求,任何向外部网络上传文件的行为也都被从底层程序上禁止。
如今,用自家的AI产品写自家的代码,已不再是某一家公司的临时策略,而正在成为行业默认的生存法则。在这个代码即竞争力、模型即风险源的时代,所有规模较大的企业,宁可牺牲显著的开发效率,也要确保代码与数据的安全。
02、低效率和不安全,企业更怕哪个?
然而,当大厂们纷纷筑起代码高墙,另一股声音也在员工之间不断回响:过度封锁是否正在扼杀创新?在AI重构软件工程范式的今天,拒绝高效工具或许能守住数据,却也可能让企业错失生产力跃迁的关键窗口。
作为这轮AI浪潮中收益最大的企业,英伟达CEO黄仁勋始终强调AI对生产力的根本性提升,并在三季度公布历史最高的570亿美元季度营收后,给员工们下达了一条“AI时代的职场铁律”:
“只要一项任务可以被AI自动化,就应该 AI自动化。为什么不呢?”
而他对于那些不鼓励员工们使用AI的管理者也提出了罕见的强烈质疑:“你们疯了吗?”
在黄仁勋看来,AI工具带来的效率提升并非边际效应,而是指数级的。在如今竞争白热化的技术领域,任何对外部高效工具的系统性禁用,都可能使企业在人才吸引力和项目交付速度上全面落后。
这种生产力与安全之间的矛盾,在国内大厂的研发一线体现得尤为尖锐。
当外部的Cursor、Copilot等工具因安全顾虑被一刀切地禁用后,许多工程师被迫转而使用公司自研的内部替代品。然而,这些内部工具的表现往往不尽如人意。
一位来自某大型电商平台的资深后端工程师Leo在交流中向我们表示,他所在的团队已完全切换至内部AI助手,但体验非常糟糕:
“以前用Cursor写注释,它能直接给我生成一个80%可用的函数体。现在这个内部的工具,经常给我的建议都是错的,而且是在我写到一半时才弹出来,反而干扰思路。我现在最大的痛苦就是,明明知道外面有更好用的‘武器’,但却被要求用一把‘生锈的刀’。 效率下降是实实在在的。”
这种对内部工具的“吐槽”,在技术社区中形成了大量共鸣。一个程序员群体中流传的经典笑话,正是对这种低效辅助的无奈写照:“如果一个函数你写了90%,剩下10%让国内的AI编程应用补,它能给你把前面90%的代码全部改错。”
更令人啼笑皆非的是,随着程序员与这些尚不成熟的AI助手磨合,他们与机器的“对话”模式也开始变得反常和充满怨气。我们从一张流传于技术圈内的“Top 20 AI Prompt编程语言”榜单中,可以看到这种独特的“黑色幽默”。
这张榜单并非传统意义上的编程语言,而是程序员在与AI编程工具交互时,最常说出的“提问”和“指令”——实际上更像是抱怨和请求。
从榜单中可以看出,除了排名第一的“给我生成完整可运行的代码”是正常需求外,大量高频指令如“别又给我生成一个TODO”、“这个错误你上次就犯过”、以及直白的“你这代码根本编译不过”,都揭示了程序员对某些AI工具低效、重复犯错和缺乏上下文理解的强烈不满。
这些“提示词”本质上是在对AI进行“纠错”和“调教”,而非顺畅的协作。对于习惯了Copilot和Cursor等工具高召回率和上下文理解能力的工程师来说,这种体验无异于降维打击。
因此,许多工程师认为,在当前阶段,一味地追求“绝对安全”而禁用外部顶尖工具,是在用看得见的效率损失,去换取看不见的、概率极低的潜在数据风险。
安全固然是底线,但如果技术团队因此失去了30%甚至更高的开发效率,导致产品迭代速度放缓,最终损害的还是企业的核心竞争力。
在AI浪潮席卷开发领域的今天,代码安全已成为所有科技巨头必须守住的“第一性原理”。
从历史遗留的安全基线,到自研工具的技术闭环,大厂们正以前所未有的速度筑起“代码防火墙”。然而,墙内墙外的AI效率鸿沟,也真实地将工程师们困在了“既要安全,又怕落后”的两难境地。
是继续使用相对低效的内部工具,忍受工程师的抱怨和生产力的折损,以确保代码的绝对主权?还是在审慎评估风险后,探索更安全的外部工具部署方式,拥抱全球最前沿的生产力跃迁?
这场关于数据主权和技术效率的博弈,最终的裁决权,交给了大厂自己。但可以确定的是,在AI重塑软件工程的时代,安全策略本身,也需要一场智能化的升级。
