
人工智能 AI (图片来源: 免费图片 Pexels )
【看中国2026年2月5日讯】人工智能的本质,是用算力、数据和算法,把原来只能靠人脑完成的复杂判断,交给机器来做。对任何一个现代国家来说,它至少同时触动四条“神经”:增长神经——能不能用AI把效率再榨一轮,把过去靠房地产、廉价劳动力、出口赚来的那部分增长续上。安全神经——谁能控制算法,谁就有更强的网络战能力、情报分析能力、舆论操控能力。军备神经——无人机集群、智能制导、战场决策辅助,都离不开AI。合法性神经——在体制遇到信任危机时,掌权者会倾向于用技术维持秩序、管理社会,把“治理能力现代化”当成新的合法性来源。
与美国以市场、大学、科技巨头为主导、政府“兜底”的路径不同,中国走的是一条以党国为核心、举国体制为抓手,把AI当成“新质生产力”与国家安全工具的路径。对北京来说,人工智能是和高端制造、电动车、绿色能源一起,组成的新一代“国家战略产业集群”。目标不是满足国内需求这么简单,而是在全球产业链中占据高地,在标准制定和供应链控制上压过美国和其盟友。要理解接下来几年中美人工智能竞争的走向,把所有宣传口号先放到一边,从最基本的逻辑看国家行为,会得到一个简单的结论:只要人工智能是一种“通用技术”,能同时改变经济、军事实力和社会控制方式,那么中国一定都会押注。
人工智能战略:从“新质生产力”到“算法治国”
习近平在2026年首次与部长及各省级官员举行的正式会议上强调,必须推进自主技术发展——尤其是人工智能(AI)——因为这个全球第二大经济体正推动以创新引领的增长。习近平把话说得很直白:人工智能、量子计算、生物技术是新一轮科技革命的前沿技术,其中人工智能“最为引人注目”,被视为足以和蒸汽机、电力、互联网相提并论的“划时代技术变革”。同时,他又用另一个高频词给这一轮部署定了调——“新质生产力”。在官方叙事中,AI不只是一个行业,而是支撑未来经济增长、提升生产率、突破美国“卡脖子”的关键支点,要写进“十五五”规划,要服务于2035年“基本实现社会主义现代化”的路线图。
如果从功能维度拆开来看,中国版AI战略至少有五层含义:经济层面:为失速的增长再找一个“发动机”。中国已经告别了房地产+基建驱动的高速增长阶段。2025年GDP虽然仍实现约5%增长,但房地产低迷、消费谨慎、青年失业、价格战和人口老龄化,压在经济头顶的几块石头并没有挪开。
在这种情况下,把AI包装成“新质生产力”,本质是希望通过智能制造、自动驾驶、工业互联网、金融风控、智慧城市等应用场景,给传统行业注入新的利润空间,让生产率再抬一截。地方政府编制新一轮五年规划,深圳、上海、浙江都把AI写进了重点产业布局,寄望很明显:借AI带动投资、带动税收、带动高薪岗位。
科技层面:绕过美国的“芯片封锁”。在美国看来,中国的AI不是“孤立技术问题”,而是和军民融合、军队智能化连在一起的安全风险。因此这几年最关键的一组政策,就是用出口管制限制中国获取高端GPU和先进制程芯片。2022年以来,美国商务部多次升级对华芯片与AI硬件的管制规则,限制英伟达等公司向中国出口高性能芯片,并通过CHIPS and Science Act在本土大规模补贴半导体产业。中国的回应,就是加码“自主可控”。在Xi的表述中,AI与高端芯片绑定成一个整体,既要通过“举国体制”集中资源攻关,也要培育一批“国家队”公司,用政策保护和资源倾斜来赌一批赢家。
政治层面:从“无处不在的摄像头”到“无所不在的算法”。过去十年,中国建立大规模城市摄像头网络、“天网”“雪亮工程”等一整套数字监控体系,结合人脸识别、大数据,把公共空间的可视化控制做到了非常细致的程度。下一步,算法将接过摄像头的接力棒。2023年出台的《生成式人工智能服务管理暂行办法》,明确要求所有面向公众的生成式AI模型“坚持社会主义核心价值观”,要经过官方安全审查,内容上不能挑战既有政治叙事。监管部门一方面要求企业在训练数据、敏感词过滤、内容审查上做多层“安全垫”,另一方面自己也推出了内部使用的政治大模型,例如以习近平讲话和官方文献为训练文本的“Chat Xi PT”。这说明,在决策层眼里,人工智能首先是一种“治理工具”:既要提升社会管理效率,也要在舆论与意识形态层面做加法。就像遍布全国的摄像头被解释为“守护国家安全”的基础设施,未来的智能算法也将被包装成维护稳定、防范风险的必需品,用来巩固党的长期执政。
文化与舆论层面:用“社会主义AI”讲好官方故事。AI不只是算力,也是一种叙事工具。谁掌握推荐算法、搜索结果排序、内容生成模型,谁就有更大的能力塑造公众“看见什么”“相信什么”。中国对生成式AI的监管,要求模型输出“正能量”,回避或淡化敏感历史事件,对领导人形象保持一贯的正面描绘。监管部门对几家互联网平台的审核实践中,已经把“不能否定党的领导”“不能传播历史虚无主义”写进技术标准。这意味着,未来中国本土的大模型,很可能在文化和舆论层面形成一种“有棱角的驯服”:在生活类、商业类问题上可以非常聪明,但在政治与意识形态问题上必须高度一致。
军事层面:走向“智能化战争”的竞争。在解放军的规划里,未来战争的关键词已经从“机械化”“信息化”,转向“智能化”。AI在目标识别、态势感知、作战推演、无人作战系统控制中的作用,已经被写入多份公开的军事文件。对北京来说,这一轮AI投入,不只是为经济找新出路,也是为与美国的整体战略竞争准备新的筹码——在西太平洋、在太空、在网络空间,谁先把AI深度嵌入作战系统,谁就有可能在局部冲突中占据优势。
举国体制:跑在世界前面,还是加大政治风险
举国体制的AI,会不会跑在世界前面?这个问题不能用一句“会”或“不会”回答,更现实的答案可能是:在一些垂直场景,中国会领先;在通用基础模型和开放生态上,短期内难以超越美国。在工业互联网、智慧城市、金融风控、政务服务等结合本土场景的领域,中国企业可以借助政策支持和市场规模,在工程落地上形成优势。在社会监控和公共安全技术上,中国已经在全球输出了一整套软硬件打包方案,从摄像头到人脸识别,再到城市大脑,很多发展中国家正在引入类似系统。在通用大模型、开源生态、前沿基座模型研究上,美国的算力和科研生态暂时仍有明显优势,欧洲在规范制定与道德框架上也拥有话语权。
举国体制可以让中国在某些应用赛道上“弯道超车”,但如果算力被卡、科研环境受限、私营科技公司信心不足,那么在最顶层的技术突破上,举国体制未必就是加速器,也可能成为某种“技术天花板”。
从摄像头到大模型,中国正在建设的是一种“算法型党国”,希望用AI把人、物、事都纳入可以计算、可以预测的轨道;美国则在一个矛盾的状态中,一边依赖AI继续拉高科技巨头的利润,一边担心AI放大假新闻、加深社会极化。习近平说,AI一旦被不当使用,会带来虚假信息、数据窃取,甚至“失去控制”,所以要“审慎和谨慎”。这句话背后,是一个党国对技术可能反噬自身的担心:如果有一天,算法不再完全听命于既定叙事,如果有一天,底层社会借助AI建立了超出既有结构的协作网络,那么“控制”这个关键词就会变得复杂得多。
在一个党国体制中,AI会先成为巩固统治的工具,再被考虑如何“普惠”;在一个多元民主体制中,AI会先成为资本逐利的工具,再被考虑如何“规制”。举国体制下的中国AI,的确有可能在某些领域跑在世界前面,但也更有可能被自身的政治逻辑绑架,优先服务于“看得更清、控得更严”;美国的市场驱动AI,继续在基础理论和通用模型上领先,却也可能被国内的极化、贪婪和恐惧拉扯得摇摇欲坠。真正决定输赢的,也许不是哪一边率先推出“更聪明的模型”,而是哪一边能在技术狂飙之时,守住一个最简单的原则:技术为人,而不是人被技术和权力一起当成可塑的材料。
在这次讲话中,习近平也强调了人工智能的风险。他提到,AI一旦被不当使用,就会滋生虚假信息、数据窃取,甚至“导致我们失去控制”,因此必须“未雨绸缪、果断处置”,以“审慎和谨慎”的态度来预判和防范问题。
这段话从表面看,和欧美很多领导人谈AI风险的口径很接近:假信息、网络犯罪、系统失控,都是全球共同关注的议题。但结合中国近年的监管实践,可以看出,决策层最担心的“失控”,其实主要集中在两类风险:政治风险——AI放大了“非授权叙事”的传播能力,可能突破传统媒体与平台审查的防线。安全风险——算法和大模型可能被用来攻击关键基础设施,或被境外情报机构利用,反向挖掘数据。
换句话说,中国官方对AI的态度,不是“要不要控制”,而是“如何把它纳入既有的控制秩序”。对内,要防止模型说出“不该说的话”,要防止民间借助AI自主组织、跨区动员;对外,要防止数据信息过度外流,被对手“反制”。这和美国、欧盟把AI风险重点放在隐私、偏见、劳动市场冲击等方面,侧重点明显不同。在美国,真正的风险则更多指向另一边:AI可能被极端政治势力、阴谋论者利用,进一步撕裂社会共识;可能加剧资本对劳动力的挤压,让底层“被替代感”更强;可能让少数巨头掌握前所未有的“平台权力”,在缺乏足够民主监督的情况下,对公共生活施加强大影响。中美各自最害怕的东西不一样,但都有一个共通点:人工智能正在放大原有制度的优点,也在放大原有制度的裂缝。人工智能的未来走向,取决与各自对风险的掌控。在这一点上,两种体制都没有安全牌,两边都在考试。
(文章仅代表作者个人立场和观点)来源:CND
短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.
【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。








