1956年,麻省理工学院的教授罗伯特·索洛(RobertSolow)发表了一篇关于经济稳步的增长问题的论文。这篇论文用十分简洁的数学公式将资本、人口、储蓄率、技术、国民收入等重要的经济概念串接了起来,构造了一个关于储蓄、资本积累和人均收入增长之间互动关系的模型。这个模型一经发表,就引起了学界的格外的重视。有学者觉得,索洛用最简单的语言给出了对现代经济稳步的增长最好的描述,他的模型几乎能被称为“上帝的模型”。
在模型中,索洛主要是试图用储蓄导致的人均资本变化来解释人均收入的变化,但在建模过程中,他却发现还有一个余项对人均收入的影响是不可忽视的。1957年,他基于自己的模型进行了一个统计核算,发现人均资本的变动只能解释人均收入变动的12.5%,其他的87.5%则来自于这个余项的贡献。这个余项是什么呢?索洛给出的答案是技术进步。如果照此解释,那么与其说他的模型给出的是储蓄和人均资本存量的关系,倒不如说是论证了技术进步对于增长的重要性。
在索洛之后,有很多学者尝试在索洛的基本核算模型中加入各种要素,试图用它们来对增长进行解释,结果是反复证实了技术在增长过程中的重要性。这就启发人们,要真正解释增长的奥秘,理解人口规模、资本存量等宏观要素的决定规律固然重要,但最为根本的却是揭开技术进步的奥秘。而要做到这一点,就必须从更为微观的视角入手来加以考察。
要揭开技术进步的奥秘,我们第一步要对技术的本质进行一些探讨。关于这一个问题,历史上已经有很多人从不同的角度给出过讨论。其中,一个比较务实而有启发性的论述来自于布莱恩·阿瑟。在《技术的本质》一书中,阿瑟将技术定义为了一个递归的过程:所有技术都是对已有技术的组合。用通俗的话讲,就是新的技术不会凭空长出来,而是依照某种目的性,对现有的技术进行重新排列组合而得。
以现在各界热议的ChatGPT为例,它被认为是一个开创性的技术成果。但事实上,它应用的生成技术自回归方法早在2004年就已经提出了,但因难以解决长期记忆等问题而被认为是一个不算成功的方法;而它的训练架构Transformer在2017年就有了,在它提出之初,也被人忽视。但OpenAI将这两个技术组合在一起,就开发出了强大的ChatGPT。组合创新的力量,由此可见一斑。
如果我们对技术演化的历史进行一番更为深入的考察,就会发现那些重大的技术——无论是蒸汽机、发电机,还是晶体管、芯片,其发明都是来自于组合创新的力量。晶体管的发明人之一、1956年诺贝尔物理学奖得主威廉·肖克利(WilliamShockley)曾说过,“所谓创新,就是把以前独立的发明组合起来”,其道理就在于此。
理解了这一点之后,我们就可以进一步从组合变迁的角度来对技术进步进行思考。具体来说,我们应该对“谁来负责组合”、“以什么目标组合”、“在什么条件下组合”等问题进行考察。
在20世纪的技术发展史上,贝尔实验室是一个绕不过去的名词。在这里,走出过15位诺贝尔奖获得者、7位图灵奖获得者以及其他各种奖项得主。据粗略统计,贝尔实验室一共获得过3万多项专利。晶体管、激光器、太阳能电池、发光二极管、数字交换机、通信卫星、电子数字计算机、C语言、UNIX……这一长串后来改变世界的技术最初都来自于贝尔实验室。
究竟是什么原因,使得这样的一所由企业创办的研究机构成为了二十世纪的创意工厂呢?一般认为,这归功于其独特的运作机制。1950年,时任贝尔实验室主任的默文·凯利(MervinJ.Kelly)提出了将贝尔实验室建成“创意技术学院”的构想,并按照这一理念对实验室进行了改造。
首先,在研究人员的招揽上,凯利采用了兼收并蓄的策略。虽然贝尔实验室每年招聘的人数不多,但十分注重质量和多样性。各行各业的人才,无论是理论人才,还是技术高手,只要有真才实学,都能在贝尔找到工作。从技术组合的角度看,这种招聘方式大幅扩展了技术组合的可行集。可行集大了,可能组合出的新技术也就多了。
从后来的实践看,这种人才招聘思路产生了很好的结果。例如,在点触式晶体管的发明过程中,理论物理出身的巴丁(JohnBardeen)虽然以其天才的想象力很快就想出了新发明的基本结构,但将构思变成真正的产品时却遭遇了困难:他很难找到一种合适的材料来充当电极。多亏了同事、化学家吉布尼的建议,他才顺利解决了这一难题。可以想象,如果没有这种不同技术背景之间的人才的合作,巴丁固然也可能通过像爱迪生测试灯芯材料一样,用穷举法找出合适的电极材料,但这个过程就会是十分漫长的。
其次,在人员的管理方面,凯利主张给研究人员充分的自由。他认为,任何干扰都会使研究人员失去“与他们科学兴趣前沿的联系”,并降低研究效率。基于这一思路,他主张尽可能不要给研究设定目标、进度表和最后期限。在这种宽松的安排之下,研究人员可以更多地按照自己的兴趣去选择研究领域。
再次,在研究环境的营造上,凯利也花费了很大心思。从工位设计到办公室、实验室的布局,他都亲自进行了设计,力图为研究人员创造出更为舒适的环境,从而让他们更好地激发创意。
贝尔实验室从一个企业实验室成功地转变成了一个新技术的孵化器。在这个孵化器里,各种背景、各种专业的人可以高度自由地将自己的思想贡献出来,相互激荡。不同的旧技术要素就在这种激荡中相互交融,新的技术自然而然地涌现了出来。
不过,贝尔实验室虽然创造出了数以万计的新技术,但这些技术大部分并没有成为贝尔自身的优势。在很多新技术取得突破之后,技术的发明人就立即离开了贝尔——事实上,也正是通过这种方式,贝尔才成为了整个硅谷,乃至整个美国的创新之源。那么,究竟是什么导致了这一切呢?在我看来,原因主要有两点:
一是错误地采用了让研究人员作为管理者的模式。一个好的研究者通常可以在自己的技术领域有很多的建树,但他在管理上却未必是称职的。尤其是当一个研究人员在某个方向上有很高成就时,他就可能非常执拗地要求团队沿着自己的方向去进行扩展,而不顾这样做有多大的成功概率,又能带来多大的经济收益。这样,不仅技术进行组合式创新的可行集会大幅缩小,即使真的能够有所创新,它也未必是符合经济效益的。
二是经济利益的缺乏。一个人将兴趣作为职业,总有一天,他也会对这个兴趣感到厌倦。在这个时候,如果还需要让他继续这个兴趣,就需要提供额外的激励。这一点对于科研来说,也是成立的。一开始,研究人员对技术的钻研大多是源于兴趣,但一旦这个技术成功了,有了商业价值,就必须及时给他提供对应的经济分成,否则对于多数的研究人员而言,其热情就会很快耗尽。然而,贝尔实验室偏偏就缺少这样的机制。或许是要突出机构的研究属性,所以研究人员所取得的专利都归实验室,研究人员本人只有署名权。这就导致了很多研究人员的不平,最终愤而出走。
关于贝尔实验室最后衰落的原因,或许我们可以在肖克利的身上集中找到。在贝尔实验室,他是最早萌生开发晶体管想法的人,也正是他拉来了布拉顿(WalterBrattain)、巴丁等人一起进行晶体管的研发。然而,当布拉顿和巴丁证明,肖克利最初的设想并不是最佳方案,并且找到了自己的技术路线后,肖克利却心生嫉妒。作为领导,他开始向二人隐瞒自己的新思路,并偷偷在二人的基础上进行研究。不仅如此,他还将自己的想法整理成了专利,并且只署了自己的名字。他的这种自私的做法完全激怒了布拉顿和巴丁,最终两人愤而出走,离开了贝尔实验室。
后来,肖克利因为在晶体管上的成就而声名大噪,但贝尔又没有对应的激励机制,因而他也选择了离开贝尔,单独创业。作为行业专家,他非常慧眼识珠地招募了包括诺伊斯(RobertNoyce)、摩尔(GordonMoore)等当时还名不见经传的员工。然而,肖克利并没有给这些部下足够的自由空间,而是执拗地让他们继续改良自己钟爱的PNPN二极管。最终,这导致了这批优秀人才的出走,并成立了“仙童”公司。
通过对贝尔实验室兴衰的复盘,我们可以看到,让一些具有不同专业背景的人聚集在一个宽松的环境当中,或许是催生组合式创新、实现技术突破的一个良好途径。但是,我们也不能高估专家学者的献身精神,对于他们的利益诉求也要考虑。在知识产权领域,有一句话叫做“创新来自于天才之火加上利益之油”,这个总结可谓十分到位。
通过贝尔实验室和肖克利的例子我们可以看到,由于种种原因,一些研究人员在取得了重大的研发成果之后,会选择离开原本供职的大公司。如果从原公司的角度看,这无疑是一个损失,但如果从社会的角度看,结论可能是相反的。当这些人带着技术出走之后,他们就将技术扩散了出去。通过将这些技术与市场上的其他技术再组合,就可以取得更多的突破,创造出更多的新技术。但是,在这个过程当中,就存在一个问题——一般来说,技术人员不会拥有很多财富,他们又有什么能力将自己的研究成果转化为产品,并最终从中获取回报呢?这时,风险投资(VentureCapital)就扮演了很重要的作用。
和一般的股权投资不同,风险投资主要是针对初创企业的,所以它更看重企业成长后带来的股权价值上涨。因此,风险投资不仅可以帮助初创企业解决急需的资金问题,还会对其发展提供各种支持。
不仅如此,风险投资还具有一项重要的职能——筛选项目。总体上看,技术专家对于市场的敏感性是相对较差的。他们或许很懂自己的产品,但却可能不知道它能在什么地方发挥作用。因而,纯粹的技术专家通常会劳神费力,最后做出一个不被市场认可的东西。但是,风险投资者是追求利润的,也通常对市场的需求更为敏锐。他们在进行投资前,会对项目进行评估,在投资之后,还会不断对投资目标提出自己的建议。这样一来,手握技术的企业就可以更为精准地把技术和市场需求结合起来,找到更有价值的技术进步之路。从社会层面看,这是大幅改善了资源的配置效率。
从历史上看,硅谷的兴起在很大程度上就源于风险投资的支持,而这一切的源头来自于仙童的实践。如前所述,当肖克利自立门户之后,其独断专行的风格依然没有改变。很快,他手下的七位研究员就开始受不了他的瞎指挥,准备跳槽单干。但这时,他们也遭遇了所有创业者都会遇到的问题:没钱,也不知道怎么干。情急之下,七人中的克莱纳(EugeneKleiner)试着给负责他父亲企业银行业务的纽约海登斯通投资银行(HaydenStone&Co.)写了一封信,附了一份十分简陋的商业计划书,希望以此获得投资。这封信辗转落到了海登斯通投资银行员工亚瑟·洛克(ArthurRock)的手里,洛克从信中读到了半导体行业的巨大商机,于是就说服自己的老板巴德·科伊尔(BudCoyle)一起会见了这群年轻人,并许诺如果他们辞职,将会给予支持。
有了投资人的支持,七人就有了底气。他们又说服了肖克利麾下的技术骨干诺伊斯,一同辞职。这八个人,就是IT史上著名的“八叛将”。在八人辞职之后,洛克就开始着手为他们寻找资金。经过一番周折,他说服了仙童照相机与仪器公司(FairchildCamera&Instrument)的老板谢尔曼·费尔柴尔德(ShermanFairchild)出资150万美元对“八叛将”进行支持。于是,在历史上第一笔真正意义上的风险投资的助力之下,硅谷历史上的传奇仙童半导体公司(FairchildSemiconductor)就成立了。
这里值得一提的是,费尔柴尔德的父亲是IBM的大股东。靠着这位投资人的关系,在仙童半导体公司创建后不久,就获得了来自IBM的大单,由此赚到了第一桶金。凭借由此得来的收益,仙童很快在集成电路等领域取得了重大的突破,而“八叛将”也因此获得了巨大的收益。
虽然不久之后,“八叛将”又因各种各样的原因离开了仙童,但他们又将各自拥有的技术扩散到了更大的范围,并凭借风险投资的帮助,创造了英特尔、泰瑞达、AMD、Edex等著名的公司。
回顾这个过程,我们可以说:如果没有风险投资,就不会有仙童,更不可能有由它衍生出的众多公司。
通过以上讨论,我们已经看到,技术进步来自于对已有技术的组合,而通过环境的营造、风险投资的支持等,是可以加速这种组合的速度的。那么,一个直接的问题就来了:从政府的角度看,是不是可以用产业政策来对技术进步进行支持?如果可以,应该注意什么?在回答这两个问题之前,我们不妨来看一看日本的一段实践。
在上世纪60年代,计算机数据存储的主流设备是磁芯存储器。这种设备主要通过对金属丝网上的磁环进行磁化的变化来代表0和1,从而达到记录数据的目的。在当时看来,这种构想是相当了不起的。不过,随着计算机的迅速发展,磁芯存储的问题也迅速暴露出来。由于它需要用金属丝环来存储数据,因此要扩大存储量,就必须将这些环做得更细、更密。但是,在爆炸发展的存储需求面前,这个工艺水平很快就赶不上了。在这种情况下,人们就不得不转而探索新的存储方式。
1966年,IBM托马斯·沃森研究中心的工程师罗伯特·登纳德(RobertH.Dennard)发现了一种用金属氧化物半导体(MOS)晶体管来制作存储器芯片的新方法,并基于这一构想发明了动态随机存储器(dynamicrandomaccessmemory,简称DRAM)——或者用我们更为熟悉的叫法,就是内存。由于它用的存储介质是半导体材料,所以它的存储潜力、复用能力等都要显著高于磁芯存储器。1968年6月,IBM为DRAM的发明申请了专利。
本来,DRAM的发明足以让IBM进一步巩固自己在计算机领域的优势。但就在它为DRAM申请专利的同一年,美国司法部对其展开了反垄断调查。为了避免司法部对其提出的“捆绑销售”指控,IBM不得不放弃了自己生产DRAM的打算,转而向外部购买。这样的结果是,一个DRAM的竞争市场被激活了。
一开始,当时刚刚成立不久的英特尔在DRAM市场上占据绝对的优势。1970年,它就率先拿出了自己的DRAM产品C1103,存储容量为1KB。此后几年,它又通过不断的技术迭代,拿出了多款产品。凭借强大的研发能力,在整个20世纪70年代,英特尔几乎就是DRAM市场的霸主。然而,令英特尔没有想到的是,一个强大的对手很快就出现了。
这个对手就是日本。从上世纪50年代中期开始,日本的经济就出现了强势的增长,到1970年代,已经成为了不可忽视的经济强国。为了谋求与其经济力量一致的科技地位,日本开始大规模发展半导体产业。最开始时,日本采用与美国企业进行合作、为美国企业进行代工等方式,获得了大量重要的技术。这不仅让日本本国的半导体产业获得了迅速的成长,还让其产品扩散到了世界各地。不过,即使如此,日本在技术上依然是一个跟从者。为了扭转这一局面,1976年,在日本通产省(MinistryofInternationalTradeandIndustry,简称MITI)的牵头之下,日立、三菱、富士通、东芝、日本电气等公司联合启动了“超大规模集成电路”(TheVeryLargeScaleIntegrated,简称VLSI)研发项目,而这一项目成立后的第一个目标就是DRAM。
为了实现技术的迅速突破,通产省为VLSI项目投入了720亿日元(当时约合2.36亿美元)的补贴,各成员企业也投入了大量的配套资金。不仅如此,在赶超美国的民族主义的驱使之下,VLSI项目的成员企业还无私地把各自的人力、物力贡献出来。在这种强大的合力之下,VLSI迅速在DRAM市场上取得了突破。1980年,惠普公司在一次对DRAM的招标中就发现,当时日本的DRAM芯片无论是在质量、价格,还是交货时间方面,都对包括英特尔在内的美国企业形成了碾压之势。凭借着这些优势,日本企业很快取得了在DRAM市场上的优势。1980年代中期,英特尔出于市场考虑,退出了DRAM市场,日本企业的产品就几乎垄断了整个美国的DRAM市场。
尽管美国政府很快就认识到了来自日本的威胁,并且也仿照日本的做法,组建了半导体制造技术战略联盟,用军事订单来补贴相关企业,与此同时还用贸易政策打压日本企业,但这一切都没有打破日本对DRAM市场的统治。
日本在DRAM市场的后来居上,被认为是日本产业政策成功的一个重要案例。如前所述,技术进步需要对不同的现有技术进行组合,因此从理论上讲,掌握的现有技术越多,取得成果的可能也就越大,并且根据排列组合的规律,这种成果的扩大是具有规模效应的。因此,日本通过VLSI项目,将原本分散在各企业的资源结合在一起,并通过大规模的补贴作为启动,就相当于增大了技术进步的可能集,其爆发出的力量就足以打败任何一个单独的对手。
当然,这种产业政策来推动技术进步的局限也是明显的。它成功的前提是,研发的方向必须正确。否则,方向如果错了,投入力度越大,错误就越大。关于这一点,我们可以用日本研发第五代计算机的案例来说明。
上世纪80年代,在DRAM竞争中的大获全胜让日本尝到了产业政策的甜头。为了在半导体等高科技产业进一步确立优势,日本决定如法炮制,用同样的方法对第五代计算机进行攻关。
所谓第五代计算机,来自于当时流行的对计算机发展阶段的一种划分。最初,这种方法的阶段划分依据主要是计算机采用的电路工艺。按此标准,第一代计算机使用的主要是电子管,第二代计算机使用的是晶体管,第三代计算机使用的是集成电路,第四代计算机使用的则是超大规模集成电路,也就是VL-SI。那么第五代计算机会是什么样呢?为了回答这样的一个问题,通产省于1978年委托时任东京大学计算机中心主任的元冈达(TohruMoto-Oka)对第五代计算机进行探索。
1981年,元冈达向通产省提交了一份长达89页的报告。他认为,第五代计算机可能并不是来自于硬件工艺的突破,而是来自于体系架构和软件的创新。在他的报告中,就提出了六种先进的架构,包括逻辑程序机、函数机、关系代数机、抽象数据类型机、数据流机,以及冯诺依曼机上的创新。元冈达的观点得到了业内同行的认可,但关于日本究竟应该选择哪一种架构进行集中攻关,却成为了一个问题。
在当时,对于以上的六种架构都已经有了一些探索。其中,函数机的探索是相对来说最成熟的。比如,当时的创业公司Symbolics等已经在函数机上取得了不小的成就。因此,当时日本的不少专家也倾向于从基于函数式编程语言LISP的函数机入手进行突破。然而,以渊一博(KazuhiroFuchi)为代表的一些专家则力主攻关基于逻辑程序语言Prolog的逻辑程序机。关于渊一博为什么会坚持这一观点,有很多不同的解读。一种解读是,很多人认为第五代计算机应该是可以用自然语言实现人机之间的交互的,而在当时,人们认为要实现自然语言交互,就需要找出语言背后的规则,让机器按照规则办事。如果基于这一点考虑,沿着Prolog出发就是最合适的。还有一些解读认为,当时日本民族情绪高涨,LISP是美国人提出的,而Prolog不是,为了实现“日本第一”的梦想,日本人应该走出一条不同于美国人的路,在整个IT领域树立自己的标准。
基于Prolog的逻辑语言机最终成为了日本认定的第五代计算机的方向。为了实现这一目标,通产省如法炮制DRAM大战当中的老办法,联合几大公司,一起成立了第五代计算机研究所(InstituteofNewGenerationComputerTechnology),并任命渊一博为该所的所长,统一协调第五代计算机研发事宜。渊一博从当时的各大公司和研究机构抽调了40位精干技术人员,号称“四十浪人”来进行具体研发。为了对项目提供有力支持,通产省计划在十年内投入4.5亿美元的资金,同时参与项目的公司也会提供对应的配套资金。
整合举国之力、集中优秀人才、大力资金支持……所有的一切操作,几乎和几年前的VLSI项目如出一辙。那么,第五代计算机的研发是否会和当年的DRAM大战一样顺利呢?答案是否定的。
尽管在政府的热捧之下,第五代计算机的概念看似很热,相关的研讨会不断,论文层出不穷,但事实上,真正的技术研发却举步维艰。在很大程度上,这一点是由逻辑语言的特性决定的。在逻辑语言之下,要实现自然语言交互,就必须对交互的规则进行明确的设定。而在现实中,一个词、一句话可能有各种不同的意思,机器应该采取哪种意思,要视情景而定。对于逻辑语言来说,每一个情景的规定,就是一个逻辑前提。因此,要用这种语言来实现自然语言,其需要加入的逻辑规则是天量的。在当时的技术条件下,这根本无法实现。与此同时,随着《广场协议》的签署,日本经济高歌猛进的势头也急转直下,日本政府也不再有充足的实力来支持项目。最终,在提出了一些并不成功的样机之后,日本的第五代计算机项目就告终了。
值得一提的是,就在日本赌上其IT发展前景,大搞第五代计算机研发的同时,PC机已经取代大型机成为了计算机市场竞争的主流。因此,埋头研发第五代机的日本,事实上也输掉了PC时代的先发优势。不仅如此,随着PC机的崛起,CPU芯片取代DRAM芯片,成为了芯片市场上的最大宠儿,而它从一开始就被掌握在了英特尔等美国企业手中。因此,虽然日本依然掌握着DRAM市场的主导权,但在总体的芯片市场上它却败下阵来。
复盘日本第五代计算机计划的失败,我们大家可以看到产业政策的很多弊端。产业政策的成败强烈依赖于目标路径的选择:如果路子是对的,这种大力出奇迹的模式就能成功;但如果路子选错了,那就可能船大难掉头,做的越多,错的越多。遗憾的是,在选择路径的时候,决策者犯错误是经常性的。例如,在这个例子中,日本就错误地选择了逻辑程序机的路子。事实上,即使当时日本选择了函数机或者其他路径,它成功的可能性也是极小的,因为在后续的实践当中,也没有任何人沿着这些架构真的做出了设想中的第五代计算机。而真正被市场认可的答案——PC机,当时并不在事先计划的任何一种架构当中。至于实现自然语言的边界交互,更是在几十年后由ChatGPT实现了,而构成ChatGPT的技术基础——深度学习,在当时的人工智能界还被视为奇技淫巧。既然正确的选项都不在可选集内部,那么无论决策者怎么选,最终都会被证明是错的。
正是由于以上问题,所以现在的学术界普遍认为,像日本当时这样选择道路重点扶持的所谓“纵向产业政策”基本是不可取的。不过,这并不是说产业政策完全没有用。事实上,现在几乎所有的主要经济体都在用产业政策扶持高新产业,只不过它们采用的是“横向产业政策”,而非“纵向产业政策”。
所谓横向产业政策,也称为功能性的产业政策。在这种政策当中,政府并不负责挑选胜者或指引方向,而是负责解决企业发展过程中的一些基础问题,比如市场环境改善、基础设施提供等。具体到创新项目,政府要做的就是支持基础科学和关键技术的突破,然后将这些成果通过市场化的方法转移给企业,让它们在市场上发挥更好的作用。
在这方面,美国的实践是最为充分的。在“二战”的欧洲战事结束后不久,科学家工程师范内瓦·布什(VannevarBush)就向时任总统杜鲁门提交了一份题为《科学:无尽的前沿》的报告。在报告中,布什就基础科技在发展中的作用,以及发展基础科技的策略进行了详细的论述。他建议,为了支持科技的发展,应该成立专门的科研管理机构,以及为科研专门提供资金支持的基金。此后,美国根据这个报告成立了国家科学基金会(NSF)和美国国防部高级研究计划局(DARPA)。这些机构根据科技发展的迫切需要,对科研机构发包课题、组织科研人员进行攻关,从而为美国的创新提供了坚强的后盾。
后来,又有学者对布什确立的以上科研机构范式进行了修正。例如,唐纳德·司托克斯(DonaldE.Stokes)就提出了著名的“巴斯德象限”理论(注:巴斯德是著名的微生物学家,他在学术上发展了细菌疾病理论,在实践上发明了巴氏消毒法。司托克斯用他来作为理论和应用合一的典范),认为应用研究和基础研究之间应该进行更为紧密的互动。基于这个观点,政府若能在制定产业政策的时候,兼顾基础和应用,就会产生更好的效果。比如,如果日本在1980年代可以更好地捕捉市场的需求,率先了解到PC机的潜力,然后组织力量,为PC机相关的关键技术做好研发。这样,一旦其研发取得成就,就可以迅速让日本的企业形成切实的市场优势,而后来全球的计算机发展史也可能是另外一番局面了。
在现代经济发展中,技术的进步是最为根本的推动力量。从本质上讲,技术进步是一个递归的过程,所有新技术都来自于对旧有技术的组合。因此,要促进技术的发展,就必须想方设法,为技术能够越来越好、更有效、更符合经济效率地进行组合创造条件。而这,就应该是有关政策最重要的着力点。