加快实现高水平科技自立自强******
作者:彭绪庶(中国社会科学院习近平新时代中国特色社会主义思想研究中心研究员、数量经济与技术研究所信息化与网络经济研究室主任)
党的二十大报告提出,“坚持面向世界科技前沿、面向经济主战场、面向国家重大需求、面向人民生命健康,加快实现高水平科技自立自强”。科技自立自强是提升供给体系质量、保障产业链供应链安全的关键,能够为构建新发展格局、实现高质量发展提供战略支撑。目前,我国已经成为具有重要影响力的科技大国。到2035年,我国发展的总体目标包括“实现高水平科技自立自强,进入创新型国家前列”。
总体来看,我国实现高水平科技自立自强的条件基本具备。首先,我们党高度重视科技事业,为实现高水平科技自立自强提供了坚强保障。进入新时代,我们党坚持实施创新驱动发展战略、把科技自立自强作为国家发展的战略支撑。习近平总书记强调,立足新发展阶段、贯彻新发展理念、构建新发展格局、推动高质量发展,必须深入实施科教兴国战略、人才强国战略、创新驱动发展战略,完善国家创新体系,加快建设科技强国,实现高水平科技自立自强。其次,增加科技投入和加强基础设施建设,为实现高水平科技自立自强奠定了坚实物质基础。我国研发投入规模和投入强度连续多年保持稳定增长,科技人才质量稳步提升,重大科技基础设施布局建设不断推进。再次,科技创新实现突破性进展,为实现高水平科技自立自强奠定了坚实技术基础。近年来,我国科学论文数量和质量不断提高,基础研究、前沿研究和关键核心技术攻关能力取得巨大进步,知识创新和技术创新影响力均已跃居国际前列。
但还要看到,加快实现高水平科技自立自强,仍然面临诸多问题和挑战。如,研发投入规模总量不足,基础研究和企业支出占比较低,基础研究和原创性重大创新成果战略支撑作用不强,等等。
立足新发展阶段,需要制定更精准、更有效的政策措施,完善体制机制,探索有效路径,加快实现高水平科技自立自强。
其一,完善战略性、全局性和系统性创新布局。实现高水平科技自立自强是长期目标,不可能一蹴而就,也难以靠短期突击实现。要加快在“卡脖子”领域补齐短板,在并跑、领跑和优势领域锻造长板,坚持关键技术攻关和基础研究并重。既要立足当前,着力攻关和破解制约发展的“卡脖子”技术等紧迫问题,也要着眼长远,找准发挥新型举国体制优势实现更多重大突破的路径,加强基础科学和前沿科技等“无人区”领域创新顶层设计,探索建立需求导向型创新、任务目标型创新和兴趣导向型创新相结合的创新模式。
其二,为科技攻关提供组织保障和人才保障。实现高水平科技自立自强,不仅要啃下“卡脖子”技术等硬骨头,还必须在颠覆性技术领域走在国际前列。这就必须要有适应科技发展趋势的国家重点实验室、综合性国家科学中心、国家高端智库,以及高水平新型研究型大学和科技领军企业。要强化国家战略科技力量,完善空间布局,加强投入和领军人才队伍建设,提高重大科技任务的攻坚能力。
其三,在科技体制改革“深水区”加力攻坚。改革是点燃科技创新引擎的点火系。解决研发经费投入和执行结构不合理、效益不佳等问题,完善科技成果和科技人才评价制度,强化企业创新主体地位,都需要在制度安排、政策保障、环境营造等方面下真功夫。只有通过深化体制改革,完善科技自立自强的制度保障,才能真正形成科技创新和制度创新“双轮驱动”效应。
其四,加强创新链产业链融合发展。要消除基础研究与应用脱节、科研与经济“两张皮”现象,提高科技创新质量和效率。既要重视科技成果转化,打通从科学研究到开发研究再到应用的链条,同时也要强化需求导向和市场导向,围绕产业链布局创新链,让市场在创新资源配置中起决定性作用,促进产业链上下游、大中小企业等的深度融合,形成科技创新合力。
其五,加强国际科技合作。开放创新是当今科技创新的趋势和实现高水平科技自立自强的必然选择。一方面,要发挥我国产业体系健全完备、供应链保障水平高的优势,深化供给侧结构性改革,发挥超大规模市场优势,形成对全球要素资源的强大吸引力。另一方面,也要主动“走出去”,积极参与全球科技创新治理,全方位、多角度探索国际科技合作新路径新模式。
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
中国网客户端 国家重点新闻网站,9语种权威发布 |