国家公务员考试招考资讯_备考资料_考试题库汇总
导语:中公时事政治频道更新国内国际时事政治热点,并提供时事政治热点、时政模拟题、时事大事记及时事政治热点汇总等。今天我们关注--时政热点:2020中国科技发展新趋势。
5G、自动驾驶、神经网络系统、人工智能芯片、区块链等前沿技术日新月异——
2020新科技趋势,听专家怎么说
人工智能从感知向认知演进
◎浙江大学计算机科学与技术学院副院长、浙江大学人工智能研究所所长吴飞:
人工智能是引领这一轮科技革命、产业变革和社会发展的战略性技术,具有溢出带动性很强的头雁效应。当前,新一代人工智能正在全球范围内蓬勃发展,促进人类社会生活、生产和消费模式巨大变革,为经济社会发展提供新动能,推动经济社会高质量发展,加速新一轮科技革命和产业变革。
我们也必须明确,人工智能在赋能应用同时,正面临“勇闯无人区”巨大挑战,如感知智能适应性差、认知机理不明、通用智能发展乏力等。从感知智能向认知智能迈进以赋予机器推理之术、由机器单独完成单一任务转成机器相互协作来完成城市级复杂使命、对隐藏在数据这一人工智能燃料引擎中的隐私予以重视以推动数据共享、有机协调存算能力来破解冯诺伊曼架构中“内存墙”桎梏,都是推动新一代人工智能发展的有力抓手。
◎清华大学计算机系副主任唐杰:
人工智能发展到今天大概经历了三个主要的阶段:符号推理与感知机、概率学习与知识库、深度学习与知识图谱。目前的智能系统在感知方面已经达到甚至超越人类水平,但在可解释性、安全可靠等方面还存在很多不足。
反观人的认知系统则不同,认知理论认为人的认知系统包含两个子系统:System 1即直觉系统,主要负责快速、无意识、非语言的认知,比如当人被问到一个问题的时候,可能下意识的或者说习惯性的回答,这就属于System1的范畴。System 2是逻辑分析系统,是有意识的、带逻辑、规划、推理以及可以语言表达的系统。人在通过System 2处理问题的时候,往往要收集相关数据、进行逻辑分析和推理,最终做出决策。
今年在NeurIPS 2019大会上图灵奖得主Yoshua Bengio指出当前的深度学习主要就在做System 1的事情,而缺少System 2所需要的推理和逻辑处理能力。发展具有认知能力的人工智能系统是人工智能发展的未来。这不仅是未来深度学习需要着重考虑的,更可能是下一代人工智能兴起的基础。一个可行的思路是认知图谱=知识图谱+认知推理+逻辑生成,但如何实现认知智能亟须学术界和工业界的进一步深入研究。
◎中科院自动化所模式识别国家重点实验室研究员王金桥:
人工智能最早是在1956年提出的,最早提出是希望机器具有人的感知、行动、推理与决策的能力,而随着时代的演化,目前从研究领域讲,希望机器能够拥有自主的智能,机器在数据与场景的基础上,不仅能够代替人类重复性的劳动,同时能够和人一样进行自我进化、思考,从“感知智能”向“认知智能”进行转变,同时自主进化和混合智能的发展也在不断完善和成熟,这是目前人工智能领域对人工智能新的定义,未来很长一段时间都会是人机混合智能阶段。
当今,城市正成为产业互联网最大的应用场景,随着5G、人工智能和大数据等技术的不断完善与场景化落地,人们看到了更多的发展前景。以城市视频多维数据为核心,融合智能社区、轨道交通、医疗、教育等多种场景,各行各业积极利用多种前沿技术,不断加快创新,构建城市级的数据平台,打破不同场景的数据孤岛,打造面向城市智能的数据湖、算力中心和AI赋能平台,并实现城市智能的不断升级,实现城市智能的自主进化,打造新一代的智能城市。
基于智能城市的自主进化模型,实现知识和数据联合优化的人机混合智能,用以驱动城市治理和管理决策,实现服务城市规划、政务、产业、民生的价值输出。随着人工智能、边缘计算、芯片等技术发展,能从视频中提取的有价值的内容会越来越丰富、快速和准确,视频数据必将成为未来城市治理核心数据之一。而且持续增加的海量数据的积累,也给智能城市计算带来了巨大的挑战,因此海量视频数据实时性端边云的融合计算、自主进化、人机混合智能成为城市数据治理关键,通过深层应用价值和行业数据融合应用实现智能城市建设。
工业互联网与产业融合
◎中科院自动化所模式识别国家重点实验室研究员王金桥:
人工智能纯技术和算法的投资机会已经过去,目前机会在场景和技术融合的碎片化深度应用阶段。目前推动人工智能发展的是需求与场景,当今时代的快速发展,场景与需求发生着变化,传统产业成本高、效率低、招工难等弊端的频繁暴露,推动着传统产业智能化升级的脚步,将机器自动化不仅能够提高产业发展的效率,更可以实现产业的升级换代,形成新业态,催生新的经济增长点。
比如,在传统纺织行业,人工智能就起到了很好的推动作用。该行业原来的生产力低下,主要原因在于原来的纺织技术多半仍旧依赖于传统手工生产、制作及检验。人工验布的缺点是精度低、速度慢和招工难,所以数字化、智能化的改造势在必行。
计算存储一体化突破人工智能算力瓶颈
◎清华大学长聘教授尹首一:
回顾集成电路发展历程,存储器芯片的发展速度远低于处理器芯片的发展速度,两者之间的缺口仍在不断拉大,存储墙成为制约处理器性能进一步提升的主要瓶颈之一。这一问题尤其对访存密集型任务影响最为明显,以深度神经网络为代表的AI算法恰好具有访存密集的特点。
从物理本质角度来讲,拉近计算部件与存储部件的距离,减少单位数据搬运的成本,是解决存储墙问题的根本手段。近存计算、存内计算和存算融合都是解决存储墙问题的有益尝试。近年来,相关技术百花齐放、百家争鸣,尚属于竞争前技术。在新器件、新机理、新电路、新架构方面的突破,将有望带来颠覆性变革。
◎复旦大学微电子学院教授韩军:
在冯诺依曼架构下,“存储墙”即中央处理器和存储器之间的性能鸿沟一直是困扰计算系统的瓶颈问题。对于人工智能这类海量数据所驱动的应用,传统架构的缺陷更加暴露无遗,其算力完全受制于访存带宽,同时总体功耗因计算与存储之间的高带宽数据流动而急剧飙升。