【光明论坛】激活数据潜能 建设数字中国******
【光明论坛】
作者:支振锋(中国社会科学院习近平新时代中国特色社会主义思想研究中心研究员、法学研究所研究员)
数据作为新型生产要素和资源形态,日益成为驱动经济社会发展的基础。近日,中共中央、国务院出台《关于构建数据基础制度更好发挥数据要素作用的意见》(以下简称“数据二十条”),围绕如何建立和健全关于数据要素基础制度体系提出了全面系统的意见,为做好数据权益配置和风险防控提供了明确的政策指引,也为激活数据潜能和促进数字经济发展作出了有力的制度安排。
数据是映射大千世界的符码,数据中自有大千世界。宇宙星空、山川河流、鸟兽虫鱼、人类行为、国家治理、社会百态……万物皆产生数据,万物皆可被数据化。自人类社会产生起,数据就承载着人类对自然万物、生产生活的记录和表达。从传统数据到网络数据,从“小数据”到“大数据”,数据日益成为理解万事万物最微观、最奇妙的元素。在信息化发展新阶段,数据爆发增长、海量集聚,量的累积逐渐引发质的飞跃。万物互联、人机交互、天地一体的网络空间内,大数据技术使数量巨大、来源分散的图像、声音、文件等非结构化数据得以被广泛搜集、存储、利用,使分析、预测、捕捉隐藏在自然万物和人类社会的深层逻辑成为可能,人类认知的敏锐性和洞察力得到极大提升。
数据基础制度建设事关国家发展和安全大局。数据原是伴随自然与人类而产生的寻常事物,但数字技术为其赋予了无尽潜能。作为新型生产要素,数据已成为数字化、网络化、智能化的基础性资源,并快速融入生产、分配、流通、消费和社会服务管理等各环节。通过数据,可以更好地理解自然和社会的运行规律,推动生产力发展,优化生产关系,丰富人类生活,促进国家和社会治理。但数据并非自在之物,而是人类协作与互动的结果。数据不仅承载着个人、市场主体与国家的大量信息,关系到公民个体人格权益、市场主体财产权益以及国家安全和社会公共利益;还呈现出不同于传统知识产权的全新特点。如何既鼓励数据的充分流通利用,又通过制度设计进行科学合理的权益配置和风险防控,就成为信息时代制度创新的重大课题。
数据相关权益配置,是数据基础制度的基础。作为世界第二数据大国,我国深刻认识到大数据作为推动经济转型发展的新动力、重塑国家竞争优势的新机遇、提升政府治理能力的新途径所具有的战略意义。2021年公布实施的《数据安全法》明确提出“保障数据安全,促进数据开发利用”。但数据流通利用除供需双方外,还涉及协助数据产品开发的第三方服务商,情形复杂、链条悠长、风险突出。为推进数据合法合规交易,我国多年来一直在探索数据交易所建设。在此背景下,此次意见提出探索数据资源持有权、数据加工使用权、数据产品经营权等结构性分置的产权运行机制,推进实施公共数据确权授权机制,推动建立企业数据确权授权机制,是对数据相关权益合理配置这个世界性难题的创新性开拓。
促进数据流通和交易是数据基础制度的核心。数据交易是新业态,也带来新问题。由于数据的无形性和可复制性,除了不易计量、难于定价且合规评估复杂外,交易一旦达成,无论是买方发现“货不对版”,还是卖方认为数据已被使用,都“无法退货”。如何确保数据需求方接收到的数据来源合法合规,数据提供方交易后的权利得到充分保障,决定着数据制度体系的成败。此次意见尝试构建促进使用和流通、场内场外相结合的交易制度体系,规范引导场外交易,培育壮大场内交易,试图建立数据来源可确认、使用范围可界定、流通过程可追溯、安全风险可防范的数据可信流通体系,必将推动鼓励数据流通利用的制度创新。
数据要素收益分配制度是数据基础制度的重点。作为新型生产要素和资源形态,数据要素不断创造新的价值,也不断产生利益纷争。针对数据收益分配问题,此次意见既坚持充分发挥市场在资源配置中的决定性作用,按照“谁投入、谁贡献、谁受益”原则,健全数据要素由市场评价贡献、按贡献决定报酬机制,强化基于数据价值创造和价值实现的激励导向,平衡兼顾数据内容采集、加工、流通、应用等不同环节相关主体之间的利益分配;也努力做到有为政府和有效市场相结合,强调完善数据要素收益的再分配调节机制,让全体人民更好共享数字经济发展成果。
党的二十大报告提出加快建设网络强国、数字中国,加快发展数字经济,促进数字经济和实体经济深度融合,打造具有国际竞争力的数字产业集群。“数据二十条”的出台和落地实施,有利于从历史和全局维度深刻认识数据要素的战略价值,充分发挥我国海量数据规模和丰富应用场景优势,推进数字产业化和产业数字化,推动实体经济和数字经济融合发展,增强经济发展新动能,塑造人类文明新形态。
《光明日报》( 2023年01月04日 02版)
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
中国网客户端 国家重点新闻网站,9语种权威发布 |