“一滴油”里看复苏——中石油云南石化生产一线见闻
鹏程万里网
2025-04-05 06:04:11
参见应松年主编《外国行政程序法汇编》,中国法制出版社2004年版,第535-590页。
该《条例》于2007年1月17日由国务院第165次常务会议通过,4月5日发布,2008年5月1日起施行。行政法规草案应当向社会公布,征求意见。
公示后,还应在制定机关的事务所备置以及以其他适当的方法公开。如果理由说明没有及于这些相关要素,法院可以理由说明存在瑕疵而撤销该处分。例如,其关于电信的第一批指令即确立了诸如比例原则、客观性原则、非歧视原则一类行政法基本原则,并以一般和个别的批准取代了某些许可证。这些机构具有法律人格,在一定程度上享有独立于欧共体机构,特别是欧洲委员会的地位。1993年《行政程序法》制定之后虽因其他法律的修改而有细小的修改,但2005年的修改是一次较大的有较重要意义的修改。
(二)审查标准(指根据法令规定判断是否给予申请的许可认可等的必要基准)。[5] 北京大学宪法与行政法研究中心前身为北京大学公法研究中心,2004年被教育部批准为国家人文社科重点研究基地后,改名称为北京大学宪法与行政法研究中心。面对新一轮科技革命,为提高科技创新的力度和强度,中国将提升科技创新能力定为基本国策,出台系列政策文件或战略纲要。
不管怎样,今天出现的人工智能科技及其应用是科技史上一次石破天惊的事件,应当作为当代科技发展的新表征加以认识和对待。人工智能的研发和应用产生许多新的规范问题,需要及时研究和跟进立法。人工智能的非法使用,也可能体现在国际层面,如国家或个人开发不可信任或不加区别的人工智能武器。20世纪50年代,各国科技政策致力于战后恢复和重建,大力投资基础研究和高等教育,为重建和发展打造知识资源和人力资源的基础,并在经济扩张领域,促进电子、石化、原子能科技创新,力推新兴科技的经济转化,逐渐形成技术-经济范式。
在经济、管理和社会服务的许多领域,人工智能淘汰了一些工作岗位,给劳动力市场带来影响和挑战。一方面,人工智能被确立为科技创新的重点,并赋予其优先发展的战略地位。
此外,产品责任法、交通事故责任法、灾害保险法等也得到发展。目前的一种策略是,在设计时强化安全伦理,即所谓的机器人原则,但问题是这仍然只是一种设计而已,其在正常情况下固然可以更好地指导机器人行动,但并不能真正解决运行中的偏移。同时,中国也注意到与科技工业应用相关的环境保护、特殊技术安全等问题,出台一系列的环境保护法和特种技术安全法。该报告提出发展人工智能的4项原则,即人类利益原则、责任原则、透明原则、教育和意识原则。
人工智能的社会风险,广义上还包括技术迭代导致的各种社会不适应。美国法学家哈耶克认为,坚持法治意义在于规则的相当确定性使我们又可能预见权威在特定情况下将如何行使其强制性权力,从而根据这种常识安排个人事务。其特点是世界信息互通,使人们之间的信息交往瞬间扁平化。目前人工智能需要不断完善,处于亟待着力开发和提升的时期,预计全球对于人工智能机器人的投入在2019年超过1 350亿元。
这是人工智能特殊的技术风险之一。2.第二次工业革命时期:鼓励科技发明和防治工业灾害并举之科技法 这一时期,专利法和反垄断法的存在,从正反两面鼓励了科技发明的自觉,工业研究实验室不断涌现并且走向成熟,在大量新兴科技发明和发明方法的支持下,除传统纺织、工矿等领域外,电讯、电气、有机化工等领域也得到发展,促进了产业化的极大发展。
在我国,《科学技术进步法》和《促进科技成果转化法》提供的诸多进步机制、转化机制固然对人工智能科技的开发和转化具有支持意义,但由于尚存在许多体制障碍,特别是国有企业、事业单位科技成果的严格国有体制和国有资产管理体制,加上市场培育不够,导致科技主体、动力、程序、保障等多方面的局限,严重影响科技进步和转化,目前相关法律面临修改、调整和完善。例如,《规划》旨在抢抓人工智能发展的重大战略机遇,构筑我国人工智能发展的先发优势,加快建设创新型国家和世界科技强国。
这种具体性还体现在人工智能开发和应用功能的多样性上,因此还应当做好基于功能区分的规范细分。20世纪50-70年代,中国按照苏联模式建立科技体制,实行计划管理,集中力量动员有限科技资源,解决一些战略优先目标,成功发展核武器、空间技术和某些基础科学领域。笔者认为,就人工智能科技的特殊研发和应用而言,目前至少面临5项特殊安全或风险问题。以机器学习为支持的人工智能技术,在当下直接促成一个所谓弱人工智能时代的到来,并且继续前行。与此同时,基于工业革命背景下科技发明具有的不同寻常意义,首次把科技问题纳入立法,产生了全新的科技法部门。世界经济论坛创始人德国学者克劳斯·施瓦布指出:从人工智能到生物技术,从先进材料到量子计算,一系列强大的新兴技术带来了大量的机会与挑战,并且将根本上改变我们的生活方式。
现在的科技法体系,包含鼓励科技发明和应用的科技市场法,如专利法和其他知识产权法、技术合同法、技术中介法等,包含管控工业和科技风险的法律,范围涉及工业生产安全、劳动保护、事故责任、环境保护和特殊技术风险等,以及科技政策法即旨在促进科技进步、转化和创新的法律政策。目前,很多具有创新力的机器学习研发工作主要由著名大学研究机构或大企业承担,它们的优势在于能够获得数据资源,其中很大一部分是可公开数据资源,当然这也是目前许多人工智能可验证和可确保透明度的前提。
20世纪初,面对新一轮科技大发展的机遇,各国注重快速提升和确保国家竞争力,大力推进科技创新政策,甚至上升到科技创新战略的高度。科技发明在工厂条件下得到应用后,在带来规模效益的同时,也容易带来规模安全和灾害问题即工厂安全和灾害问题,其中特别是对工人的生产安全威胁和事故损害。
三、人工智能的科技法规范路径 人工智能在本质上属于科技事物,应当将其作为科技事物加以审视。与此同时,各国启动创新政策,推进科技发展与产业化提升的紧密融合。
与此同时,相应的规范问题接踵而至,关于人工智能规范的讨论成为热点:有从法理学法哲学角度来讨论的,如思考人工智能时代的法律代际问题、人工智能的法伦理发展、现行法在人工智能应用下的治理危机等。最早出现的科技法,主要是以具体立法形式呈现的科技市场法:包括具有赋权意义的专利法和其他知识产权法,具有鼓励交易价值的技术合同法和技术中介法等。例如,如果警务机器人的设计者发生偏离,可能错误击毙可疑人员。例如,2014年聊天机器人通过简单的图灵测试,2016年阿尔法围棋击败世界围棋冠军。
工业化国家继续完善专利法等知识产权法,并且在20世纪晚期明显出现强专利(知识产权)趋势。随着人工智能研发浪潮在全球兴起,美国、英国、德国和日本纷纷将人工智能的研究和发展上升为国家战略,相继出台相关战略规划,旨在争夺人工智能产业技术制高点。
针对生化科技、核科技、生物科技、信息科技等新科技的发展和应用,人们发现这些特殊新科技在带来巨大福利可能的同时,也带来前所未有的特殊风险,食品药品安全、生化安全、核安全、生物安全、网络信息安全等不断凸显出规范急迫性,激发管控特殊科技风险的强烈要求,导致相关技术安全和风险管控法律的出台。2025年,人工智能产业进入全球价值链高端,人工智能核心产业规模超过4 000亿元,带动相关产业规模超过5万亿元。
20世纪80年代开始,各国更加强调科技资源供应和市场需求的结合,在微电子、生物技术和新材料等新领域实施技术-经济范式,后来调整为技术-经济-环境-安全范式,在技术-经济发展的价值追求中,同时引入生态环境保护和特殊技术风险防范。1.第一次工业革命时期:鼓励科技发明之科技法 在工业革命的背景下,近代法律体系诞生并基于经济、政治和社会思想的根本变化以个人理性和自由为基础出现根本转型,且与科学主义结合,在一般法律范畴的意义上产生了近代意义的宪法、民法、刑法、诉讼法等法律部门。
2018年欧盟委员会的一份人工智能战略报告指出,采取认知系统与人工智能技术,将使全球商业收入从2016年的64亿欧元增长到2020年的378亿欧元,预计到2030年,人工智能将为全球经济贡献12.8万亿欧元,相当于今天全球国内生产总值(GDP)增长了14%。在这种意义上,人工智能发展势必引发如何跟进合理规范的问题。2012年,谷歌(Google)发布人脑模拟软件,这是一种划时代的具备自我学习功能的软件,可以模拟脑细胞的相互交流,可以通过看优兔(Youtube)视频学习识别猫、人和其他事物,从而引发人工智能新兴技术新想象。这次大数据化的信息科技突变昭示着第四次工业革命的到来。
所谓创新政策,按照英国著名学者罗斯韦尔的界定,是科技政策与产业政策协调的结合。正如英国法理学家哈特所说:人类的法律创制者们,不能够预见到所有未来可能发生的相关情形。
(二)科技风险管控法语境下的人工智能规范问题 现有管控工业风险、劳动保护、事故责任、环境保护和特殊科技风险的科技风险法律制度,对于人工智能同样具有可适用性。我们是简单奉行物竞生存论,还是应当也重视社会和谐价值?每一次工业革命都会导致剧烈的社会变化,有些人能够适应变化,但也有很多人并不容易适应变化。
因此,正确的方法还应该包括增加对运行中的人工智能训练,通过训练和及时调整使技术设计的可行性转化为行动的一致性。《规划》提出面向2030年我国新一代人工智能发展的指导思想、战略目标、重点任务和保障措施,提出三步走战略目标:即2020年实现人工智能总体技术和应用与世界先进水平同步,初步建成人工智能技术标准、服务体系和产业生态链,人工智能核心产业规模超过1 500亿元,带动相关产业规模超过1万亿元。