案例展示
您的位置:主页 > 案例展示 >

人工智能的风险预测与行政法规制

日期:2020-05-26 03:48

  [摘 要]人工智能身手的呈现,必然水平上满意了人类对付机械拟真的设念。依托数据模子和预设算法的自愿化决定与推广,正在显露安排者初始贪图的基本上一直举办自我陶冶、研习及演化,使人工智能动作体现出无监视时的弗成控趋向。规制这种新型“类智性”主体的动作,不单须要对能够的动作后果张开危害预测以及社会效应和法效应评估,还离不开对此类身手从观点到特点的根本认知与解析。以当代行政法危害规制外面为指点,正在预测危害、评估危害、提防危害及规制动作的进程中,该当归纳行使公法、伦理、科技的思念和伎俩,充溢阐述众元主体、众种器械的协同统治效用,最终告终有用规制与适度规制的联合,抵达既不阻挠科技改进,又敬爱人类心性与灵性的宗旨。

  人工智能繁荣史上,智能棋手AlphaGo的呈现具有划期间意思。它依托深度神经收集设施模仿人类大脑头脑形式,通过自立直觉陶冶告终棋术的发展。2016年,AlphaGo击败棋手李世石,成为第一个不需借助“让子”即可克服职业选手的电脑围棋措施,①?这距其研发启动仅过去不到三年。所以正在现在,人类对付高速繁荣的拟真身手除了具有猎奇情绪以外,更众是对来日运气、身手掌控才华以及准则完好水平的操心。

  2005年,美邦来日学家雷?库兹韦尔(Ray Kurzweil)出书著作《奇点邻近》(The Singularity Is Near),预测科学身手的繁荣将正在2045年迎来“奇点”。① [1]暂无论库兹韦尔的见地更倾向于可知论仍然弗成知论,起首合怀的应是奈何驾驭这种“不易预知”的科技繁荣将会激发的社会成效。假如奇点时代确会莅临,人类对诱发社会危害的主体及动作都不甚领悟,又奈何拟定或圆满公法,以阐述社会楷模的效用呢?

  纯正从人工智能身手自己来看,以AlphaGo为例的智能主体实际仅比呆滞准备繁荣出了更众宗旨的推理和研习才华,属于“弱人工智能”,并不具备线]而针对硬汉工智能,现在物理学、情绪学以及玄学考虑中得回较普遍承认的见地是:正在人类认识尚未进入量子力学之前,一齐的人制机械势必只是正在某些方面具备高于人类的才华,[3]即正在当下以及可料念的来日,超越器械意思的硬汉工智能尚不会呈现,那么对人工智能影响成效的预测也就并非天方夜谭。

  差别于科研及商用界限“乐观派”与“操心派”的分裂,②法学界现在要务并非争论科技伦理,而是越发合怀人工智能对社会组织及各项轨制的障碍。笔者认同“奇点邻近”的非急切性外面,但并不否定人工智能将会发作大方的潜正在危害。基于当代社会危害的众样性特点,并以行政法危害规制外面为指点,可知囿于人类学问限制,对付人工智能危害的不确定性是无法统统驾驭的,[4]也便是说陪伴人工智能的繁荣,与其合联的危害(此处尤指人工危害)正在特点、趋向、后果等方面,总会有一项或众项难以被人类预知。于是这种情景下,杰克?巴尔金(Jack M. Balkin)教导纯正夸大以“后果”为模范寻求规制格式,而否认通过身手特点驾驭危害成因,进而确定例制程序的见地就映现出必然的逻辑瑕疵。[5]

  然而,这并不虞味着举动规制条件的危害预测统统失落意思,由于尽管无法避免期间区间的局限,危害预测自己仍然具备前瞻性的,可正在必然水平上为规制动作供应思绪。是以,霍姆斯(Oliver Wendell Holmes)式的旅途 ③[6]与海德格尔(Martin Heidegger)本体论的见地 ④[7]就应告终效用上的协同。也便是说,面临以人工智能为代外的更生动作,既要周详驾驭实际和预测危害,领悟其能够激发的题目并寻求个中的社会相合、公法相合,⑤又要合理认知科技情景,并以之为基本寻找人工智能能够异化或失控的公法成因,为不行统统预测危害时的各项动作供应根据,做到考虑思绪和考虑设施的客观周详。

  正如哈贝马斯(Jürgen Habermas)所言,科技繁荣对当代化经过的效用已博得日常共鸣,[8]所以着眼于情景之于性质的影响,并将规制理由举动起点,能够借助科技繁荣趋向适应预测人工智能的潜正在危害,并将合器重点放正在身手繁荣给人类自己酿成的双重负面效应上。

  互联网期间,人工智能身手被较众地用于举办身份识别。不过,Facebook曾将非洲裔佳偶识别为大猩猩,[9]翻译软件自愿将“工程师”“护士”等名词对应于男性和女性的情景时常呈现。[10]这既有违科技的中立性,还倒霉于爱护社会公正的应然状况,若失于囚禁很能够加剧身手一齐者的欠妥欺骗动作。届时基于频发的社会冲突,诉讼量亦会体现上升趋向,于是公正的缺失既是人工智能潜正在危害的负面社会效应,同时也是负面法效应。

  正在伦理方面,人工智能带来的负面效应合键蕴涵三方面:一是基于机械研习的人工智能自立动作能够超越措施自己的设定,而人类对该动作是否存正在品德私睹也无法掌控,比如微软闲聊机械人Tay变乱。①[?11]二是人工智能身手能够被用来告终少少缺乏合理根据的欠妥评估,比如“云从科技”研发的智能编制通过读取脸部特点和动作行为决断个体的社会勒迫性。[12]三是事项中的“智能避险计划”,能够并未得当收拾“身手决断最优”和“情绪价格决断最优”之间的相合,经典案例为“电车困难”。可睹人工智能身手正在现在的利用中依然有异化危害,来日很能够离间人类对付本身的认知、信赖、驾驭与担任。

  人工智能的决定与立法具有双重寓意:第一,以“人”为原点投射向人工智能时,合键的动作实质便是以公法伎俩规制机械决定。因为规制的模范化水平低,加倍是正在数据安宁、数据共享等方面存正在轨制分裂,于是很能够诱发的危害便是规制主体(众为邦度或地域)内部的不谐和。第二,以“机械”为原点投射人类社会时,钻探的则是欺骗人工智能举办决定和立法能够给社会法治带来的影响。一方面,人工智能主体的公法位置尚不真切,导致决定与立法产生失误或瑕疵时的追责贫穷。另一方面,自愿化形式固然或许保障决定与立法实质的精准性和联合性,但正在合理性上却不易把控,短缺人工形式下因事因地制宜的才华,影响统治实效。

  其余,人工智能正在繁荣进程中还能够激发诸如个体讯息安宁、劳动力装备与生齿赋闲、军器自愿化与人权保险等社会题目,以及致损侵权等公法题目,使规制的须要性更为非常。

  假若说充溢驾驭社会繁荣法则是功效主义思绪对危害及其负面效应举办预测的条件,而且合键显露价格理性的话,那么本体论指点下的危害预测则更众地依赖对人工智能身手自己的解析,着重于科技理性。②?[13]当然,正在论及人工智能、机械研习诱发危害的能够理由时,除了这些科身手语的内在、特点及内正在相合外,还会弗成避免地涉及法学场域内各因素,以及法学与科技跨域因素之间的相合。这一方面注明身手与公法依然成为现在社会难以离散的统治格式,另一方面也佐证了功效主义考虑不行摆脱本体主义基本。以此为视角,能够将人工智能的繁荣,以及繁荣进程中导致危害发作的理由概括为“三重私睹”。而正在每一重私睹之中,都蕴藏着科技与公法的互相效用。

  人工智能运转的根本形式是对大方社会体会举办总结,由编制拟定并推广相应自愿化决定。这里提到的体会原因于常日生涯,并经身手职员概括汇总酿成电子化代码。因基本数据具备影响决定实质的苛重性,于是须要正在最大限制内保障数据的普及、切实与客观。与搜罗格式、搜罗途径能够酿成的数据瑕疵比拟,原始数据本身的单方性更容易被玩忽,正在避免计划的安排上也更具难度。

  上述情景的成因,一方面是数据统计时的样本限制不具备周详性,导致无法从中获取普及讯息;[14]另一方面则是正在该界限,社会本身的风俗或轨制即存正在私睹,是以无论样本数据库的容量有众大,也不行统统滤除个中的不屈等要素,从而影响数据开掘结果。[15]正在此,因为前一情状下的题目可通过身手伎俩处理,故要点钻探后者:社会固有私睹。这些正在特准时空限制内更或许阐述效用的不行文楷模,足以导致与公法规章不符的底细状况产生,即权柄责任过错等相合。若这种相合响应正在人工智能能够作出的决定中,将会给来日社会的合理性、稳固性带来危害。

  正在对人工智能发作影响的因素中,原始数据众以客观样子存正在,而算轨则具备相对较强的主观颜色。现在,智能编制中初始算法的设定尚不行摆脱人的编程动作,是以即使某种算法安排之初的动机是中立的,也很难避免由以下两种理由酿成的算法私睹:一是公法的实体性规章存正在空缺,针对特定事项设定算法时无据可依;二是公法措施性规章的缺失与编程者本身私睹相叠加,导致瑕疵算法被下认识且无监视地写入编制中,而非透后性、弱插手化的流程又加剧了这种算法私睹的倒霉影响。

  由此,当智能编制推广算法实质时,其运转结果能够的负外部性合键发挥正在两个层面,即:遵循该算法所得相合资源分派、权柄责任装备等的确结果,能够正在外观或样子上并不违法,但正在合理性方面存正在瑕疵和争议,与公法的精神内核相左,所以不切合实际法治的央浼。或者前述结果正在实体方面无明显题目,但群众却无从得知算法的设定例则、设定进程等细节,这同样不是当代法治的应有之义。

  正在依托算法告终最初的编制运转后,人工智能将通过体会自愿更始算法实质,以期正在一直的自我矫正中,使运算结果体现与社会繁荣更强的立室性。尽管机械研习的成果远超出人类,但其性质已经是正在行使人类研习中的演绎、概括及类比的设施得出结论,[16]从而更改决定格式。是以,人工智能机械研习进程的告终不单以外界境遇为基本,还勤劳与该境遇所显露的社会趋向仍旧一概。

  现在天下限制内尚不存正在绝对公平客观的社会,这一点过去文对基本数据私睹的陈述中即可取得佐证,故机械研习能够导致结果不公平的首要要素,便是社会境遇中普及存正在的不统统公平情景。但须要夸大的是,实际中的研习境遇私睹题目众由人工酿成,系编程者基于个体或集体需求,对人工智能的研习境遇作出局限,导致其运转结果显露部分优点,从而诱发各式负面效应。

  基于社会影响与身手成因方面的公法负外部性,对人工智能举办规制已成为实务之须要。但人工智能主体的“类智性”特点、机械研习产品的不确定性以及经编制运转方可天生结果的措施特地化,都央浼规制主体拔取与以往差别的规制旅途。正在此进程中,起首该当真切的便是规制思绪。前文已归纳行使了功效论与主体论思念钻探规制须要性,而这里将进一步引入守旧法理认识设施论证公法动作间的因果相合,以及公法经济认识设施论证义务分派能够发作的社会效益,从而为非品德化主体激发的不确定公法危害,供应规制指点。

  动作主体即动作的执行者。民法中,除了未满特定年事、心智不健康的主体不负责法界说务或者不行负责统统义务以外,动作主体的限制正在很大水平上是与义务主体相重合的。现在,针对人工智能动作主体的身份确定,学界已有必然水平的钻探。正在我邦,有主意否定人工智能义务主体位置的见地,以为人工智能举动人类筑制物,其动作并无本身目标,而仅仅是正在推广人类目标。[17]也有见地以为该当引入“拟制”身手,即正在日常情景下并不夸大人工智能的身份,惟有当其决定或动作导致损害时才被付与公法意思上的义务主体位置。[18]

  对付实际中确实存正在的人工智能编制侵权动作,笔者订交由人工智能企业或运营者负责的确的侵权义务。这是由于,人工智能的呈现固然正在客观上丰厚了经济动作的插手主体,但本质上显露的已经是其安排者或运营者的价格需求。固然人工智能具备必然水平上的机灵性,但这种“机灵”并不等同于独立斟酌和创造,尽管有“机械研习”的存正在,原本际也是正在特定境遇中,对人工设定算法的反复运转。于是当人工智能编制的运转结果侵袭用户个体讯息合联权柄时,外面上来说该当由其运营商负责相应义务。正在此假若强行探求该“人工智能”的义务,一方面并不具有本质意思,另一方面尽管义务由人工智能负责,最终的损害抵偿主体仍然运营者。于是,笔者发起将人工智能凌犯用户个体讯息的义务主体真切规章为人工智能企业,或者利用人工智能身手发展举动的商家、平台。

  社会危害具有潜正在性。身手繁荣带来各式科技情景的瞬息万变,又使预知来日危害抵达亘古未有的难度。是以,人工智能诱发的危害很能够凌驾行政动作主体以至是凌驾人类的认知规模,难认为提防计划的拟定供应对象。对付须要足够底细证据方可执行的行政动作来说,显着无法正在危害产生之前,就用确定的危害底细举动提防、规制动作的执行根据。

  正在云云的后台下,危害提防就不应再局部于寻求确定的证据或依赖于已有体会举办决断,而是要周详合用行政法危害规制外面,对因果相合不明、时刻间隔遥远、捣蛋性弗成预测也难以抢救的勒迫,做出能够凌犯相对人权柄和自正在的提防程序。[19]固然人工智能现在是依据已有措施运转,但人类尚无法统统预知其自立研习的进度与能够产品,于是基于前述危害行政法外面,人工智能的危害规制就要依托动作主体对来日危害的预测。尽管这种预测具有不确定性,但因预测结果将成为规制计划的拟定根据,而且能够更改既有权柄责任相合,故预测结论的酿成仍然该当最大限制归纳探究各式要素,以酿成兼具科学性与合理性的结果。

  人工智能的运作机制本质上是编制推广后台算法的进程,所以无论酿成奈何的外部调控准则,都必需通过代码样子材干真正效用于智能主体,从而影响或更改其动作的实质与格式。数据搜罗、整合与开掘的算法正在当下已较为成熟,编程职员能够通过草创、窜改、增删代码等的确动作更改人工智能运转准则,使之发作差别的动作成效。类比之下,要使公法准则与规则效用于人工智能,也同样须要代码化的进程,将这种规制理念编入人工智能的电子编制中。

  公法楷模通过上述格式进入科技事情尚属新的寻求,对身手统治与公法统治的调解提出了较高央浼:既要容纳公正、正理等社会主旨价格与公法的日常性规章,又要以适当的措施讲话使之阐述效用。

  人工智能编制措施的编写对专业才华央浼较高,而将公法楷模所蕴藏的精神编入算法之中则更具身手离间性,是以或许从事此项事情的主体限制极为有限。老手政措施日益受到合怀的此日,尽管不行保障人工智能决定措施的群众高度插手,也须要通过公然、听证等合头确保要害流程的透后化与可追溯性。

  以庄苛的措施性楷模保险从数据搜罗、讯息开掘到算法编程等一系列人工智能基本动作,能够有用保险公民个体讯息安宁,并增添知情权限制。固然人工智能自立研习动作正在来日必然时代内具备弗成控性,导致从身手层面亦无法对研习进程举办公然,但其来日繁荣也该当是以公然透后为趋向,由于惟有告终对研习进程的公然,才或许深化对研习境遇、研习形式的监视,防御产生私睹。正在科技发展与群众举座学问水准提拔的基本上,群众插手也将得以告终和深化。

  从爱护社会主旨价格,防御身手繁荣给品德、法治带来负面影响的角度开赴调动人工智能合联动作,是外率的公法功效论思念。综观现行公法楷模,无论是潜正在的立法精神仍然通过条规予以昭示的立法目标,都正在很大水平上外知道对公平、平等、人权等价格的爱护,并提及大数据期间的个体讯息安宁保险等题目。是以正在功效论视角下,人工智能危害动作的行政规制立法可从现行《侵权义务法》《收集安宁法》等楷模中寻求模仿。

  面临人工智能的违法动作与侵权题目,现在尚无公法楷模真切的确的归责规则和义务负责格式。以自愿驾驶汽车致人毁伤为例,正在已知事项中,存正在对安排者担责、策划者担责以及驾驶员担责等差别收拾计划的钻探,但并未酿成联合、的确的义务划分模范。以《侵权义务法》第五章“产物义务”的规章为根据,可知我邦采用的是过错义务规则,正在产物的分娩者、出售者以及运输、存储者之间举办义务分派,并真切了此种情景下连带义务的发作及后续追偿。以自愿驾驶汽车致损案件的义务分派计划为参考,可知人工智能致人损害的归责思绪是要划分亏损的发作是基于操作失误仍然安排失误,是以发起正在《侵权义务法》第五章中增设一条:“人工智能产物致人损害的,义务负责格式应视的确情景而定。(一)人工智能产物不须要人类操作、统统自愿化事情的,根据本章其他条件的规章确界说务主体。(二)人工智能产物须要人类操作或配合操作的,应遵循合联产物界限内的智能评级模范,起首确定操作家的义务巨细。对须要人工智能产物担责的部门,再根据本章其他条件的规章确界说务主体。”

  正在义务负责格式上,发起遵循违法动作的水平确界说务品种,然后相应圆满《侵权义务法》《行政科罚法》《刑法改良案(九)》等楷模中的公法义务负责部门。的确而言,便是要联合人工智能致损的特地性,不同正在各部分准则中扩张新的义务负责格式。

  互联网大数据期间,对公民个体讯息的护卫已拓展至线上与线下两个维度。《收集安宁法》第四章真切了收集讯息安宁的保险规则与的确程序,将收集运营者进一步划分为电子讯息发送任职供应者、利用软件下载任职供应者等,为各主体动作供应根据。

  比拟之下,人工智能编制的运转同样将众个维度或层面上的主体合系正在一块,个中显露的相合以至更具杂乱性。以机械研习高度依赖用户史册讯息为例,人工智能编制安排者为了进步产物效率、告终更众经济优点,很容易将算法预设为“最大限制获取用户个体讯息”,而且不会节制机械研习对该讯息的挪用前提与挪用次数,从而扩张了个体讯息遭遇凌犯的危害。基于此,发起正在《收集安宁法》第四章中扩张相应条规实质:“人工智能企业的策划者或者人工智能产物的筑制者正在产物安排、运转、出售的进程中,该当以充溢保险公民个体讯息为规则,庄苛担任人工智能编制对个体讯息的获取与欺骗限制,并按期监视机械研习对个体讯息的欺骗情景。前述主体执行调控、监视等动作时,该当以用户知情赞助的限制为模范,既不外分隔绝人工智能身手的繁荣与阐述效用,又最大限制地保险公民个体讯息安宁。”

  人工智能阐述效用的要害合头便是推广算法实质,即依据措施代码运转得出相应决定或动作结果。是以遵循前文述及的规制思绪,可知对人工智能合联动作的统治离不开将公法因素转换成编制讲话。固然这一进程合键依赖于身手的成熟度以及编程职员的营业才华,但从公法角度解析,须要要点合怀的则是应将奈何的公法准则或规则输入措施中,以及奈何确保编程职员或许将适当的公法楷模输入措施中。

  是以,发起从两个方面临公法讲话代码化的进程举办调控:第一,央浼人工智能企业或合联行业协会,针对产物、编制的安排事情拟定动作准绳,该准绳的实质蕴涵但不限于代码编写的根本规则、公法楷模与身手楷模正在算法中的配比情景,公法楷模正在措施运转中的效用规律等。第二,规制主体就前述企业或行业协会是否拟定动作准绳、准绳实质的完好水平以及动作准绳的执行等情景举办监视,并真切不怜悯形下的收拾计划,通过深化公职权统治的格式,删除企业欺骗身手壁垒执行的侵权动作,防御“黑箱算法”赓续影响公民合法权柄的告终。

  人工智能产物的运营对身手有较高依赖,这正在无形中扩张了用户知悉其安排、运转讯息的难度。通过公法楷模的样子深化措施准则,希罕是将公然、插手的思念贯穿正在全面流程中,是提拔人工智能动作透后度、保险相对人知情权的苛重程序。联合前文所述人工智能的“双主体”特点,发起将规制对象分为“人类动作措施”与“人工智能动作措施”两类。

  的确来说,人类动作措施合键蕴涵:(1)搜罗基本数据时尽能够保障样本的周详客观,并对这些数据举办确切开掘,公平地输入编制数据库中,以防御原始数据私睹;(2)庄苛根据动作准绳安排算法,并将公法楷模与身手央浼依据合理比例编写正在编制措施中;(3)将算法中涉及贸易神秘的实质隐去后,对其安排规则、运转道理举办公然,并通过召开听证会、收集投票与搜集睹地等格式保险群众知悉,让来日将要享用人工智能任职或与人工智能动作合联的主体插手到决定进程中。相应地,人工智能动作措施合键有:(1)编制措施运转进程中,庄苛推广算法夂箢并将要害决定的根据对外公然;(2)基于机械自立研习作出决定或执行动作之前,该当见告相对人这一决定与动作的发作基本,并正在能够的情景下作出适应讲明证明。

  正在危害社会后台下,行政准则制思绪与规制伎俩均须要有适宜的准绳和楷模。现行公法准则众是基于守旧规制理念,即以确定可推知的危害为基本拟定规制计划,但这与人工智能期间的社会危害有着较大水平的分歧适性,所以须要正在危害行政法外面基本上拟定新的提防准则。

  综上,发起拟定危害规制行政法准则,从周详认知当代社会危害的不确定性特点入手,要点真切以下几项实质:起首,该当以规避来日危害,保险公民人命、物业安宁以及其他根本权柄为规则。其次,真切危害规制的最低模范,面临不确定的危害,该当以最大限制保险人类的人身安宁与人命壮健为规则。再次,除了守旧规制伎俩中的商场准入许可、违法动作科罚以外,针对以人工智能为代外的动作所激发的来日危害,还能够采用的规制格式蕴涵但不限于对身手利用形式与利用水平的行政指点,对算法实质与编制进程的强制公然等。将其日常化之后可概括为,遵循身手伎俩推知能够酿成社会危急或给他人带来权柄损害的动作,规制主体有权采用各种行政动作防御其产生,即有权央浼被规制主体从事特定的实体性或措施性动作。结尾,对付因危害规制动作导致合法权柄受损的相对人,有权央浼规制主体予以积蓄。

  日常而言,“软法”(soft law)是指那些难以或者不行行使邦度强制力保障明施的具有大众规制性子的楷模性文献或者老例,区别于或许仰赖邦度强制力来保障明施的法楷模——“硬法”(hard law)。软法合键蕴涵邦度立法中的指点性、呼吁性、激发性、宣示性的非强制性楷模,邦度圈套拟定的楷模性文献中时时属于不行行使邦度强制力保障明施的非强制性楷模,政事机合创造的各式自律楷模,社会联合体创造的各种自治楷模等四大类。[20]

  正在人工智能危害规制中归纳行使软法与硬法程序,须要统治主体充溢开采现有公法轨制的规制空缺,并联合的确事项的性子、涉及主体的限制以及社会影响水平的巨细等要素,决意是否欺骗活络性更强的软法伎俩。正在此进程中,最外率的软法统治格式便是丰厚统治主体,鼓吹社汇集体、行业协会等一直拟定、更新对付人工智能家产的楷模实质,以更具专业性、针对性的规章,央浼人工智能运营主体准确对于原始数据搜罗、算法配置以及机械研习题目,做到标本兼治并胀动身手统治与公法统治的协同,最终告终人类对机械的绝对担任与开导,正在科技繁荣中充溢敬爱与告终人的价格。

  [1] [美]雷?库兹韦尔.奇点邻近[M].李庆诚,董振华,田源译.北京: 呆滞工业出书社,2015:35.

  [2] 翟振明,彭晓芸.“硬汉工智能”将奈何更改天下——人工智能的身手奔腾与利用伦理前瞻[J].公民论坛?学术前沿,2016(4).

  [4] 金自宁.危害行政法考虑的条件题目[J].华东政法大学学报,2014(1).

  [8] 王江涛.哈贝马斯大众界限思念考虑[M].北京:中邦社会科学出书社,2015:58.

  [12] 中邦安防展览网. 人工智能期间 伦理与改进之间该奈何均衡?[EB/OL].

  [16] 黄亚强.以机械研习为基本的人工智能[J].电子身手与软件工程,2018(8).

  [17] 吴汉东.人工智能期间的轨制安放与公法规制[J].公法科学,2017(5).

  [18] 陈吉栋.论机械人的公法品德——基于法释义学的议论[J].上海大学学报(社会科学版),2018(3).

  [19] 张青波.自我规制的规制:应对科技危害的法理与法制[J].华东政法大学学报,2018(1).

  [20] 马长山.互联网+期间“软法之治”的题目与对策[J].当代法学,2016(5).