法律规制的英文,耕地非农化的法律规制
大家好,由投稿人谈军瑞来为大家解答法律规制的英文,耕地非农化的法律规制这个热门资讯。法律规制的英文,耕地非农化的法律规制很多人还不知道,现在让我们一起来看看吧!
法律规制是什么意思
张亭
南京师范大学法学院硕士研究生
要目
一、法律规制算法的可行性
二、法律规制算法的必要性
三、法律规制算法的现状
四、法律规制体系的构建
五、结语
一个“万物互联、事事算法”的人工智能时代即将来临,而人工智能的本质即基于数据的算法。“算法中立”这一命题并不成立,算法能够被法律规制。因算法具有不透明性等独特的性质,其不断发展的同时,带来的风险也逐渐显现,包括侵害个人信息权益、塑造“信息茧房”、算法歧视、算法“黑箱”、算法操纵等,故法律规制算法具有必要性。我国应当始终贯彻将人作为目的而非手段的理念来治理算法,确立算法解释、算法审计和算法问责原则,具体应通过完善个人信息保护法和确立算法责任制的双重路径来规制算法。以更好地维护人的尊严,消弭个人与算法操控者之间的数字鸿沟,实现科技与法律,守护与创新,秩序与变革之间的平衡发展。
一、法律规制算法的可行性
算法中立这一命题成立与否影响算法是否需要法律规制,如果中立,则无需法律进行规制,反之则需要法律进行规制。如果算法中立,那法律应当如何规制算法,又需要回答算法的法律性质是什么,其法律性质决定了规制体系的构建。
算法中立与否
“算法”一词最早由阿克瓦里茨米于公元825年在《波斯教科书》中提出。概览各学科对算法内涵与外延的界定,可分为两个层面来理解:一是关注算法技术本身,认为算法表现为数学结构或算法代码,数学领域认为算法是通过图表等一系列数学工具来解决问题的操作程序。计算机领域则将算法视为计算机解决问题的一系列指令。二是突出算法的技术运用,认为算法表现为影响规则的技术程序,如公共管理学领域认为算法是一种特殊决策技术。从法学学科视角,主要探究算法的应用风险,将算法视为解决特定问题而对数据进行分析、运算和得出结论的一系列操作程序。算法活动的本质是“温故而知新”。完整的算法活动包含三个步骤:第一,硬件终端首先要深入挖掘数据,获取用户的数据(如点赞率、收藏记录、评论数量、浏览历史、运行轨迹等)。第二,算法再通过系统将处理好的数据转化成评价和分值(如概率、风险、排名等)。第三,算法向用户做出自动化决策或个性化推荐。
德国哲学家雅斯贝尔斯在《原子弹与人类的未来》一书中提出了技术中立论的经典表述:“技术本身既非善,亦非恶,但它既可以用于善,也可以用于恶。它本身不包含任何观念:既不包含完美的观念,也不包含毁灭的邪恶观念。”这可以视作算法中立的思想来源,但算法真的是客观中立的吗?第一,算法作出自动化决策的基础是数据,但数据并不总是客观、合法、中立的,亦存在带有主观性、偶然的或错误的数据。“算法中立”实则是伪命题,算法系统在无法全面收集准确的数据,没有全面的数据来源,划分数据时就不具有合理性,若处理数据时还不合规就会导致数据失去真实性。第二,算法给个体塑造的“信息茧房”,正有力反驳了算法是一种中立的技术的观点,其嵌入了商家对各种事物的经济利益的评价标准,并将算法作为一种推崇商家价值理念的工具。第三,算法的设计系统包含着算设计者的喜好与偏见。如算法在检索引擎的应用主要是提供访问路径、检索结果以及检索引擎排序。网页搜索库的搜索结构包含着算法设计者的喜好和偏见,并非是客观中立地呈现搜索结果,信息的排序结果和信息比重量的大小也取决于企业的利益考量。算法技术并非是中立的,而是蕴含着一定的主观判断和利益考量,因此需要用法律来规制算法。
算法的法律性质
算法中立这一命题在上文中已经证否,得到算法需要被法律规制,算法的法律性质是什么,又决定了不同的规制方式,因此本部分讨论其法律性质,关于算法的法律性质有专利说、言论说、商业秘密说与正当程序说,本文支持正当程序说。
1.专利说
赞同将算法作为专利来保护的学者认为,这一方面可以规避算法产生的社会风险,另一方面认为专利法的全面保护能够鼓励算法设计者进行不断地创造和研发。本文认为将算法作为专利来保护表面上看是一种可行的路径,但“以公开换保护”这对算法来说只是一个美好愿景,当算法设计者向社会公开后,仅仅是该领域的专业人员得知如何实施该项算法,社会普通大众根本难以理解算法的实施过程,这样的公开对增加算法透明度的意义可谓微乎其微。其次,构建算法的专利保护仍然存在问题,算法本质上属于智力步骤,与专利法第25条规定相违背,若将算法作为专利来保护将对我国现行专利法造成强烈冲击。
2.言论说
将算法认定为言论应当慎之又慎,因为一旦将算法认定成言论,算法所带来的一系列风险,法律都只能置之事外,企业所掌控的算法“私权力”将不受控制,人反而变成算法的客体,最终将导致法律也无法保障人的尊严,故而应当依照限缩主义进路来分析,算法不能构成言论。一方面,算法欠缺有效的表达。算法的主要目的在于分析、预测,作出决策,而非与用户进行交流。
3.商业秘密说
商业秘密在法律文本中有着清晰的定义,其有保密性、秘密性、价值性等特殊性质。首先,商业秘密的秘密性特征与增加算法透明的要求相矛盾,若用商业秘密来保护算法将会使原有的公共领域信息不能被披露,这将极大的压缩公共领域规模,削弱公众对信息和知识的获取权,这与法律保护商业秘密的目的——防止竞争对手盗用相背离,成为公众认知算法的阻碍。其次,以商业秘密来保护算法的模式也不利于社会创新的累进。社会累进创新的基础是算法技术可认知,累进创新者难以获取与算法相关的任何信息,使得社会累进创新不可实现。最后,当算法被当作商业秘密来保护,那也就意味着公众遭受到的算法侵权将无从救济,对方只要以商业秘密来对抗,就使得算法问责落空。
4.正当程序说
根据上文的分析,算法不宜作为专利、言论或者商业秘密来保护,本文赞同陈景辉学者的观点,将算法作为正当程序来保护。这一观点主要基于以下考量:第一,任何社会组织的存在都是为了实现某种社会目标,而这种社会目标的实现离不开社会制度;第二,任何一种社会制度都会涉及权力,在算法社会亦不例外,存在算法权力,这种权力赋予了少数人介入和干涉大众生活的能力;第三,社会制度所赋予少数人掌控的权力,都可能存在滥用,因此,社会制度或者权力都需要道德上的证成。而这种道德上的证成离不开正当程序。因为正当程序会要求掌权者将权力公开,以证明其作出的决策是正当合法的,包括两种要求,一是程序本身要公开;二是程序的设计要是正当的。由此可见,这两项要求亦有利于增加算法的透明度,保障公众的知情权,赋予算法设计者更多的注意义务,也有利于算法问责的实现。
二、法律规制算法的必要性
算法在运行过程中,从输入数据开始,到输出结果作出自动化决策,这一过程实则蕴含着诸多风险,当前学界对算法风险尚无统一的分类,且少有论及算法产生的各类风险之间存在何种关系,本文依据算法的运行流程将算法风险分为两大类,包括输入端风险,即诱发个人信息侵权风险,和输出端风险,输出端风险包括五小类,分别是塑造“信息茧房”、算法歧视、算法黑箱、算法操控以及算法权力。第一类风险与第二类风险之间是相伴而生的关系,第二大类风险之间是交互影响的关系,算法黑箱的存在为算法歧视、算法操控与算法权力的产生奠定了基础,后三小类又因资本集团追逐利益而放任或加剧了算法黑箱的存在,算法在塑造“信息茧房”的同时,就在一步步侵蚀着人的主体性,算法操控不断发展壮大,就会导致算法权力的形成和扩张,因此它们之间围绕着“利益”彼此相互影响,交织壮大。
通过分析这些算法风险的原因、危害后果及各项风险之间的关系来证成法律规制算法的必要性,同时,也有利于有针对性地构建算法规制体系。
侵害个人信息权益
2021年6月11日,国家网信办通报129款应用软件非法收集、过度使用用户个人信息,这129款涉及运动健身、新闻资讯、网络购物、学习教育等八种类型,其中包括Keep、今日头条、珍爱网等知名应用软件,这些侵害个人信息的软件超90%以上具体存在的问题是超过个人信息收集的必要原则,收集与其提供的服务无关的信息。同年7月4日,滴滴企业版等25款应用软件因存在严重违法违规手机使用个人信息,国家网信办通知应用商店将其下架。互联网企业以追求利益为目的,加之大数据和算法技术的进步,处于弱势地位的网络用户在进入网络世界的第一步,就毫无隐私可言。各类应用软件和网站试图搜刮用户隐私的互联网格式合同席卷而来。以“智能推送”为吸引点,诱使用户同意算法收集并分析其个人信息。即使个体不主动上传个人信息,算法运营商和平台打着“周全服务”和“互联互融”的旗号,就能够把用户的隐私进行抽丝剥茧,无处不在的高清摄像头、多功能传感器、网站应用插件、网络跟踪代码等每天都在对用户的个性与偏好进行详尽地记录。
不仅数据收集阶段经常发生隐私泄露的风险,随着算法自动化决策深度学习能力的提升,即使用户未向网络平台提供过个人信息,深度学习算法也能将其预测出来,即隐私泄露风险还将发生在算法预测阶段。比如当算法对种族、宗教信仰、政治态度、性格特点、性别、性取向等进行数学建模后,可以准确预测出某社交软件的用户是否为同性恋者。
算法歧视侵害人的平等权
“算法歧视也可被称作自动化歧视(Automated Discrimination),是指算法在作出自动化决策的过程中,算法的分析预测系统对特定群体的合法正当权益产生了一种具有反复性的不平等侵害。”算法歧视主要有三类:第一类是“关联歧视”,是指设计者即便未将敏感数据筛选进系统,但这些数据组合在一起时仍然会推断出个体的敏感信息,如种族、宗教、性取向等信息,从而对特定人的合法权益构成歧视。第二类是“传统镜像歧视”,这种歧视实质上是传统歧视在算法的一种表现形式。由于算法的决策系统是“偏见进,则偏见出”,导致直接将敏感信息录入算法自动化决策系统,就会有一种歧视的产生。第三类是“大数据杀熟”,是指商品或服务的经营者以不同的价格向消费者提供相同质量和数量的产品或服务。
从算法歧视的分类可以总结出算法歧视的原因:首先从根源来说,它是人类传统歧视在算法世界的反映。在整个人类历史文明中,歧视从未离开过我们,而作为人类思维的外化物——算法,沿袭人类的这种歧视意识就再正常不过了。算法只不过将人类的一些根深蒂固的偏见通过数据、代码承载了下来。其次,算法歧视的产生与算法设计者以效率和利益为导向有关,算法的研发通常都是商业巨头完成,而企业在研发之时,主要考虑的是经济利益的多少和工作效率的高低,受这些因素的驱使,诸如平等等其他因素对算法来说都只是辅助其失去效率的工具和数值。算法设计者同样在效率导向之下进行编写程序,祈祷他们能够将数据进行不偏不倚的编入程序怕是一件难事。再次,算法歧视与并不中立的数据相关。如身份信息被盗用而形成的滥用信用卡记录。若算法基于这种不客观或者偶然性的数据得出结论,就会导致个体的合法权益遭受算法的偶然性歧视。最后,算法歧视还与机器学习方式有关。机器学习通常是算法自动化决策根据有限数据、单一化的个人特征或过往事件等一次性、偶然性数据得出,这种机会主义数据就会导致系统得出歧视性的结果。
算法歧视的危害后果主要表现在以下三方面:第一,算法歧视会导致社会公平正义受损,不利于构建人人平等、和谐稳定的社会环境。算法歧视使特定群体遭受不公平地对待,固化既有的歧视,严重违背公平与平等的社会价值;第二,算法歧视会导致权利失衡。“数据控制者和用户之间由于信息和资本力量的巨大差异,使得用户权利让渡成为一种必然,权利失衡就此产生。”贫困群体在数字时代将处于不利地位,富者越富,贫者越贫的“马太效应”在数字时代仍旧会继续应验。第三,“导致个人的公平交易和自由选择权受到限制。以具有歧视性的算法来决定信用贷款、人员录用及保险费率等将难以保障个人合法权益。”
算法推荐塑造“信息茧房”
“信息茧房”的概念最早由凯斯·桑斯坦提出,是指网络虽然给现代人带来了更多的资讯,实现了用户的选择自由,但个体往往只会注意到自己选择的东西和使自己感到愉悦的信息。以网络媒体为例,今日头条凭借先进的算法技术,为用户量身定制新闻产品,当用户点击一条关于娱乐明星的信息后,就会接连收到各种娱乐明星的动态,其真正实现了“你关心的,才是头条”的宣传标语。现在的新闻报道已变成“我的日报”,与传统的报道方式截然不同,过去个人感兴趣的报道仅占整张报道的一小部分,但这种形式使个体能够获取更广泛的信息,塑造自己的知识体系。
智能化推荐算法给用户塑造的“信息茧房”,将会带来以下危害:第一,算法推送的信息将对个体的知识系统和价值判断产生潜移默化的影响。当用户在享受个性化信息带来的乐趣和便捷的同时,个体的认知结构也逐步受到算法的“驯化”。用户长久将目光锁定在推荐算法的某一类固定信息中,形成了稳定的阅读习惯,将用户引入“井蛙困境”,用户难以关注其他领域的信息,长此以往,用户思维受到限制,知识体系单一化,对整个社会的认知将停留在某一时间段。导致我们难以发现真相,“在后真相的领域,政府与专家的公信力开始下降,反之网络媒体的信任度大大提升,反智主义盛行。”第二,推荐算法的信息只会加深自身固有的思想,对观念的更新与发展没有促进作用,这是由于算法主要通过个人提供的数据来不断学习和进化,当数据具有惯性时,算法这种单向进化的思路,会“屏蔽”其他领域的信息。推荐算法塑造的“信息茧房”会引发回声室效应和同质化效应。第三,推荐算法会加深“信息偏食”现象,损害个体对社会的认同感,危害到民主社会的发展。第四,算法推荐正将人的主体性地位客体化,对现代伦理的方法论带来了严峻挑战,现代伦理将个体的幸福置于根本地位,将道德个人主义方法论当作原则。突显人的主体地位是这种方法论的本质要求,该方法论认为社会正义的基础是以人为目的的观念和权利优先理念。而算法为用户塑造的“信息茧房”正背离这种方法论,使用户在不知不觉中成为福柯笔下“驯顺的肉体”。
算法权力
算法权力是人工智能在海量数据的基础上进行深度学习,利用大数据和算法技术做出影响公民、社会、政府的决策,这种现象正助推一种新兴的技术权力的形成。算法权力不像公权力有国家暴力机器,那它的表现形式是什么?一是算法通过对数据进行收集、分析和输出,演化为对商品、资源甚至是社会的建构力量;二是算法逐渐成为一种行为规范,影响乃至控制社会建构力量;三是算法不仅是政府的辅助工具,有时还会替代政府权力,做出影响相对人权利义务的决策。算法权力形成的基础:一是依靠机器优势,机器优势体现在算法对大数据的计算能力,使得人类因无法应对海量数据的处理任务而交出决策权。机器优势还体现在深度学习能力,让算法能够从既往数据中进行自我完善;二是依靠架构优势,即算法建立了一个不具有透明性的系统,对社会大众产生一种无形的影响,让其产生依赖性;三是依靠嵌入优势,即算法能够嵌入到社会权利的运转过程中,并通过社会权力实现对个体进行干涉、诱导和改变的目的。
算法权力在多数人的认知中只是一种技术力量,但这只是表象,它实则背后是一种资本权力。算法权力在利益集团的操纵之下可能会形成算法垄断。算法作为解决问题的决策程序,一旦注入企业的价值理念,就容易沦为企业获取巨额利润造成市场垄断的工具。例如新浪微博的热搜功能,用户难以区分哪些是真实的热搜新闻,哪些是算法操纵的结果。算法权力还可能在利益集团的操纵下形成数据霸权。这种数据霸权无论是对个人隐私保护还是国家数据安全都造成了巨大冲击,若放任数据霸权的扩张,不对其运行提出要求,全球治理格局都可能因此受到影响。
算法黑箱
算法“黑箱”,可将其理解为用户无法从外部知晓算法的内部决策过程。黑箱理论源于控制论,是指不分析系统的内部组成,而仅从输入端和输出端分析系统规律的一种理论方法。“黑箱”是一种隐喻,指“为人所不知的、既无法打开又难以从外部观察其内部结构的系统。”《黑箱社会》系统论述了算法“黑箱”现象的分类:一是“真实黑箱”,强调算法是对真实的客观反映,隐瞒算法的选择过程;二是“法律黑箱”,即算法公开都以商业秘密保护为由避开;三是“制造混乱”,即提供冗余的信息或使用晦涩的语言,加大算法的监管难度。算法“黑箱”的形成首先是算法本身具有复杂性,算法的逻辑原理不可控,数据来源不可靠,导致算法“黑箱”具有不可控性和潜在的风险。其次是算法“黑箱”的形成与算法不透明密切相关,利益集体常以企业安全和商业秘密为由规避监督,算法相关信息难以被披露,这种情形下的算法“黑箱”则是人为原因导致的,是基于算法安全和保护算法秘密的需求而产生的一种“故意不透明”。最后,是由于用户在算法应用过程中处于一种弱势地位,难以理解算法的运行逻辑,从而导致一种“解释黑箱”产生,这种算法素养的鸿沟不仅仅体现在算法设计者和用户之间,也发生在算法设计者和机器深度学习之中。
算法“黑箱”的存在对公民的知情权有重大影响。在智能投顾过程中,由于算法“黑箱”的存在使得用户无法知晓和理解投资过程中的风险,可能产生过高的投资期望,盲目信任算法,做出过分冒险的投资行为,影响金融市场的稳定。由于算法“黑箱”导致算法的运行过程无法被公众知晓,公众也难以寻求救济,算法收集来的数据是否正当不可知,算法作出的自动化决策对自身利益到底有哪些影响也是未知的。除此之外,算法“黑箱”对法律监管算法也带来很多的问题,让监管者监管算法的内容和手段均受到限制,即使算法存在漏洞和缺陷,算法的自动化决策是违背算法设计目的的,算法监管者也难以审查,无法进行及时问责。最后,算法“黑箱”的存在将导致公共利益被占据资本和技术的私人公司获取,私人公司能够利用算法“黑箱”谋求本属于政府的利益,政府将在算法社会中被边缘化,可能失去关键数据的控制权,政府面临去中心化的危险。
算法操控
算法操控主要是指算法能够在个体作出与自身有重大利害关系的决策时对个体产生潜移默化的影响,使个体做出对相对方(操控方)有利的抉择。它可分为两种类型,一种是表面上为算法操控,实则是算法背后的人在将其价值判断借助算法这一工具带给个体,以使其做出有利于自己的决策;另一种是算法异化,算法异化的本质是算法成为一种“异己的、敌对的”为人力所不可控的破坏性力量。算法不仅对个体的生活选择带来潜移默化的影响,在涉及国家政治的重大发展中,它也在发挥着自己强大的影响力。
算法之所以能够操控人类的决策,得益于其能够精准进行用户画像,为个体塑造“信息茧房”,使得利益集团能够快速、完整地掌控着各类群体的动向,“他们乐于接受什么,他们乐于怎么接受,他们的未来动向如何”算法都将个体的一切信息抽丝剥茧地告知利益集团,利益集团在悉知这一切后,就可让个体做出对其自身有利的决策。
三、法律规制算法的现状
根据算法的运行流程及其产生的两大类算法风险,本文主要从个人信息保护和算法责任制两条规制路径出发,因为个人信息保护法不仅对防止个人信息侵权有重大意义,而且其对算法歧视、算法黑箱、算法权力、算法操纵、算法塑造“信息茧房”的现象也进行了一定回应。通过探究当前我国法律对个人信息保护和算法责任的规定现状,并从中总结出相应的问题所在,以构建起法律规制算法的具体路径。
个人信息保护体系初步建立
我国专门的个人信息保护法(以下简称个保法)于2021年8月20日正式通过,个保法分为八个章节,较为系统全面地规定了个人信息处理规则,且细化为一般个人信息处理规则、敏感个人信息处理规则以及跨境信息处理规则,对个人享有的权利、处理者的义务以及国家监管机关职责以及对违反规定应承担的法律责任作出了系列安排。个保法的基本概念、原则、制度等方面既与国际个人信息保护相接轨,又体现了中国特色,确立了以“知情-同意”为核心的个人信息处理规则。个保法将合法、公开透明、安全、目的合理明确等作为处理个人信息的一般性原则,构建了处理个人信息(一般和敏感)的“告知-同意”、自动化决策要求、国家机关处理个人信息要求、个人信息安全审计要求等信息处理制度,赋予了个人知情权、决定权、查阅权、复制权、更正权、补充权、删除权,个人信息处理者承担安全保护、安全审计、事前风险评估、补救和通知等义务,本文聚焦“知情-同意”机制、个人信息保护影响评估制度以及自动化决策条款三个方面来分析个保法应对算法风险尚存在的问题。
1.“知情-同意”机制
对算法规制的重点之一就是个人数据赋权,但这意味着赋予数据主体越多权利越好吗?并非如此.因为个人数据赋权的同时,还需考虑数据流动和利益平衡的问题。首先个人数据赋权的基础就是“知情-同意”机制。对于知情同意机制,有不少学者认为此机制已经不适应当下的互联网时代,其给出的理由有如下几点:第一,用户无法理解冗长又复杂的隐私公告;第二,用户无法拿出过多的时间仔细浏览如此多的隐私公告;第三,个体对隐私公告中的风险缺乏足够的警惕;第四,关于隐私公告的调查已得出人们几乎不会阅读隐私公告的结论。由以上原因得出知情同意机制无法真正发挥意思表示的功能,用户的同意往往出于一种漫不经心或无可奈何的心态。个保法在第17条和18条分别规定了告知规则和无需告知的情形,要求告知个人关于个人信息处理者的基本信息、处理个人信息的目的、方式、种类与保存期限、个人行使权利的方式和程序,但这些告知事项还难以让用户知晓自动化决策产生的一般逻辑、自动化决策的可信度,以及自动化决策将对个人造成的风险。个保法在第14-16条规定了个人同意的标准、个人同意的撤回权以及不得以不同意为由拒绝提供产品或服务。这几条对于实践中出现的App将同意与提供服务或产品相捆绑的情形具有重要意义,但个人信息处理过程通常是持续性的,而个人授权同意确实一次性的,如果个人信息处理者改变了处理目的、处理方式以及处理的信息种类却没有及时通知个人,将导致个人对其信息失去控制。
2.合规审计制度与个人信息保护影响评估制度
个保法第54条和55条分别规定了个人信息处理者的定期合规审计制度与个人信息保护影响评估制度。个保法第54条规定了个人信息处理者的安全审计进行了原则性规定,但是并未明确个人信息处理者进行审计的部门、具体审计内容以及时间,自我合规审计虽然有利于激发个人信息处理者的合规动力,但若仅有原则性规定将导致信息处理者的合规成本大幅上涨,成为新的营商风险。个保法第55条规定了算法事前风险评估制度,明确了进行事前风险评估的情形与风险评估的内容,此项制度类似GDPR的算法影响评估制度,但第一,这项制度仅仅局限在事前进行评估,缺乏事中和事后的评估,难以全面监测算法风险,无法及时回应受害者;第二,评估的内容局限在对个人的影响,欠缺一种全局意识,忽视了对环境、经济等多方面的影响。第三,个人影响评估应当进行记录,但未规定应当记录哪些内容。
3.自动化决策条款
自动化决策的定义、透明度、处理结果公平以及“重大影响”的判断标准问题。个保法第73条虽界定了何为自动化决策,但同GDPR规定的识别分析相混同,这将导致自动化决策的适用范围受到限制。第24条规定了自动化决策的透明度,自动化决策的结果要公平合理以及当其对个人有“重大影响”时,个人有获得说明的权利。算法要提高透明度在理论界也广受推崇,但个保法第一款对透明度应当达到的程度未作出规定,如此将导致透明度仅仅沦为一种表面规定,无法具体落实,且关于自动化决策的结果要求公平合理,此条规定的目的是应对算法歧视,但忽视了自动化决策作出的过程也需要公平,应当遵循正当程序。另外,此条的第2款是为了防止算法为个人塑造“信息茧房”,规定了个人可以拒绝这种个性化推荐,并要求信息处理者提供不针对个人特征的选项,但拒绝权在何时行使并不明确,以及如何判断向个人进行信息推送及商业营销时,是否使用了用户的个人特征。第3款规定了如果通过自动化决策作出对个人权益有重大影响,要求向个人说明,但如何判定对个人有“重大影响”,这里应当明示判断标准,可以明确的是不能仅依个人信息主体的主观判断,应当结合场景等多重因素考量。
算法问责机制不明确
算法问 责制是指包括算法设计者、算法运营者、平台等可能的侵权行为主体有关于算法设计、运营的信息披露义务,披露内容主要是算法潜在的风险和出现侵权事件的原因,并提出算法的责任分配和补偿受害人的机制。当前现行法律法规对算法造成损害后如何分配责任,谁来承担责任,怎样承担责任并没有特殊的规定,故只能用传统的民法侵权理论进行分析,又因法律没有将算法侵权规定为特殊侵权类型,故需要用一般侵权的法律体系来救济个人权利。首先如何确定责任主体就是一大难题,算法本身并不能成为行为主体,即使赋予其人格,最终的结果也仅仅是终止使用该算法,让算法自我毁灭。但这并不能真正为受害人提供救济。若将责任主体指向算法背后操纵的“人”,那责任主体又变得多元化,包括经营者、设计者、平台等多个主体,因此有学者认为算法责任是一种联合义务责任,而非一人承担的责任。若将责任归于任意一方,将会大大增加以上主体的法律风险,从而可能抑制算法的创新。其次,还需要认定责任主体存在主观过错,又因算法侵权并非属于无过错的特殊情形,因此适用过错归责原则。但如何取证来证明责任主体存在过错,又是追究算法责任的一大难题,算法侵权往往基于平台和数据终端产生,一般情况难以对平台处理数据过程进行取证,用户也难以在数据终端进行取证。
四、法律规制体系的构建
细化个人信息保护体系
1.健全知情-同意机制
虽然知情同意制度也有一些问题,但不可将其抛弃。第一,从其地位来看,知情同意制度在个人信息保护中产生的意义就如同法律各项基本原则对司法实践的重大意义。其核心理念是保障个体的选择自由。在全世界范围来看,其地位也并未削弱,且有加强之势。第二,它也是数据携带权、删除权等数据权利的基础,若没有知情同意权的存在,其他权利亦将不复存在。第三,即使用户并不阅读隐私公告,直接点击同意,也并不会带来严重后果,因为网站或应用软件的用户基数庞大,且在媒体监督之下,用户即使不阅读隐私政策,这种行为所带来的风险也是可控的。如新浪微博的隐私条款事件,在媒体曝光后引起广大用户的热烈争议,最终被迫修改条款。第四,针对隐私公告复杂冗长,用户难以行权等问题,亦可通过完善知情同意机制来解决:第一,要健全通知机制,对于涉及算法的自动化决策告知,信息处理者不仅应当告知个保法所规定的一般事项,还应当告知算法决策产生过程的底层原理、决策的可信度和这种决策潜在的风险;第二,要健全同意机制,可通过动态授权机制来改善用户一次性授权,难以及时退出个人信息处理过程的情形。而动态授权机制则是根据数据使用情况及收集使用过程中产生的风险来决定是否需要用户再次授权,从而使用户更好地掌控自己的数据。用户若撤回收集信息的同意,也能倒逼企业增加对数据流通和使用的投入。
2.细化定期合规审计制度与个人影响评估制度
合规审计制度具有完善个人信息处理活动以及便利监管机构监管的双重作用。第一,要明确定期的标准,可以结合个人信息处理者的类型、处理目的与处理方式来设定一个具体的期限,当事人有约定的,约定优先;第二,合规审计的主体,程啸学者认为既可以由个人信息处理者内部进行合规审计,也可以委托外部专业机构进行合规审计。本文认定由内部部门进行合规审计可能会出现“既是运动员,又是裁判员”的不利监督后果,可以要求内部处理者进行合规审计后,还要报送个人信息保护负责人进行监督审查;第三,关于合规审计的内容,个保法规定的是关于个人信息处理者遵守法律、行政法规的情况,具体可以从个人信息处理者的处理目的是否合法,看其处理目的是否有损害到自然人的人格尊严和人身财产权益,是否有损公共利益及国家利益,另一方面,看其处理方式是否符合比例原则。
关于我国的个人影响评估制度,第一,我国对此项制度的定位是预防性制度,故仅仅规定在事前进行评估,但若将其定位为一项个人信息保护的风险动态检测制度,事中和事后都参照进行评估,更有利于保护个人信息权益,全面检测算法风险;第二,此项制度的适用前提不应当局限在对个人权益有重大影响的个人信息处理活动,应当将对经济、环境、社会等其他影响纳入其中;第三,评估主体与合规审计主体相同,既可以由个人信息处理者的内部部门履行,也可以由其委托专业机构进行评估;第四,关于记录的内容,可参考GDPR的规定,GDPR第30条对记录内容进行了详细的规定。
3.明细自动化决策条款
第一,如何保障自动化决策的透明度和结果的公平公正,既可以要求个人信息处理者将涉及到自动化决策的相关数据提供给个人来审查,也可以个人在认为其遭受自动化决策的歧视对待时,向监管部门投诉举报后,由监管部门对自动化决策结果进行审查确定,由于算法素养的限制及保护商业秘密的需求来看,由监管部门介入审查更为合适;第二,个性化推荐的拒绝权行使时间应当由用户来进行掌控,在提供的产品或服务中要以显著的方式设置允许用户关闭个性化推荐的选项,提前告知用户会使用到哪些针对其个人特征的选项,以使用户知情自动化决策作出的依据;第三,如何判断对个人有“重大影响”,可借鉴GDPR的规定,其第22条第1款认为“重大影响”是指对数据主体产生法律效力或类似的重大影响。而“法律效力的影响”是指会影响到个人的合法权利或在合同下的权利。故我国个保法的“重大影响”可理解为包括两种情形:一是该自动化决策将会影响到个人的法律权利、义务与责任;二是该自动化决策将会导致个人的经济、社会地位发生了改变。
建立明确的算法问责机制
随着《关于加强互联网信息服务算法治理的指导意见》《互联网信息服务算法推荐管理规定》两部法律文件的出台,初步形成了以国家互联网信息办公室为规制主体,以“算法安全”“算法公平”“算法向善”为内在依托价值的规制体系。但算法问责这一具体治理路径没有得以体现。问责要解决两个问题:如何补偿受害人以及如何给侵权人分配责任,而后者又要回答四个问题:侵权主体有哪些?侵权主体原本在各个阶段应当承担的义务是什么?侵权的归责原则是什么?因果关系如何确定?首先,如何补偿受害人:一是政府应当要求侵权人及时为受害人提供多样化的救济途径;二是建立一个赔偿基金会,该基金会的资金来源于算法设计者、运营者和平台。若侵权由于算法黑箱所致,则可由该基金会进行赔偿。该基金会成立后,可要求当新算法问世时,由设计者或运营者购买强制责任险。该赔偿基金会的成立对分担算法引发的安全风险有重要作用。其次,如何确定侵权主体,由于算法侵害的背后有着复杂的法律关系和多个责任方,原告要确定被告并非一件易事。目前算法系统本身尚不能成为责任主体,算法设计者、运营者和平台就成为潜在的责任主体。算法设计者应当负有主要责任,只有证实算法运营者违规运行或擅自更换算法代码和逻辑而造成的损害,算法设计者才无需承担责任。
算法责任制还需明确侵权主体在各个阶段应当承担哪些义务:在算法设计阶段,算法设计者在进行设计时,应当将社会规范融入到算法中,将人类社会的道德伦理规范及其价值嵌入到系统之中,伦理框架应当聚集法学家、社会学家等专家来共同设计。设计完成后还应当交由相关监管部门进行检测和试验,再进行登记和审批,最后才可投入使用。如此一来,既可以防止算法不遵循特定的程序运行,又可确保其实施符合算法设计者的预期,避免算法歧视侵害个体的合法权益。但这种嵌入道德价值的系统应当应用在对个体权利义务有较大影响的算法之中。另外,设计者要对其设计的算法系统负责,以实现算法作出自动化决策的过程得到有效审查,还便于追究真正的侵权人。算法的监管系统还应当将设计责任纳入其中,与现有的数据安全制度和隐私保护制度结合起来。第一,算法设计者记录设计情况应当成为一种强制性规定。第二,在算法进入测试时,要全面检测系统潜在的风险。这种设计责任有利于管理投入使用后的算法,也能反作用于系统研发,促进符合价值取向的算法发展。第三,算法设计者还需对系统实验负责。法律要对个体影响重大的系统实验相关具体操作进行明确规定,设计者要定期更新实验,通过更新测试能够对算法性能得出客观评价。实验过程中要将社会整体利益作为考核要求,以防算法设计片面追求商业利益。
在算法运营阶段,第一,要加强算法运营者的社会责任,要求算法运营者必须遵守法律法规的要求,在收集、使用用户个人数据时必须要充分尊重和保障用户权利,不得违背法律和伦理的约束。算法运营者可以在其能力范围内以清晰简明的方式向社会大众公开算法运行的逻辑及其可能产生的风险有哪些,推动构建值得信赖的算法系统,保障算法行业的健康发展。第二,还要建立平台责任和技术责任并重的责任分配体系,当前采取的是结果监管下的平台责任,当算法产生危害结果之后才进行追责,这种追责机制是基于算法工具性的假设。平台作为算法自动化决策的重要主体,需要承担事前风险预防,事中保障安全运行以及事后承担相关责任。
关于算法侵权的归责原则与因果关系如何判断,首先对于归责原则,由于算法决策的具有极强的专业性,个人由于算法素养的限制难以提供证据证明算法侵权主体的过错,同时归责原则还要考虑算法技术的发展,故为平衡个人与算法发展的利益,一般应当采用过错推定原则,由算法侵权主体来证明自己不存在过错,但对于特殊情形,如算法决策使用了敏感信息,作出了对个人权益影响较大的自动化决策等情形,则可以考虑适用无过错归责原则。另外,由于算法侵权与一般侵权有着较大区别,无法运用必然性或盖然性因果关系,算法根据相关关系得出结论。但相关关系不具有稳定性,易受环境影响而迅速发生变化,这会提高系统得出结果的错误率。算法系统的相关关系与变量的相关系数是正相关的。有学者认为当变量的相关系数超过0.8,才说明自动化决策是合理可信的。若变量之间的相关性较弱或根本不存在相关性,则算法决策是存在问题的,应当对受害人承担侵权责任。
结语
随着数字经济的发展,数据作为生产要素的地位越发重要,各个行业的发展,具体业务的应用与创新都离不开算法技术,与此同时,算法的发展也带来了诸多风险,算法侵蚀着人的主体性,给个体塑造“信息茧房”,收集和使用个人数据大规模泄露个人隐私,算法歧视,算法“黑箱”等问题。我国规制算法应当树立算法是用来保障人的尊严和价值的理念,在算法治理过程中要贯彻算法公平、平等、算法问责和审计的原则,充分运用元规制治理理论来规制算法,以事前赋权——细化个人信息保护体系和事后问责——算法责任制为核心的具体规制路径来全面系统地规制算法风险。算法风险的治理是一项系统、复杂的工程,不仅涉及个人信息保护,也与数据商业利用、流转和共享等数据生态链的诸多环节密切相关,需要政府部门、监管机构等多元社会主体参与合作治理,尽管算法的法律规制在多元复杂的利益格局中艰难前行,但相信未来我国一定能创建出完善的人工智能体系,培育繁荣兴盛的智能经济,并建成一个更加高效便民的智能社会。
医疗行业商业贿赂法律规制
作者:中央财经大学法学院教授 邢会强
就政府部门使用人脸识别的法律规制,特别许可使用制度既发挥人脸识别技术之利,又防范人脸识别技术之弊,是一种更加理性的制度安排。就非政府部门使用人脸识别的法律规制,对人脸信息作出比一般个人信息更为严格的特别保护和特别规制,更有利于保护个人的人脸信息。
在无竞争性的服务领域(如民航、铁路、学校、社区等)使用人脸识别技术,当人们拒绝“刷脸”时,应提供其他替代性的验证机制,而不能不“刷脸”就不能使用或进入。即使不全面叫停政府部门安装、使用人脸识别技术,也应该对其进行严格的法律规制,防范安全风险,防止被滥用。
随着技术的发展,人脸识别(俗称 “刷脸”)在我国逐渐盛行。我国目前对人脸识别技术尚无专门的法律规定,无论是政府、社区、事业单位还是商家,均可以任意安装人脸识别技术,强制人们“刷脸”验证。而人们若拒绝“刷脸”,则基本上无法使用相关服务。如若不服,则投诉无门,只能对簿公堂,但诉讼成本高昂。基于此,有必要对人脸识别的法律规制予以深入研究,厘定人脸识别技术应遵循的法律底线,明晰人脸识别技术法律规制的基本要点。
人脸识别技术的特征、收益与风险
人脸识别可简单地概括为:机器对静态或视频中的人脸图像进行特征提取、分类识别,以达到身份鉴别的目的。人脸识别技术的应用场景日渐丰富,其功能归纳起来主要是身份验证和监控。这又可以分为政府机构的公共应用和非政府机构的商业应用与慈善应用等。
人脸具有如下的特征:独特性和直接识别性,方便性,不可更改性,变化性,易采集性,不可匿名性,多维性。人脸的上述特征直接决定了人脸识别技术具有复杂性特征,而现实中很多收集人脸的机构并不具备相应的风险防控、安全保障能力、组织和机制。
人脸识别技术的收益是世所公认的,人脸识别技术可以应用于诸多场景。
但是,另一方面,人脸识别技术的风险也是不可小觑的。其风险主要有:一是误差风险。如果人脸识别技术不够成熟,可能出现混淆。此外,由于人脸为非刚体性,人脸之间的相似性以及各种变化因素的影响,准确的人脸识别仍较困难。二是身份认证被破解的风险。密码是秘密保存的,但人脸却是公之于众的。最新的人脸验证技术,结合了3D图片进行登录与验证,这比以前的技术更难破解,但破解并非完全不可能。三是信息泄露风险。用于保存人脸信息的电子计算机系统存在被黑客入侵、病毒入侵的风险,这可能导致信息泄露。此外,内部员工的作案也可能导致信息泄露。生物信息具有100%的可识别性,一旦被泄露或是被不当利用,后果无法估量。
国外人脸识别法律规制的经验
从美国有限的既有立法或立法草案、建议来看,美国对政府部门使用人脸识别的法律规制,有别于对非政府机构使用人脸识别的法律规制,二者是分别立法、分别规制的,规制的具体方法和价值取向截然不同。对政府部门使用人脸识别的法律规制主要分为三种:第一种是禁止使用制度,第二种是特别许可使用制度,第三种是任意使用制度。禁止使用制度为美国旧金山市所首创,目前备受关注。特别许可使用制度目前尚处于民间建议阶段。任意使用制度即对政府使用人脸识别尚未特别立法,政府部门可以任意使用人脸识别。而美国对非政府机构使用人脸识别的法律规制,主要是将人脸信息作为生物信息之一加以规制,它也可以分为两种路径:一种是比对一般个人信息的保护更为严格的高强度规制路径或特别规制路径,另一种是与对一般个人信息的保护没有区分的、同等程度保护的普通规制路径。
欧盟与美国对政府部门和商业部门使用人脸识别技术分别进行立法不同,欧盟《通用数据保护条例》(以下简称GDPR)是对公私部门一体适用的。这就意味着,无论是政府部门还是非政府部门,只要使用人脸识别技术,就必须遵守相同的规范。
GDPR第4条定义条款对“生物数据”(biometric data)进行的界定包括“面部图像”(facial images)。GDPR第9条规定了特殊种类的个人数据处理,其中就包括生物数据。GDPR对生物数据的处理,遵循“原则禁止,特殊例外”的原则。数据控制者可援引“数据主体的同意”作为个人生物数据处理的例外,但该同意必须是“自由给予、明确、具体、不含混”的,数据主体的任何被动同意均不符合GDPR的规定。
2019年7月,欧洲数据保护委员会(EDPB)颁布了《关于通过视频设备处理个人数据的3/2019指引》提供了尽量降低风险的措施,例如,对原始数据进行分离存储和传输;对生物识别数据尤其是分离出的片段数据进行加密并制定加密和秘钥管理政策;整合关于反欺诈的组织性和技术性措施;为数据分配整合代码;禁止外部访问生物识别数据;及时删除原始数据,如果必须保存则采取添加干扰(noise-additive)的保护方法。
就政府部门使用人脸识别的法律规制,目前国外虽然三种制度并存,但任意使用制度显然是大数据时代之前的做法,未认识到人脸识别技术给人们带来的风险;禁止使用制度也太过于激进,不利于发挥人脸识别技术的优势,扼杀了技术的发展。相比较而言,特别许可使用制度既发挥人脸识别技术之利,又防范人脸识别技术之弊,是一种更加理性的制度安排,值得我国借鉴。
就非政府部门使用人脸识别的法律规制,目前国外虽然两种制度并存,但将人脸信息作为一般个人信息对待的普通规制路径显然是没有认识到人脸信息及人脸识别技术的特殊性,将个人置于极大的风险之中。而对人脸信息作出比对一般个人信息更为严格的特别保护和特别规制,更有利于保护个人的人脸信息,更值得我国借鉴。
但是,各国的政治、社会和技术背景存在各自的特殊性,这就决定了国外对于人脸识别技术的相关制度未必适合于我国,我国在引进相关制度时需要审慎甄别。
完善我国人脸识别法律规制的建议
我国2020年5月颁布的民法典第1034条第1款规定,“自然人的个人信息受法律保护”,并在该条第2款个人信息的定义中,明确将生物识别信息列举为个人信息,但也未对个人生物识别信息作特别保护。个人信息保护法(草案)第27条规定:“在公共场所安装图像采集、个人身份识别设备,应当为维护公共安全所必需,遵守国家有关规定,并设置显著的提示标识。所收集的个人图像、个人身份特征信息只能用于维护公共安全的目的,不得公开或者向他人提供;取得个人单独同意或者法律、行政法规另有规定的除外。”这里“图像采集”包括人脸识别。个人信息保护法(草案)第29条将个人生物信息作为敏感个人信息加以保护,并规定了“充分必要”原则。但总体而言,个人信息保护法(草案)对人脸识别技术的规制仍较为简略。
我国目前对包括人脸信息在内的生物识别信息的特别保护呈现出软法先行的特点。2020年2月,全国金融标准化技术委员会审查通过的《个人金融信息保护技术规范》(JR/T 0171-2020)(以下简称《规范》)将生物识别信息列为敏感性最高的C3类信息,并要求金融机构不应委托或授权无金融业相关资质的机构收集C3类信息,金融机构及其受托人收集、通过公共网络传输、存储C3类信息时,应使用加密措施。2020年3月新修订的我国国家标准GB/T 35273-2020《信息安全技术个人信息安全规范》明确规定个人生物识别信息属于个人敏感信息,并对个人敏感信息进行了特殊保护。2020年11月27日,工信部组织发布了电信终端产业协会团体标准《APP收集使用个人信息最小必要评估规范人脸信息》,规定了移动应用软件对人脸信息的收集、使用、存储、销毁等活动中的最小必要规范和评估方法,并通过个人信息处理活动中的典型应用场景来说明如何落实最小必要原则。
数据治理的普遍性、技术性、复杂性、应时性等特点决定了数据治理具有一定的软法空间,但软法欠缺强制力的特点决定了对包括人脸信息在内的个人生物识别信息的特别保护离不开硬法的托底。因此,有必要从硬法的角度系统思考对包括人脸信息在内的个人生物识别信息的特别法律保护、对人脸识别的特别法律规制问题。
1、建立健全一体适用的安全与责任底线
法律规制人脸识别技术的目的,不是一味地叫停该项技术的使用,而是要在确保安全的前提下,倡导一种负责任的使用。为此,笔者建议建立如下公私部门一体适用的安全与责任底线。如果不符合这些安全与底线原则,则为违法收集个人信息。
其一,无论谁使用人脸识别技术,人脸识别系统要经第三方独立机构定期检测,以检测其准确性与非歧视性。必要时,人脸识别系统及其定期检测结果应向监管部门备案。
其二,无论谁通过公共网络收集、传输、存储人脸信息,都应使用加密措施,并对收集到的人脸信息进行分片段单独存储,并不得公开披露人脸信息。
其三,无论谁使用人脸识别技术,都应该建立可追踪的技术体系。谁在何时何地查询、使用、修改、下载了人脸信息,事后都可查证,以便发生侵权时,人脸识别技术使用主体对侵权人进行查证和追责。
其四,法律应该规定,无论是谁使用人脸识别技术,如果其收集的信息被证明出现被盗窃、泄露、非法使用、非法出售、非法提供等情形,从而给信息主体造成损失的,收集者对受害人受到的实际损失承担连带赔偿责任;如果受害人的实际损失难以证明,则应对每个受害人至少赔偿一定数额(如2000元人民币)的法定定额赔偿金。受害人受到的实际损失小于该法定定额赔偿金的,受害人可直接主张法定定额赔偿金。
其五,无论是谁使用人脸识别技术,人们均有权拒绝“刷脸”。如果是在无竞争性的服务领域(如民航、铁路、学校、社区等)使用人脸识别技术,当人们拒绝“刷脸”时,应提供其他替代性的验证机制,而不能不“刷脸”就不能使用或进入。毕竟,每个人的风险偏好是不尽相同的,法律规则的设置应容忍和尊重那些低风险偏好的人,尤其是在当前不能做到人脸识别系统百分之百安全的情况下。
2、区分公私部门配置不同的规制重心
对政府部门使用人脸识别技术应以事前事中规制为主,对非政府部门使用人脸识别技术应以事中事后规制为主。
政府部门执行公务过程中构成侵权,因有国家赔偿法的限额赔偿而使当事人难以获得充分赔偿,且一旦政府部门涉嫌侵权对政府部门的声誉将造成重大不良影响,因此,应着重从事前进行风险防范,即对政府部门安装、使用人脸识别技术应坚持有权机构批准同意原则,未经有权机构批准同意,政府任何部门不得安装、使用人脸识别技术。有权机构在批准时,应考虑到安装、使用人脸识别技术的必要性、正当性,且应通过一定的法律正当程序,遵循公开、透明、民主参与等原则予以批准。
如果对商业部门安装、使用人脸识别技术坚持事前批准的话,因政府部门在技术上往往落后于商业部门,这可能发展不出来一种有效的审批,更为重要的是,还可能遏制商业创新和技术创新。但是,如果商业部门的人脸识别给消费者造成损害的话,受害人可以通过事后的民事诉讼来进行追责,执法部门也可以通过事中或事后的执法进行监管和追责。当然,这需要我们健全法律框架,使执法部门有法可依,使受害人可以依法维权。
至于我国是否需要全面禁止政府部门安装、使用人脸识别系统,这属于政治过程决定的结果。我国公安机关布控的天眼系统,通过安装在城市公共场合的摄像头对人脸进行实时、精准且快速的甄别,让犯罪分子无处可逃。但通过人脸识别技术所进行的监控对个人自由的威胁也越来越引起人们的重视。人们对全面监控感到压迫和焦虑。即使不全面叫停政府部门安装、使用人脸识别技术,也应该对其进行严格的法律规制,防范安全风险,防止被滥用。
3、对人脸信息的采集施加比对一般个人信息的采集更强的规制力度
人脸信息不同于一般个人信息,甚至人脸信息作为生物信息也与其他生物信息(如指纹)也有较大区别。因此,人脸信息的采集应坚持特别规制即差异化规制,即应坚持更强的知情同意原则。
采集一般个人信息,除了法定例外情形,一般都需要征得数据主体的知情同意。但人脸信息具有特殊性,除了法定例外情形,其所适用的知情同意原则,应比一般的个人信息所适用的知情同意原则更严格,即应坚持书面(written)知情同意原则。此外,法律应规定采集人脸信息之前,采集者应告知被采集者其采集的信息具体类型、目的、保存时间、被采集者的风险与权利,告知的方式必须是书面的。
来源: 经济参考报
网络账号注销的法律规制
教育数字化支撑着教育强国建设。因此,笔者尝试厘清数字技术应用于教育治理领域的潜在风险,并就此从法律规制角度探讨其具体防治,以推动教育数字化,实现教育强国建设。
一、数字技术赋能教育治理的潜在风险
教育治理在线采集数据的内容失真
教育场景的复杂多变性使得教育行政部门、学校、数字技术企业等教育治理主体在数据采集过程中面临内容失真风险。具体而言,教育治理要素繁多,且同一要素在不同地区或场域往往具有明显的个性化特征,而数字技术收集和检测到的数据却普遍具有标准化、统一化特点,致使其难以精准反映教育治理要素的个性化差异。同时,数据采集过程伴随着多方利益博弈,这种价值取舍不可避免地影响着数据内容的真实性,进而会限制数字技术对教育治理的赋能效度。
教育治理数据平台的安全隐患
实践中,常见的教育治理数据平台既包括国家层面的基础教育管理服务平台等,又包括到地方性的浙江省教育现代化监测数据库等,还包括各级各类学校自建的数据平台。这些数据平台普遍存在数据量庞大、类型复杂、专业性强的特点,而面临独特的安全挑战:一是数据分析对数字技术的智能化水平和应用精准度要求高,操作失误或遭受攻击易引发隐私泄露风险;二是教育数据分布分散,公私部门缺乏统一收集标准,加之各平台安全意识和保护能力参差不齐,非法获取、买卖教育数据等风险事件时有发生,数据安全形势不容乐观。
不同教育治理主体的信息孤岛
实践中教育治理主体的多元性与层级交错特性,造成了严重的“信息孤岛”问题。其具体表现为:教育行政部门、各级各类学校、数字技术企业等教育治理主体因能力和处境差异,其数据采集的具体要求、处理技术或标准格式等存在明显差异,即使针对同一教育治理要素不同地区、不同学校、不同级别的数据采集、分析、处理及至最后的数据信息挖掘也并不一致,致使同一时空教育治理要素所属的各类数据与其承载的信息间的关联性、耦合性被人为割裂。而更值得注意的是,受传统“部门主义”思想的影响,各教育治理主体容易将所采集的教育数据视为“私有财产”而不愿共享,进一步阻碍数字技术对教育治理的赋能潜力发挥。
教育治理智能应用的算法偏见
数字技术赋能教育治理的落脚点在于借助算法挖掘数据价值。然而,算法作为人类创造的技术产品,不可避免地嵌入了设计者的主观意识形态,可能带有隐性偏见。特别值得警惕的是,人工智能的自主学习特性使其决策过程变得不透明,决策结果难以解读,这不仅削弱了教育决策的公信力,还可能导致更具隐蔽性的治理危机,违背教育公平与质量的根本追求。
二、数字技术赋能教育治理风险的法律规制
建设前瞻性风险防控制度体系
教育部等相关部委应在教育治理领域积极协同落实《数据安全法》《个信息保护法》《互联网安全法》《网络安全法》等法律法规。同时,针对数字技术嵌入教育治理的新型风险特征,各级教育和技术管理部门应根据教育治理要素差异出台个性化的操作指南和标准规范,如针对高校、中学、小学等不同类型和不同级别学校制定差异化的数字技术使用规则。另外,各级各类教育行政部门和学校应建立危机应对机制,明确风险规制条件和流程,根据风险等级部署数据安全检查、算法审核等具体举措,实现从预防到应对的全流程风险管控。
完善算法偏见的动态监管机制
首先,建立教育治理算法的公开制度,通过法律规则明确技术公开责任主体,打破算法“黑箱”,增强技术透明度,预防算法偏见的隐性扩散。其次,赋予师生等利益主体算法解释请求权,使其能够针对影响自身权益的算法决策要求合理解释,避免“技术主导治理”偏离教育本质,确保决策过程的可理解性与可救济性。再次,强化算法源头监管,引导技术开发者树立正向价值观,防止算法“先天”带有偏见。最后,建立技术问责制度,明确算法操作的法律后果,防止技术开发者和使用者不当干预教育过程。
健全多元法律责任配置
针对数字技术与教育治理相融合过程中可能出现的不当行为,需构建完善的法律责任体系,来作为风险防控的最后防线。对教育行政部门的违法违规行为,建立数据风险治理的行政问责制度,追究“胡作为”“慢作为”部门及责任人的行政责任。对数据泄露、造假、篡改等严重行为,建立民事、行政与刑事多元问责机制。对于学校、师生等参与主体而言,主要针对其在风险事件中的不当反应分门别类地设置法律责任。对技术企业而言,重点规制其在技术开发和应用过程中的不当干预行为。
(作者:赵智兴,系四川师范大学经济与管理学院助理研究员)
来源: 光明网
无人驾驶法律规制
来源:人民网 原创稿
人民网北京4月28日电 (黄盛、实习生陈诗仪)浙江金华案、江苏淮安案、上海食派士案等采取“二选一”行为的平台,被要求承担罚款或赔偿;34家互联网平台企业,在4月互联网平台企业行政指导会后发布《依法合规经营承诺》;市场监管总局依法对美团实施“二选一”等涉嫌垄断行为立案调查……近期,针对外卖平台“二选一”的行为,社会各界持续关注。
如何对消费平台“二选一”行为进行有效管理?近日,对外经济贸易大学法学院和北京师范大学法学院联合举办了“二选一”行为竞争法规制研讨会(以下简称“研讨会”),邀请了多位法律界专家进行研讨。
对外经济贸易大学法学院教授、中国法学会国际经济法学研究会会长沈四宝表示,平台经济既要发展又要规范,近期监管部门着重提出要遏制平台经济中的资本无序扩张,在具体实践中迫切需要法律规制。
“外卖等消费平台‘二选一’对信息资源流动的阻碍、对平台内经营者的损害,以及对营商环境的破坏较为明显。”上海交通大学法学院教授王先林表示,外卖平台“二选一”行为对竞争对手产生较为明显的封锁、排斥效应,影响了潜在经营者的进入。
山东省餐饮与住宿行业协会会长张文魁表示,外卖平台的“二选一”行为导致餐饮商户和企业处于弱势地位,使得餐饮行业成本不断增加。更有甚者,“二选一”导致一些假冒伪劣现象,亟需要加强治理。
怎样针对平台“二选一”行为进行治理?多位法律界专家认为,尽管《反垄断法》《反不正当竞争法》《电子商务法》等现行法律对“二选一”行为有所涉及,但要在此基础上加速形成更为完整的规制体系。
对外经济贸易大学法学院院长梅夏英表示,消费平台“二选一”行为利用公共资源和市场优势令商家和消费者处于被动地位。从《反垄断法》的角度来看,企业须守住“保证市场自由”和“禁止滥用优势地位”两个底线,外卖平台“二选一”行为的竞争法规制是亟需加速完善。
上海财经大学助理教授袁波认为,当下对“二选一”的监管态度已从严格监管转变为坚决根治。针对外卖平台“二选一”已出现从地方性执法走向全国性执法的趋势。
华东政法大学互联网法治研究院院长高富平也表示,平台在参与市场竞争时,其经营模式决定了需要通过一定的策略来实现发展,“二选一”行为作为一种商业模式具有客观性。但是平台的竞争行为应受到一定的限制,《电子商务法》《网络交易管理办法》等已做出明确规定,要当加强执法力度并衔接《反不正当竞争法》《反垄断法》,以形成一套更为完整的规制体系。
中国社会科学院国际法研究所副教授黄晋授认为,平台“二选一”行为的法律规制,需要经营者、行业协会、行政机关、司法机关四方共治才能解决。
多位法律专家认为,平台“二选一”行为是平台经济法律治理中出现的一类新问题,其不仅涉及到已有的法律如何适用,也涉及如何创新法律治理的理念及规则。平台经济的法律治理应致力于增量利益的创造,规则设计时要注重利益平衡。
本文到此结束,希望本文法律规制的英文,耕地非农化的法律规制对您有所帮助,欢迎收藏本网站。