近日,广州互联网法院审理了一起网络侵权责任纠纷案件,一起来看看吧——
基本案情
张某(化名)是红彤彤公司(化名)的法定代表人。叮叮咚咚平台(化名)是叮叮咚咚公司(化名)运营的企业信用信息查询平台。红彤彤公司、张某发现叮叮咚咚平台将与张某无关的大量信息错误关联至其名下,上述错误关联信息包括失信被执行人信息、限制高消费信息以及终本执行案件信息等。同时,红彤彤公司在叮叮咚咚平台主页的法定代表人任职信息一栏也被错误关联了上述信息。
张某、红彤彤公司认为,叮叮咚咚公司的上述行为侵害了其名誉权、个人信息权益,故提起诉讼,请求判令叮叮咚咚公司依法承担赔礼道歉、赔偿经济损失等民事责任。
叮叮咚咚公司辩称,案涉关联行为是由于平台算法对与本案原告张某同名同姓但不同身份证号的另一主体识别错误造成,并非人为导致,要求驳回原告的全部诉讼请求。
争议焦点
一、叮叮咚咚公司是否侵害张某、红彤彤公司的名誉权;
二、叮叮咚咚公司是否侵害张某的个人信息权益;
三、如存在前述侵权,叮叮咚咚公司应如何承担民事责任。
裁判结果
广州互联网法院判决:
一、叮叮咚咚公司在其平台官方网址、APP、微信公众号以及张某、红彤彤公司在该平台的主页内分别刊登对张某、红彤彤公司的致歉声明,声明内容需经法院审查,声明保留时间不少于十五日;如叮叮咚咚公司逾期未履行上述判决义务,法院将采取在报刊、网络等媒体上发布公告或者公布生效裁判文书等方式执行,产生的费用由叮叮咚咚公司负担;
二、叮叮咚咚公司向张某赔偿经济损失30000元;
三、叮叮咚咚公司向红彤彤公司赔偿经济损失30000元;
四、叮叮咚咚公司向张某、红彤彤公司赔偿律师费、公证费损失共计31200元;
五、驳回张某、红彤彤公司的其他诉讼请求。
广州市中级人民法院判决:
驳回上诉,维持原判。
上述判决已发生法律效力。
裁判理由
法院认为,叮叮咚咚公司作为有资质的企业征信机构,其运用算法进行大数据利用,应对利用结果承担相应责任。本案中,叮叮咚咚公司对案涉错误关联未尽到与其能力、义务相匹配的注意义务。案涉有关张某、红彤彤公司的信用报告,因同名同姓主体的身份识别问题而出现错误,该错误类型非常典型、明显,是开展征信业务所必须解决的基础问题。不论是叮叮咚咚公司明知相关技术不能避免此类错误而不予解决,亦或是因疏忽大意未注意到该类典型错误问题,均应认为叮叮咚咚公司对案涉错误关联未尽到合理注意义务,主观上具有过错。综合考量促进征信类平台发展及信息主体信用权利、公众信赖利益三者价值判断,法院认定叮叮咚咚公司对案涉错误关联未尽到相应注意义务,主观上存在过错。案涉错误关联已造成对张某、红彤彤公司名誉权的损害,依法应当承担相应民事责任。
叮叮咚咚公司作为个人信息的处理者,其从公开渠道抓取张某的各类个人信息进行加工,形成案涉信用报告并以此获利,其对个人信息的处理应负审慎注意义务,避免因其处理行为造成个人信息的不完整、不准确。现叮叮咚咚公司提供的案涉信用报告将与张某无关的信息错误关联至张某名下,损害了张某的个人信息权益。现其提供的证据不足以证明其对案涉个人信息的处理没有过错,故应由其承担举证不能的不利后果,故法院认定叮叮咚咚公司对案涉个人信息的处理行为存在过错,应承担相应的法律责任。
法官说法
法官 张春和
大数据时代的算法司法规制困境
大数据与人工智能时代,算法处理海量数据相较于人工方式更为高效、优越,已成为数据处理不可或缺的工具。随着算法运用的普及,涉算法侵权纠纷频发。该类纠纷通常表现为因算法模型漏洞、算法运行错误、算法歧视、算法自动化推荐不当等产生的侵权纠纷,所涉主体包括数据主体、数据处理者、社会公众等。本案中,叮叮咚咚公司作为算法运用者,对案涉错误关联结果提出“技术中立”的抗辩意见,力图否认其责任主体地位。该抗辩意见具有代表性,反映出大数据时代的算法司法规制困境。
算法作为自动化工具的一种,最大的特征是去人为化。算法的输出目标一旦被设定,就会自动通过深度学习无限趋近。算法深度学习的结果,可能与设计之初大相径庭,其运行规则、运作方式,连设计者本身可能都难以理解。基于此,算法运用者往往以算法错误结果系由机器自动化决策造成进行抗辩。另外,算法的原理和互动机制具有一定隐秘性,外界难以得知。从外观来看,社会公众只能看到算法的输出结果,无从得知其设计模型、机制机理等,在此情况下,主张权利受损的一方难以证明算法运用者主观上具有过错,司法对此也难以审查。这就是算法黑箱带来的法律规制挑战。
即使算法运用者披露了算法模型、机制机理,司法审查也依然面临困难。首先,算法具有一定的复杂性和专业性。算法本身在不断学习、不断变化,难以从算法模型、机制机理本身评判其优劣。其次,算法的结果错误,可能源于算法模型本身的漏洞,算法部署和运行的错误,数据收集清洗的瑕疵以及机器深度学习的偏差等。对算法模型、机制机理进行司法审查,成本高、效率低,缺乏可操作性。最后,某些算法运用者并没有恶意利用算法歧视、算法黑箱侵权的主观故意,其算法模型、机制机理本身不一定有明显问题,但仅此也并不意味着算法运用者对错误结果不存在主观过错。故此,对算法模型、机制机理进行审查,并不能有效解决主观过错的认定问题。
确立算法运用者的责任主体地位——否定“技术中立”
法律规制的对象只能是人的行为。算法运用者有关“技术中立”的抗辩,实质是对算法受法律规制的否认。因此,涉算法侵权纠纷所要解决的第一个问题,就是算法的可规制性问题。算法运用者应对算法运用造成的错误结果承担相应责任,理由如下:
一、算法输出结果是人类意志的体现
算法是人机交互的结果,是人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制。就算法的单个输出结果来看,算法运用者主观上可能并不希望发生错误,但从算法运用的整体来看,算法输出的结果,归根结底是人类意志的体现。算法通过深度学习获得的“自我决策权”,是在人类设定的目标范围内所取得。算法错误造成的损害,最终亦应由算法运用者承担。如以“技术中立”否认算法运用者的责任主体地位,将陷入算法错误无人承责、算法损害无从主张的境地,不符合公平原则和诚信原则。
二、算法运用者对算法具有控制能力
算法的设计、部署、运行到算法的调整、补漏,均是人为实施的结果,算法的自我学习能力亦是算法设计者所赋予。平台作为算法设计者,其对算法基于外部实时网络环境作出的反应并非完全不可预测。简言之,算法对不良数据的反应能力仍在算法设计者的控制范围内。
再者,纵使算法基于自我学习发生运行偏差,算法运用者也完全有能力对算法的机制机理、模型、数据和应用结果等进行审核、评估、验证,并及时纠正。
三、算法运用者对算法的运用创设了危险后果
从危险后果创设的角度,算法运用者对算法这一工具的利用包含了对该利用可能带来的结果的容许,正是算法运用者对算法这一技术的利用本身创设了危险发生的可能性,故而由其对算法运用产生的损害后果承责,具有合理性。由此,也可以迫使算法运用者通过增加投资、加强管理、优化机制等方式,提升算法安全性,减少算法错误率。
四、符合经济学上的风险-收益理论
利益之所在,风险之所归。算法运用者因算法的运用结果而获益,便应对算法运用造成的错误结果承责。如前所述,算法个别的错误结果也许是运用者主观所否定的,但就算法运用存在的风险而言,仍在运用者的主观预测范围内。况且,对个别错误结果的承责,与算法运用带来的获利是相匹配的。对个别错误结果的承责,也不足以影响以算法运用为根基的大数据行业的整体发展。
审查算法运用者主观过错的“外观主义”规则
算法透明规则要求算法设计者或运用者公开和披露包括源代码在内的算法要素。《互联网信息服务算法推荐管理规定》也要求算法服务提供者披露算法模型、运行机制机理等,但该规则为行政监管规则,如前所述,在司法审查中,该规则并未能实际解决主观过错的认定问题。基于此,司法审查应将关注视角从技术本身转移到技术带来的权利、义务、责任关系变动,不拘泥于从算法本身审查主体过错,而是从外部动态要素综合考量算法运用者的主观过错,以此应对算法黑箱、算法复杂性专业性、机器自动学习等带来的审查干扰。进一步而言,认定算法运用者的主观过错,应结合平台的法律主体地位、算法错误的明显程度、数据所涉权益的重要程度、平台规模、平台营利模式及获利情况等动态因素,在个性化的场景中综合判断。
首先,平台的法律主体地位直接影响到平台所应承担的注意义务程度。
具体而言,应判断平台系属于网络技术服务提供者还是网络内容服务提供者。如平台是网络技术服务提供者,仅是通过算法对用户发布的内容提供自动化推荐、排序等技术性服务,不对信息内容进行实际的管理与控制,则其仅在知道或者应当知道侵权行为存在或者接到被侵权人的通知后未采取有效措施时,承担相应法律责任;如平台是网络内容服务提供者,则其应对算法运行的错误结果直接负责,承担更高的注意义务。
其次,应结合算法错误的明显程度认定算法运用者的主观过错。
算法错误越常规、越明显,与业务的基础架构、底层建筑、功能发挥越相关,算法运用者对该类错误应承担的注意义务就越高,未尽到相应注意义务,被认定为侵权的可能性就越大。相反,如错误结果是算法运行过程中出现的不能被合理预料的偏差,或是仅仅由于数据来源不准确、技术发展瓶颈等导致的非常规错误,则应尽量从保护大数据产业发展的角度对侵权与否作出认定。
再次,应结合数据所涉权益的重要程度认定算法运用者的主观过错。
对数据进行分级分类管理,是《数据安全法》《个人信息保护法》的要义,也是平衡保护数据主体权益、社会公共利益,保障数据有效利用的必然要求。一方面,针对非敏感数据,在发生错误结果时原则上应当允许算法运用者通过事后救济的方式予以纠正。另一方面,针对敏感数据,如案涉负面信用信息等与数据主体权益关涉较大的数据,应当要求算法运用者秉持更加审慎、严谨的态度,采取更为有效的核查手段。对有效核查手段的判断,可结合算法运用者在事前、事中、事后的处理方式综合考量。如考察其在事前是否建立了健全的数据安全管理制度、是否进行了个人信息保护影响评估,在事中是否设置了技术过滤机制、是否引入人工辅助审查等交叉机制,在事后是否主动复核并及时纠正等。
最后,应结合平台规模、平台营利模式及获利情况综合认定算法运用者的主观过错。
对提供重要互联网平台服务、用户数量巨大、业务类型复杂的算法运用者,因其提供平台服务的获利较大,社会影响力较大,控制力较强,其对数据管理所承担的“守门人”责任较高,其应承担的注意义务也相应较高。
算法责任的分配应考虑多方主体利益平衡
大数据时代,数据处理者往往不是具有生物情感意志的自然人个体,而是法人或非法人组织。数据处理活动往往发生在企业的商业活动或政府机关履行职责的公务活动中。
对数据处理者的过错判断,不能仅仅停留在道德非难层面。过错判断应侧重客观化,成为一种用于协调各种法律价值的技术手段。对于过错的认定应基于价值的考量、利益的权衡,从被告防范损害发生的成本与受害人损害的大小和发生概率的关系角度出发,确认被告有无过错,进而建立一种刺激经济上更有效率的行为机制。算法规制的最终目的,是在尽可能不牺牲社会总体福祉的基础上,利用规则引导算法运用者、技术开发者自行消化算法不当结果导致的社会成本。
在考虑算法侵权责任的成立及责任承担具体方式时,应根据不同的场景,在个案中通过判断不同变量的强弱效果,作出最终的认定。一方面,要着重考虑数据主体的权益保护,充分救济其因遭受算法错误结果侵害带来的损失。另一方面,应使个案裁判发挥促进算法运用者优化算法模型机制机理、引导大数据产业良性健康发展的正面效应。同时,还应保障社会公众从算法运用、大数据产业发展中获得的福祉利益,保障其知情权及信赖利益。因此,对算法责任的最终审核,应在平衡数据主体、数据处理者、社会公众三方主体利益的基础上作出。
标签: 企业信用