您现在的位置:首页 > 正文

算法时代,公众如何握准隐私的边界?

日期:2023-03-22 【 来源 : 新民周刊 】 阅读数:0
阅读提示:面对形形色色的个人信息泄露问题,大众是否该谈电子支付色变?该如何做好自我保护?哪些是个人隐私,哪些又是可让渡权利的边界?在生活方式改变以后,哪些该变,哪些不应变?
记者|王仲昀


  2023年全国两会召开前夕,曾经在武汉疫情期间扮演“摆渡人”的快递小哥汪勇,有了新身份——全国人大代表。首次履职的他,将目光聚焦快递业,建议把每年的2月1日设立为“中国快递员节”。

  在中国,越来越多的人们离不开快递。如汪勇所言,“快递行业就是一个民生保障行业,不管是在平日里还是如果万一有需要的时候,快递小哥这个群体就是城市的血液,一定会为我们千家万户保驾护航”。

  除了快递小哥,在现代社会中存在感越来越强的还有外卖员。近年来,在全国两会上,始终不乏围绕他们的提案。在保障快递和外卖从业人员劳动权益的呼声之外,也有更多代表和委员关注到一个新角度——算法。

  2020年,一篇题为《外卖骑手,困在系统里》的文章曾在全网引起热议。算法对于当代“打工人”的隐秘控制,开始被公众反复讨论。2023年全国两会期间,全国人大代表黄超提出相关建议,希望通过改变算法规则,督促平台设计抛物线型单价调控机制。例如,当骑手每日在线接单达到一定数量后再接单,配送提成将随之下降,进而在整体上控制骑手群体的劳动强度。

  如何正确认识算法,利用算法,在算法包围中尽可能地保护个人信息,在当下影响着数据社会无数个体的日常生活。


重新认识算法


  从前些年的“大数据杀熟”到之后的外卖员“被困系统”,算法对于现代社会的影响愈发普遍。一方面,算法无疑提高了企业的生产效率,也对政府基层治理的效能有所提升;另一方面,算法也给经济社会秩序、权益维护、价值观带来重重隐患。

  重新认识算法对于日常生活的影响,在一些业界人士看来,首先要意识到:从情感的朴素认知上觉得自身受到算法的“损害”或者侵权,到真正利用法律武器找算法的生产者“讨个说法”,这中间存在一条明显的鸿沟。

  “近年来我们发现,真正在法院形成裁判文书的算法案例大多发生在企业与企业之间,至于大家经常在网络上看到的所谓‘案例’,比如有网友表示自己被大数据‘杀熟’,很多只能算作场景。”中伦律师事务所合伙人刘新宇接受《新民周刊》采访时说道。

  记者查阅一些近年来由杭州互联网法院判决的典型案例发现,案例多涉及不同互联网企业之间通过算法进行不正当竞争。

  刘新宇提到,如果算法涉及的双方是普通消费者和开发应用算法的互联网企业,作为个体的消费者很少能够因为算法侵权而与对方走上法庭,其中要经历“三个阶段”。

  “在一些常见场景中,个体消费者在使用某个App时意识到自己被算法歧视,比如平台根据他的消费行为记录,只给他推荐某一个价格区间的商品,然后他发现这一点,觉得自己被歧视,这是一种朴素的情感认知。之后如果消费者想要借助法律武器对此维权,首先他可能不会很笃定法律是否支持自己,其次大部分人都有正常工作,是否有足够时间精力为遭受这种歧视去斗争到底,这些都充满不确定性。”

  在刘新宇看来,即使消费者自身有足够的精力和意愿为算法维权,亦在法律上得到支持,也很难最终走到诉讼或是判决阶段。“如果消费者或者用户,经过前两个阶段,即情感上受伤害,法律上又能够站得住,把企业起诉到法院。对方也会评判,这次起诉中自身可能败诉风险比较高,不想让生效的判决出现,那么就会通过赔偿等形式进行调解。消费者买机票被‘杀熟’买贵了,那么平台提出赔偿5张机票,甚至10张机票,大部分人到这一步往往也就接受了调解。同时,消费者作为弱势方,其在取证、质证等诉讼环节中较互联网平台更为弱势,这也导致其更愿意接受与平台进行调解。”

  在采访中,刘新宇还通过一个最新场景进一步说明了普通人针对平台算法进行举证和搜集资料的难度。2022年,一位法学专业的年轻女生找到刘新宇和同事,起因是她认为自己遭受了网络暴力,而网暴来源于社交平台的算法。

  “这位女生平时喜欢跳舞,也会在某社交平台上分享一些跳舞的视频。很长一段时间里,这些视频的点击量都很普通,可能平均只有几百,但是女生也不在意这些,她只是想要分享日常跳舞。突然有一天,她发现自己一条最新的跳舞视频‘火’了,点击量和评论数是平常的几十倍。还没来得及开心,发现评论里出现一些污言秽语,很多人说她是‘打擦边球’。她自己推测是平台利用算法给这条视频加上了‘擦边球’标签,并且精准推送给那些想看‘擦边球’的用户。”刘新宇说道。

  对于这一场景的咨询,刘新宇和同事进行了内部讨论,认为平台所有背后的逻辑、算法和标签,都难以取证。他告诉记者,“我们现在提到算法,常见的表述是‘背后的算法’,为什么要强调算法总是在背后呢?因为这些算法看不见,摸不着,难以固定取证。在传统刑事案件中,受到伤害的人可以去专业机构验伤,进而取证。在数字时代,有一些电子证据可以固定,比如网页代码,用户的粉丝数量变化,或者一些聊天截图。但是算法和这些都不同”。

  上述算法的特性与现实复杂程度,共同导致目前的算法治理存在“打地鼠式”的困境。在立法层面,我国将算法推荐作为重点监管对象出台《互联网信息服务算法推荐管理规定》,但该规定并不能适用于所有算法应用。《个人信息保护法》中的个人数据赋权、算法透明度规则、算法解释规则也面临“可行性”与“可欲性”的问题。

  尽管如此,法律界与监管部门依然坚持一个核心价值理念:法律责任介入算法具有必要性。

  鉴于算法的特性,如今有观点认为,算法是数字社会的一种新型权力。对此,上海大学新闻传播学院讲师、硕士生导师徐偲骕对《新民周刊》表示,比起“权力”,算法更像是一种新型工具。

  “算法中介的是人与人的关系。现在我们提到算法背后最常见的主体是那些互联网企业,它并非我们传统意义上理解的权力机构,所以它对于互联网用户所使用的算法更接近于一种工具,最终目的还是通过工具实现盈利。”

上图:2021年9月18日下午,由中国公共关系协会和中国外商投资企业协会共同主办的《中华人民共和国个人信息保护法》宣介会在京举行。


个人隐私的边界扩大了吗?


  接受《新民周刊》采访时,刘新宇提到,很多普通人即使在情感上有一种朴素认知,觉得自己在使用某个App时遭遇算法歧视,或是个人信息泄露,但是这一类情况并没有转化成直接的经济损失或者人身安全损害,最终不了了之。

  这一常见的现象引出了另一个当代人不得不面对的问题:在越来越复杂、密集的算法面前,个人是否已经在无形中让渡了某些权利?毕竟现在使用各种App时首先就得勾选同意相关隐私条款,否则连最基本的功能都无法实现。或者说,数据时代,个人信息与个人隐私的边界是否扩大了?传统意义上的“个人隐私”,在今天是否发生了变化?

  徐偲骕向《新民周刊》表示,要回答上述问题,首先要厘清三个关键概念:个人信息、个人隐私,以及非个人信息数据。

  “我们常见的电话号码、身份证号、银行卡号和家庭住址,这些都属于个人信息。通过个人信息,可以精准识别个人。个人隐私指的是那些不愿让他人知道自己的个人生活的秘密。”徐偲骕说,当下很多人提到自己的社交平台浏览记录或者购物记录被平台监视,认为个人信息或者隐私被窃取了,其实这些记录经过平台去识别化处理后,既不属于“个人信息”,也不算作“个人隐私”,它们是“非个人信息数据”。

  2021年3月,广州互联网法院一审判决了余某某诉“查博士App”一案。通过这起案件判决,可以更好地理解当前“个人信息”和“隐私”的界限。

  广州互联网法院的判决书显示,该案中,原告余某某有意出售自己的车辆,在与有意向购买人的洽谈过程中,知悉自己车辆的信息可以在被告查博士App上查询,因为查询记录中有较多维修记录,导致余某某车辆的出售价格受到影响。

  原告据此认为其个人权益受损,遂对被告提起诉讼。案件争议焦点在于案涉信息是否属于个人信息或隐私。最终法院认为,历史车况信息,无法与特定自然人关联,在车辆交易场景下,与其他信息结合关联识别到个人的可能性较低,不能认定为个人信息。

  至于案涉历史车况信息是否为隐私,法院认为,案涉信息的公开并未打扰余某的私生活安宁,历史车况信息不具有私密性,且案涉信息的公开有利于保障消费者的知情权,不应认定为个人隐私。

  在具体哪种情况下,个人可以认为自身“个人信息”遭到窃取或者泄露?徐偲骕认为,最常见的就是电话号码被泄露。“公众对于各种骚扰电话、推销电话肯定不陌生,有人打电话推销,不仅有你的号码,电话打通后还会直接透露知道你的姓名,这表示已经精准识别到个人。”

  如今在立法层面,已经有相关法律条文对个人信息进行保护。目前,中国已经形成了以《中华人民共和国民法典》为基础,以个人信息保护法为核心,以消费者权益保护法、网络安全法、电子商务法、数据安全法为重要组成部分的个人信息保护法律体系。

  刘新宇对记者表示,《个人信息保护法》出台后,填补了很多过去的空白地带,解决了一些消费者认为自身权利被侵犯却无法可依的情况。

  个人信息保护,不止于个人

  阿根廷著名诗人博尔赫斯(Jorge Luis Borges)曾写道,生活在一个既充满危险又充满希望的时代既是悲剧,又是喜剧。一个关于理解我们自己和世界的“启示即将来临”。无处不在的算法让人感到危险,但是其创造的便利和效率又提供着希望。

  对外经济贸易大学法学院副教授张欣在《人工智能时代的算法治理:机制与方案》一书中提到,在“一切皆可计算”的数智化时代,我们需要专注的是以敏捷、韧性、精准、动态的算法治理弥合技术风险与社会信任的裂痕,推动技术创新与公共安全的平衡,算法之于法律未必只意味着问题,还可以提供方法论意义上的思维工具。

  在这样一个时代生活,作为普通人,该如何更辩证地看待算法、保护个人信息安全,从而生活得更理性与高效?

  刘新宇告诉记者,在有选择的前提下,个人面对一些平台提供的“小恩小惠”要更加审慎,比如勾选了隐私服务条款某个选项就可以领取一个“小红包”,这种“诱惑”要当心。“我们在填写涉及个人信息时也要谨慎,电话、身份证号码,以及银行账户信息等个人信息均可能被平台用于开展自动化决策工作。”

  在刘新宇看来,上述作为普通用户的“个体”对个人信息进行防护,属于主动保护。此外,平台企业、行业协会和机构同样可以为个人信息的保护作出努力,这些被视为被动保护。

  平台企业方面,徐偲骕表示,业界一些头部企业的数据合规已经愈发成熟,很多企业都专门设有“首席数据官”(CDO)这一职务,而未来是否会有类似的“算法合规”业务与责任专员,还有待观察,因为这涉及到企业成本增加。

  2021年,为贯彻落实《中华人民共和国网络安全法》关于“网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则”“网络运营者不得收集与其提供的服务无关的个人信息”等规定,国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局联合制定了《常见类型移动互联网应用程序必要个人信息范围规定》,明确移动互联网应用程序(App)运营者不得因用户不同意收集非必要个人信息,而拒绝用户使用App基本功能服务。

  徐偲骕提到,作为普通用户,在保护个人信息时要注意区分App、小程序授权的界限。“比如某个美颜类App,授权它获取你的相机、相册权限可以接受,但是如果它想要获取和其功能不一定直接相关的权限,涉嫌‘超范围收集’,或者随意扩大收集范围,用户就要当心了。”

  华东政法大学法律学院副教授韩旭至在《认真对待数字社会的个人拒绝权》一文中指出,当前,数字化正以一种无法抗拒的方式袭来,必须清晰地认识到数字化不等于美好生活,切不可“为了数字化而数字化”。而在数字社会的权利中,个人拒绝权绝非对技术的抗拒或厌恶,而是一股积极的变革力量。记者|王仲昀

编辑推荐
精彩图文
俱乐部专区 / CLUB EVENT