深圳热线

全球微头条丨“算法新规”施行四个月后,我在“算法透明”上看到两个问题

2022-07-08 06:03:32 来源:零壹财经

如果新浪微博并未在去年公布热搜管理的算法规则,那么它可能将一直处在 “花钱买热搜”、“花钱撤热搜”的质疑与揣测状态中。


(资料图片)

如果美团并未在去年公开外卖订单分配算法,那么社会舆论将一直停留在“算法系统,是剥削骑手的机器”上。

放眼全球,近年来多个国家和地区的监管部门都在落实“算法透明化”,“算法向善”、“莫让算法变算计”等口号被强调;多个互联网平台都在尝试公布自身具备巨大社会影响力业务的算法逻辑,交予监管部门和公众监督。

尽管公众或许并不能看懂平台在公布算法的公告中提到的一些算法术语、计算公式,但也能清晰地预料到这是一件好事:公布后,既可以作为讨论的话题,也可以作为日后的凭据。一项基于技术创新的业务,如果无法具备评估标准,那么也很难有优化的具体路径。

在各国关于算法监管的立法路径中,也有重要趋势开始凸显:综合化治理和精细化治理在齐头并进,法律在不断向深、向细,“算法透明”正从一个畅想走向现实。

《关于加强互联网信息服务算法综合治理的指导意见》中提出利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。时至今日,我国《互联网信息服务算法推荐管理规定》已经施行四个月,业界依然存在着某些平台“响应了相关规定但没完全响应”,或相关响应流于形式的情况,还有赖于后续相关法规的完善。

“个性化广告”开关是否流于形式

此前在网上曾经看到一个评论:要追求算法透明,要求相关平台开放源代码不就可以了?

这样的举动既不安全也不透明。首先,公布源代码后,便意味着有被攻击的风险,相关企业的商业机密也有被窃取的可能。其次,源代码的认知度因人而异、因团队而异,往往一个工程师的代码不加注释,同团队都未必看懂,更遑论公众。

那鼓励算法透明,应该鼓励平台做到何种程度?

英国是世界上首个推出政府算法标准的国家。2021年11月,英国内阁办公厅中央数字和数据办公室(Central Digital and Data Office,CDDO)发布算法透明度标准(Algorithmic Transparency Standard)。该标准由两个层次构成。第一层次主要是对算法工具的简要介绍,包括如何使用、为何使用等;第二层次涉及算法工具具体如何工作的信息、训练模型的数据集以及对人力监测的要求等。

虽然只区分了两个层级,但基本涵盖了数据的采集方式与分析方法、模型的设计逻辑与变量优化、各项参数权重、生成决策的判断依据、算法运行的正常与报错、人力干预的公开与公正等环节,贯穿算法的业务流程。

一个多月后,中国国家网信办会同工信部、公安部、市场监管总局出台《互联网信息服务算法推荐管理规定》(已于2022年3月1日正式施行),对算法推荐服务做出全面规范。该规定覆盖多领域、多场景:不仅适用于社交媒体、电商场景、搜索平台的个性化推送算法、排序精选算法、检索过滤算法,也适用于包括网约车、外卖场景下的调度决策类算法,还包括用于游戏和虚拟环境中生成内容的生成合成类算法。

在用户权益保护上,《互联网信息服务算法推荐管理规定》第十六条规定,算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。

一个显著、一个适当,彰显了《互联网信息服务算法推荐管理规定》的监管思路灵活性。

显著方式主要体现在哪?各平台采取的主要方式是,体现在自身的隐私政策中。

比如 “抖音”在隐私政策中进行了说明:为了预测用户的偏好,可能会收集、使用用户的设备信息、位置信息以及在使用抖音时的行为信息,并根据用户使用抖音过程中内容浏览相关行为对推荐模型进行实时反馈,不断调整优化推荐结果。用户可关闭个性化内容的推送,关闭后,抖音将不会基于个性化推送处理用户个人信息,仅会推送与用户偏好无关的具有普遍性的内容或广告。

“微信”中的描述是,平台可能将通过某些功能所收集的信息用于平台的其它服务。例如,平台可能将用户使用平台某一功能或服务时收集到的信息,在另一功能或服务中用于提供特定内容,包括但不限于展示广告(可以关闭“个性化广告”)、对用户阅读过的内容进行信息安全类提示、基于特定标签进行间接人群画像并提供更加精准和个性化的服务内容,以及保护用户权益或保护微信生态安全等。

逻辑很好理解,当用户打开个性化广告的开关,平台展示的广告更精准,更“投其所好”。而当个性化广告关闭后,平台所展示的仅为程序化广告,类似于电视时代的广告展示给所有人,不会迎合用户的个人特征。

但一些问题往往出在很简单的逻辑中。举个例子,在日常使用“微信”过程中,总会涉及到平台对用户地理位置的获取。但当用户关闭了“个性化广告”后,平台对于用户理应一视同仁,用户地理位置在北京亦或在福建,对于广告投放而言应当没有区别。明确关闭了“个性化广告”的用户,却能看到非常精准的本地车展广告,这与平台隐私政策中的个性化广告逻辑相悖。

不同于互联网广告,本地卫视有较为集中的收视群体,广告主方便进行本地化推广。但就“微信”产品而言,当用户明确关闭了“个性化广告”,除了必要的位置服务外,在广告展示方面,用户理应不具备地域属性。基于这样的逻辑,身在福建的用户看到广东的线下活动属于正常情况,而当该用户屡次看到福建本地的活动推广,不免有“我关闭了个性化广告,我的地理位置信息仍旧被用于广告”的担忧。

“个性化广告”的开关按钮是形式化授权还是“令行禁止”,在平台实际运营中有没有过界行为,其实很难界定。假如用户抱有对个性化广告的疑问,想要了解平台在广告展示上的主要运行机制,平台则应采取“适当方式”告知,便于用户实现知情权和选择权。至于平台的“适当方式”能否让用户完全知情,还须专事专论。《互联网信息服务算法推荐管理规定》第十七条要求,用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务。

就《我们离“可解释AI”还有多远?》中提到的案例而言,用户在不明晰缘由的情况下被滴滴以安全隐患暂停叫车功能,后续的申诉环节平台也并未展示“安全隐患”从何而来,用户并没有完全实现知情权,握在手中的只有“用与不用”的选择权。

“隐性标签”何时能选择?

除个性化广告外,第二个问题是用户关于平台所贴标签的选择。《互联网信息服务算法推荐管理规定》提到 “算法推荐服务提供者应当向用户提供选择或者删除用于算法推荐服务的针对其个人特征的用户标签的功能”。用户需要知道“平台给我打了什么样的标签”,而“我能够对这个标签进行选择和删除”,这一条文尚未得到明确的市场反馈。除了某些论坛、博客、微博客、网络直播等类别平台存在用户自主选择的兴趣领域外(即显性标签),平台依据大数据对用户进行画像的“隐性标签”的选择与删除事项上,还需要逐步深入。

就短视频领域举例,一个视频推荐在用户首页,如果多次展示,用户均未点击,平台算法是否应觉察用户的喜好,无需用户亲自手动点击“不喜欢”,方可不再展示。用户往往只有在首次注册短视频平台时,才能手动选择兴趣领域,之后的喜好,只能任由算法推荐。而根据《互联网信息服务算法推荐管理规定》关于标签的要求,在长期使用中,用户也应当具有修改个人“隐性标签”的权利。

这个标签往往来源于用户行为产生的数据,是平台通过收集用户社会属性、消费习惯、偏好特征等各个维度数据,进而对用户或者产品特征属性的刻画。

算法与数据从来不分家。如果将算法视为发动机,那数据则相当于支撑其运行的能源。若用户无法对数据层拥有充足的知情与选择,算法治理很难出现大跨步发展,透明也就无从谈起。

被动披露→主动备案

在过去,平台的算法披露原则是被动披露,“非必要不披露”,当社会、个体用户需要平台就某个算法运行机制产生疑问后,平台才会根据具体的需要,进行“适当”地解释。

但在《互联网信息服务算法推荐管理规定》提出了“算法备案”的要求后,这种被动披露需要更换为事前备案。《互联网信息服务算法推荐管理规定》第二十四条规定,具有舆论属性或者社会动员能力的算法提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示类型等信息,履行备案手续,且在备案后,每次备案信息发生变更都应在变更之日起十个工作日内办理变更手续。这意味着监管需要平台就算法提供更多的解释空间,以及对算法的解释与说明需要跟随着算法的变动而不断深化。

算法治理的监管方式分为事前规范与事后弥补,任何一种治理方式都可能因为算法本身的性质、应用场景、监管权力分配等因素存在一定的局限性或滞后性。事前对算法进行影响评估的监管方式正逐渐成为各国探索的方向之一,但规定算法备案相关制度的国家仍然较少,主要经济体采取事前备案方式的只有欧盟和我国。在算法治理上,《互联网信息服务算法推荐管理规定》是一个阶段性成果,我国从《电子商务法》到《网络信息内容生态治理规定》再到《个人信息保护法》、《反垄断法(修正草案)》等相关立法对算法问题已作出相关规定,对于算法治理的规则与评估还在不断完善中。

总而言之,尽管算法治理目前仍存在各种各样的问题,但长期来看,当下时间节点在三年算法治理周期内只是起始,随着监管机制逐步完善、监管体系逐步健全,一些小问题终究会消散在历史长河中。

多方努力、社会监督下,算法应用终将更公平、更透明、更正义。

关键词: 算法监管 算法透明 隐私政策 算法备案 隐性标签

热门推荐