“广大用户苦算法滥用久矣”:算法社会如何与算法相处
在算法广泛渗透到社会各个层面的时代,算法已经成为人的一种新的技术伴侣。一方面,我们需要接受算法的存在,利用它来拓展人自身的能力,享受它所带来的便利;另一方面,我们又要对这样一种伴侣带来的控制和其他风险有足够的识别与反抗能力。这也就意味着我们需要一种与算法社会相匹配的素养,也可以称之为算法素养。算法素养的主体既涉及算法的设计开发者,也涉及算法的使用者。本文主要从使用者的角度来分析算法素养的主要目标。
媒介素养理念嬗变对算法素养教育的启发
从使用者角度看,对算法素养的内涵与目标的设定,或许可以从媒介素养理念的演变中获得启发。
20世纪30年代,以英国学者利维斯为代表的一些学者发起媒介素养教育之初,更多的是把大众媒体及其生产的大众文化作为一种危险的力量,媒介素养教育的主要目的在于教育公众“甄辨与抵制”大众传媒的错误影响和腐蚀。这样一种思维也被视为“免疫接种”模式。但是,随着实践的深入,研究者们意识到,媒介影响无所不在,简单抵制无济于事。
1982年,联合国教科文组织在德国慕尼黑召开的国际媒介教育会议中公布的《媒介素养宣言》指出:我们生活在一个媒介无处不在的社会,与其单纯谴责媒介的强大势力,不如接受媒介对世界产生巨大影响这一事实,承认媒介作为文化要素的重要性。
一些研究者也开始倡导新的媒介素养理念。莱恩·马斯特曼指出:在媒介教育中,最主要的目的不在于评价好坏,不在于给学生们具体的评价标准,而在于增加学生对媒介的理解——媒介是如何运作的,如何组织的,它们如何生产意义,如何再现“现实”,谁又将接受这种对现实的再现。类似的,很多媒介素养的研究、教育,也都是在超越“保护主义”“赋权”受众的前提下展开。
从将媒介视为破坏者或敌对者,将媒介素养教育视为“免疫接种”,转为接受与媒介共存的事实,将受众视为积极的媒介使用主体,通过媒介素养教育帮助他们认识媒介运作机制,提高利用媒介的能力,媒介素养研究与教育的发展过程以及逐步升华的媒介素养理念,对于我们理解、研究算法素养也是一种重要参照。
当算法及智能机器无可回避,我们只能与之共存,算法素养就是要培养人们与算法的共存能力。从长远来看,算法素养的培养有很多具体目标,但有两大基本面向会贯穿始终,那就是算法社会所需要的思维培养和风险教育。
面向新思维培养的算法素养
接受算法的存在,也就意味着要接受算法的基础——算法思维的挑战。算法思维源于数学,在今天它也是科学思维中的计算思维的主要体现。计算思维通过约简、嵌入、转化和仿真等方法,把一个困难的问题阐释为如何求解它的思维方法,算法正是如此,它以特定的数据来反映某个对象,以模型来体现解决问题的方案,最终通过数据计算来完成相应任务。算法将模糊的对象变成明晰、精确的数据,将主观的感受变成客观的信息,将抽象的原则变成具体的可执行的过程。在信息的筛选、关系的匹配与调节、判断与决策等方面,算法常常是强大、高效率的,甚至有很多时候是人力难以企及的。
基于计算思维的算法,有自己擅长的领域,技术的发展还在不断拓展它的应用边界。今天计算思维也在进入人文社会科学领域,由此也产生了计算传播学、计算法学等新的交叉研究领域。计算机领域的学者早就开始呼吁计算思维的培养,并认为这是现代社会人人必备的素养。他们也认为普及计算机教育的核心目标之一就是计算思维的培养。只是目前这样的目标并没有完全实现。算法的全面应用,为人们理解与运用计算思维提供了契机,这种思维也会成为算法素养的基础之一。
在更基本的层面上看,算法思维也是一种数据思维,即用数据来描述、解释客观或主观对象、关系以及过程等。在信息时代,这样一种思维也是必要的。但算法的准确、有效性与数据质量紧密相关,要正确地使用、评价算法,也需要拥有相应的数据素养,即有效且正当地发现、评估和使用信息和数据的意识和能力。
算法素养培养需要直面数据思维、计算思维等算法社会带来的思维挑战,但我们也需要意识到,数据化、计算化思维并不能解释、解决一切问题。如果我们将一切都落实为数据,都用计算来解决,那么世界会变得平面、单调。今天虽然技术的开发者也在尝试用算法写新闻、写诗和小说,创作音乐美术作品,但它们本质上仍是数据化的计算,这永远不能替代人基于内在动力进行的各种主观表达。
算法的兴起,不应该将我们推向数据主义这样一个极端,即将数据和算法看作世界万物、人际关系的存在论基石,一切似乎都可以被归结为数据和算法的抉择与更替。相反,算法社会更需要人文思维、人文精神的繁盛。
但我们也需要避免另一个误区,那就是将算法看作是工具理性的代名词,似乎强调人文精神就应该摒弃数据思维,放弃算法的应用。事实上数据思维、工具理性与人文思维及精神、价值理性等并不是对立的两极。算法社会、算法素养的研究需要深入探究它们的融合可能,算法素养的一个发展方向也应是倡导科学与人文兼容的新思维。
面向风险教育的算法素养
算法素养培养的另一个重要面向,是帮助人们认识算法可能带来的风险,提高防范、对抗风险的能力。
算法带来的重要风险之一,是人全面数据化后的隐私、安全风险。今天人的数据化,不仅涉及人们主动生产或提供的数据,也涉及大量人们被动提供的数据。人的现实行为、身体或生理数据等也成为收集对象,其中很多是人们不愿意透露甚至是涉及个人隐私的数据。但很多时候,人们不得不接受这样的数据化,因为这是兑换各种服务或权利的条件。
人的数据的广泛采集,虽然表面上看给生活带来了一些新的便利,但往往隐藏着巨大的风险。在法律、制度层面提高对个人信息保护力度的同时,个体自身也需要更多认识数据泄露的途径与风险,增强自我保护意识。
算法带来的另一类风险,是对人的“囚禁”。如果算法应用不当或过度,人可能会在认知与决策、消费、社会位置、劳动等多方面成为算法的“囚徒”。今天算法在很大程度上影响着人与信息的连接。算法促成了人与某些信息的匹配,但同时过滤了其他信息。目前算法主要是以个人兴趣与行为偏好来进行信息的筛选,但算法模型的准确性,会决定它所推荐信息的有效性,即使算法推荐的信息是有效的,长期在个人兴趣的“内循环”中,人们看到的天空也会越来越小。
当然算法也会不断优化,未来的信息推荐算法或许不会总是将人们封闭在个人的小天地里,甚至可以期待它们会在促进公共传播方面有所作为,但即使如此,人也不能每时每刻等着算法投喂的信息,成为愚笨的信息“填鸭”。而算法构建的拟态环境,在今天与现实世界仍有很大的距离,即使未来算法的改进会使得拟态环境更接近现实世界,但总是透过算法构建的“界面”去看世界,人仍会离自然、真实的世界越来越远。
算法对于人决策的影响也在深化,从导航软件的路线筛选,到内容运营、产品开发,乃至医生诊疗、法律裁决,算法正在渗透到各种领域的决策过程。算法基于相应的模型和数据,对与决策相关的对象进行全面分析,并在多种方案中寻找最优可能,某些时候算法决策会优于人的决策。但算法也会出错,如果不能判断算法决策的可靠性,人会被算法带向各种陷阱。即使算法不出错,把所有决策权都交给算法,人们的判断力、想象力与决策力会逐步萎缩,人的主体性会越来越无处安放。
算法也在越来越多地左右着人们的消费:一方面,它影响着消费者获得的商品及其价位;另一方面,它通过数据反馈让商家更多地算计、控制消费者。算法不仅在满足着人们的消费需求,也在挖掘、诱导着人们的需求,把人们进一步推向消费主义的沼泽。如《美丽新世界》这部小说所揭示的,人们将沉醉于技术所带来的舒适而逐渐失去自由。
算法还可能禁锢人们的社会位置,特别是对于本来处于社会劣势阶层的群体而言。在招聘、发放贷款等需要对个人进行评估的情境中,算法应用正在普及,机构因此可能降低风险,但对于被评估的个体来说,他们往往会因现有的社会位置和其他个人背景被打上各种标签,这些标签使人们以往的社会位置特性被放大、延续甚至固化,底层向上流动的机会可能被削弱甚至完全剥夺。
近几年算法歧视、算法偏见问题之所以受到一致批评,也是因为它们在继承、放大既有社会位置的固化性。算法推荐带来的信息区隔,也可能会强化人群的圈层区隔。算法对劳动的控制,是另一种囚禁,无论是外卖骑手、网约车司机这样的体力劳动者,还是在网络平台的各种内容生产者。通过算法规则,平台可以对劳动者进行严密控制,这种控制甚至会演变为劳动者的自我约束与激励,一些劳动者因此变成“永动机”。
评分是算法控制劳动的一种基本机制,人们在网络空间甚至现实空间的很多行为,也正在被推入评分机制这个轨道。评分机制虽然有助于人们对社会规则的遵守,但是,它也可能助推一些机构权力的滥用,以及个体间相互监督权利的滥用。
算法推动下的评分机制,或许会成为新时代一种重要的规训力量。相比以往的权力规训,算法及评分机制的规训,更为直接、明了,具有更强的结果导向。这种力量既可能来自管理者,也可能来自平台、算法的设计者,还可能来自他人。算法中隐含的各种规则,也可能内化到人们的自我审查过程中。
虽然算法在各种层面可能带来囚禁风险,但今天人们对此并不完全了解,甚至浑然不觉,帮助人们认识这些风险,提高反囚禁能力,也正是算法素养培养的重要任务。当然,有些风险并非靠人的抵制、反抗就能消解,而是需要制度层面的变革和算法伦理等的约束。把所有风险都转嫁到个人,指望算法素养解决一切问题,显然也是不合理的。
除了上述两个基本方向之外,算法素养教育还要解决更多具体的问题。但一个基本前提是,如同媒介素养教育,算法素养教育也需要走出“保护”思维,赋权用户,让用户在与各种类型的算法共存的过程中,逐渐学会驾驭算法,学会在算法社会保持人的尊严与价值。