|
走向共同治理 在访谈中,几位专家不约而同谈到,除了人为滥用算法制造矛盾和对立外,算法更多是在复刻社会的现实问题。 “坦率地讲,算法就是帮你算数。你写了一套程序,它帮你把一些说不清、道不明的规律从数据里‘扒’出来。我的观点是,算法不会作恶。”邱泽奇说,问题的关键是数据和算法的匹配以及算法的调试,“说到底,都是人在忙活”。 他提出,不同的人虽然在使用同一个软件平台,但每人对数据的贡献和得到的反馈,在量和质上都有差异;而当算法应用数据时,便会复刻现实社会的结构,甚至放大现实社会的问题。 基于此,他认为有两条路可以尝试解决算法问题:一是对真实数据进行权重配置,二是调试算法进行纠偏。 “算法是人写的,是可以调整的。在方法意义上,算法是工具。”邱泽奇认为,工具是否适用是可以做交叉检验的,在技术上并不难实现。 有研究指出,算法黑箱、算法权力、算法陷阱等乱象很可能会成为数智经济负外部性的深层来源。此时,“算法向善”就成了全社会的共同呼唤。 在邱泽奇看来,“算法向善”包括四个关键概念:首先是改进,这是平台承担社会责任和社会价值的必然要求;其次是普惠,利益相关者的收益不提高,平台经营就是竭泽而渔;再次是包容,关注数智弱势群体,不只是平台的社会责任,也是人类价值的体现;最后是诚信,这是数智社会的底线规则,没有人类之间的诚信,算法只会成为人类自我欺诈的武器。 他坦承,通往“算法向善”的道路曲折而遥远,需要多方共同努力。 “首先需要解决平台和算法设计者的认知问题。”邱泽奇提出,前提是要着眼于保护各方的利益:在平台内部,建立平台业务的社会后果评估机制,不限于经济产出评估;在平台与社会之间,建立与利益相关者的协商沟通机制;在平台外部,建立平台社会评价机制,等等。 吴凌翔提出了类似建议,她认为算法治理需要搭建一个用户、平台、专家共同参与、共商机制的平台,促进通过对话达成共识。此外,她认为用户反馈机制和参与机制非常重要,这是社会治理的一种体现。 技术层面也有施展空间,以推荐算法为例,吴凌翔说,不仅要提升数据的多样性和丰富度,还可以对算法进行公平性约束、增加敏感性分析,并通过评估监测推荐系统内的不同环节,增加敏感性分析等方式,从技术角度对算法纠偏。 应对生成式内容带来的合规需求,王静远提到,现阶段重要的议题之一是要发展负责任的AI相关研究,其中既包括AI可解释性、公平性、泛化性的研究,也涉及安全可控方面的议题。但目前该领域面临着社会关注度不高、投入较少的尴尬局面。 “只有把蛋糕做大,才有蛋糕可分。”邱泽奇认为,治理与发展本就是一场拉锯赛,当前应在促进创新的前提下,通过“问责制”调整利益分配的逻辑和份额,考虑分配的公平性问题,在鼓励创新与促进平等之间寻求平衡。 “对于新生事物,制度建设不宜超前。”邱泽奇强调,新发展也会带来新问题,算法治理无法一蹴而就。“一个简单的警示和预防策略是对伤害的问责。”他强调,随着AI深入发展,算法自身的逻辑网络会越来越复杂,试图就具体问题进行预防是没有止境的。(中国科学报)
|