如何把算法关进制度的笼子?( 二 )
可见 , 对算法透明度和可解释性监管不断强化 。 中国人民公安大学法学院苏宇副教授指出 , 应区分算法的可解释性与算法透明度 , 算法可解释不等于算法透明 , 算法解释也不等于打开黑箱 。 应明确界定可解释性与透明度的概念 , 区分优化算法可解释性与透明度的义务 , 并且推进层次化、场景化的具体制度设计 。
此外 , 苏宇认为 , 应明确优化算法可解释性、透明度义务与算法解释请求权的关系 。 在履行上述义务时 , 通过在技术标准层面设置面向不同场景的多元化可选规则 , 是一种兼顾精准性、原则性与灵活性的制度安排 。
平台监管层层加码
将算法服务作为核心商业模式的平台 , 在算法应用中应承担哪些责任?
以推荐算法为例 , 其应用引起了各国的关注 。 近期 , Facebook利用仇恨算法牟利等事件引发关注 。 美国众议院能源和商业委员会提出法案 , 拟修改《通讯规范法案》第230条平台责任豁免条款 , 以避免个性化推荐对公民权利造成危害 。
中国信通院互联网法律研究中心研究员程莹指出 , 过去 , 美国出于促进互联网发展的考虑 , 在《通讯规范法案》第230条中规定平台对用户创作的内容不承担责任 。 但由于平台与用户权利、重要基础设施等关联日益密切 , 美欧在规制中都有加重平台责任的趋势 。
她解释称 , 早期平台是一个通道的角色 , 作为市场经营者 , 将信息从内容的提供者传输到用户 , 是一个中立的身份 。 但现在数据已经成为一种生产要素 , 如果把数据比作农作物的话 , 那平台就是农作物加工厂 , 通过对数据的加工、提炼出结构化的数据库 , 进而反向对内容提供者、用户进行信息控制 。
程莹指出 , 我们每天在手机上浏览新闻、购物等 , 都可以视为一种数字劳动 。 在这个过程中平台可以对用户行为加以控制 , 同时平台逐步具备了对社会生产资源调配能力 , 尤其是一些巨型平台 , 掌握着一些数据中心、人工智能中心、云计算等硬件基础设施 。 所以应重新认识平台的角色 。
她表示 , 我国平台责任从早期简单的发现报告义务 , 转变为包括事前阶段的账号管理、算法审查 , 事中阶段的算法模型干预、用户标签管理等 , 事后阶段的社会责任报告、投诉处理等 。
对于社会关注的信息茧房、操纵热搜、个性化广告、个性化定价等问题 , 《个人信息保护法》与《互联网信息服务算法推荐管理规定(征求意见稿)》都有回应 。
《互联网信息服务算法推荐管理规定(征求意见稿)》中明确 , 算法推荐服务提供者应当加强用户模型和用户标签管理 , 完善记入用户模型的兴趣点规则 , 不得将违法和不良信息关键词记入用户兴趣点或者作为用户标签并据以推送信息内容 , 不得设置歧视性或者偏见性用户标签 。
并且 , 用户认为算法推荐服务提供者应用算法对其权益造成重大影响的 , 有权要求算法推荐服务提供者予以说明并采取相应改进或者补救措施 。
程莹认为 , 我国的平台算法监管呈现出技术规制、远距离监管、多元治理等特点 。 未来在为平台算法责任设置过程中 , 需要进一步研究平台责任的界限问题、平台分类分级规制的落地问题以及规制的成本收益等问题 , 以更好推动我国算法治理的落地实效 。
刑法规制算法仍有许多难点
今年8月 , 某一青年企业家因为驾驶智能汽车 , 启用自动驾驶功能后 , 不幸车祸离世 。 算法驱动下的人工智能产品的刑事责任也逐渐成为关注焦点 。
算法的危害已在实践中出现 , 对算法进行刑法规制是必要的未雨绸缪 。
特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
