(资料图片)

中新经纬7月15日电 (王玉玲)近日,由对外经济贸易大学数字经济与法律创新研究中心主办的“算法公平治理与实现”研讨会在线上举行。浙江大学光华法学院讲师、工业与信息化法治研究院研究员林洹民就算法公平领域如何规范科技活动进行了讨论。

林洹民表示,算法风险有很多种,以自动决策算法为例,其本身作为科技活动具有风险,另外,算法跟应用场景相结合会产生新的风险,比如大数据杀熟、差别定价等问题。

“风险主要包括两类,一是科技活动自身产生的风险,另外一个是与应用场景结合产生的风险。应用活动更加强调对法律关系的规范,科技活动是强调对于系统固有性风险的规范。”林洹民说道。

“对于科技活动风险,强调程序性的规范,关键是在于记录科技活动的过程,实现陪同性控制,而作为应用活动,算法直接对法律关系产生影响,因此更强调对法律关系的规范。比起有限的自上而下的有限监管,配置相应的权利义务可能更为有效。”林洹民对二者区别进行解读。

对于科技活动怎么进行规范?林洹民表示,第一,要对活动进行记录与报告;第二,进行算法风险评估;第三,建立个人信息保护负责人制度,对于科技活动实现陪同性控制,从算法设计、应用过程当中进行检测。

对于应用活动如何控制?林洹民表示,应用场景会影响法律关系的变化,所以要强调权利义务的配置,个体拥有拒绝算法处理个人数据,或者不接受算法处理结果的权利,前者针对个性化推荐算法,后者针对自动决策算法。最后,林洹民还对算法解释权进行了解读,他认为,应当区分不同场景,融合一定的价值,配置不同权利和义务,平衡不同应用场景中的多元价值,比如社会治理智能化和公民基本权利,智能经济与消费者权利保护。(更多报道线索,请联系本文作者王玉玲:wangyuling@chinanews.com.cn)(中新经纬APP)

推荐内容