本篇文章747字,读完约2分钟

然后 [简介]北京时间12月2日上午,维基媒体基金会正在培训软件,以区分无意错误和恶意篡改,从而减少编辑维基百科的人遭受的心理伤害。

北京时间12月2日上午,维基媒体基金会正在培训软件,以区分无意错误和恶意篡改,从而减少人们在编辑维基百科时遭受的心理伤害。

该项目的主要动机之一是,维基百科英文版的积极贡献者数量急剧下降:在过去的八年里,这个数字下降了40%,目前为3万人。研究表明,这个问题源于维基百科复杂的官僚作风以及他们对新人所犯错误的苛刻态度。半自动工具的存在使得删除新的变更变得非常容易。

维基媒体基金会高级研究员艾伦·米德多特;Aaron Halfaker帮助该组织发现了问题,目前正在领导一个算法开发项目来解决这个问题。这个系统被称为客观修正评估服务(ORES),可以通过培训评估维基百科上的新变化,并判断变化是好是坏。

维基百科的编辑有很多工具可以查看最近的变化,并且可以一键拒绝。这些工具的初衷是在维基百科变得流行后更好地控制内容质量。但它已经造成了许多意想不到的后果。例如,新编辑发现他贡献的第一段内容在没有任何解释的情况下被删除了。哈尔法发明ORES的原因是他希望改进这些工具。

矿石可以指导人们评估最具破坏性的变化。该软件还可以帮助编辑以更恰当的方式处理一些粗心的错误。在我看来,维基百科员工在质量控制上采取极端措施的原因是他们判断太快,没有以人道的方式进行互动。哈尔法尔说,该工具可能会提醒编辑们。如果你想拒绝这项修正案,也许你应该小心谨慎,给提出修正案的人发个信息。

维基百科应该使用人工智能来防止恶意篡改条目

ORES目前正在测试英语、葡萄牙语、土耳其语和波斯语。为了判断内容的质量,区分破坏性编辑和无意错误,数据必须从维基百科编辑前使用的工具中收集。维基百科负责维护编辑工具的工作人员已经开始测试该系统。

标题:维基百科应该使用人工智能来防止恶意篡改条目

地址:http://www.og5o.com/ppzx/577.html