技术速递|GitHub 如何保护开发者免受版权执法过度影响
作者:Margaret Tucker
排版:Alan Wang
为什么美国最高法院 Cox 诉 Sony 案件对开发者很重要,以及我们在透明度中心和可接受使用政策方面的最新更新。
一些平台在处理版权移除时采用“累计三次违规即封禁”的政策,在多次收到通知后会自动封禁用户账号。乍听之下这似乎很公平,但实际上可能导致不公正的结果,尤其是对开源开发者而言,他们经常会 fork 一些热门项目,而这些项目可能成为版权移除的对象。如果你的账号被封禁,负面影响不仅会立即波及到你个人,还会影响到你所维护的所有开源项目。代码具有协作性、复杂性并且经常被复用,这使得版权执法本身就很有挑战,也放大了移除行为的连锁效应。在 GitHub,我们采取以开发者为中心的做法,在封禁账号之前会逐一审查每个案例,确保版权执法不会干扰合法工作。
美国最高法院即将裁决的一起案件,可能会改变包括 GitHub 在内的平台处理版权主张的方式——进一步说,它也可能影响你如何构建和分享代码。在 Cox Communications v. Sony Music Entertainment 一案中,核心问题是:互联网服务提供商或平台在什么情况下需要为用户的版权侵权行为承担责任?Google、Microsoft(含 GitHub)、Amazon、Mozilla 和 Pinterest 已敦促最高法院采纳一条明确的规则:只有在存在“有意识的、应负责任的行为,并且实质性地协助了侵权”时才应适用责任,而不仅仅是因为知情或未采取行动。
这对开发者来说至关重要,因为你所依赖的托管、分享和部署代码的平台,依靠被称为“安全港”的法律保护来避免因用户生成内容而面临持续的法律责任。其中最重要的安全港之一是《数字千年版权法案》(DMCA)第 512 条,该条款在服务遵循正式的通知-移出流程的前提下,免除其版权侵权责任。对 GitHub 来说,这种保护尤为关键,因为开源的协作性质、代码的功能性,以及删除被广泛使用的代码所产生的连锁反应,都使得问题更加复杂。
GitHub 上已有超过 1.5 亿开发者和 5.18 亿个项目,我们每月处理数百个 DMCA 移除请求,但同时也会收到数以千计的自动化、残缺或错误的通知。如果仅凭“知情”就足以构成责任,平台可能会被迫根据有缺陷的通知过度移除内容,从而压制整个软件生态系统中的创新与协作。GitHub 的 DMCA 移除政策既支持版权保护,又尽量减少对合法项目的干扰,提供明确的申诉与恢复渠道,并通过将有效的 DMCA 移除通知公开发布在公共 DMCA 仓库中,来保证透明度。
这一案件对 GitHub 作为平台以及所有依赖互联网服务提供商进行创作与协作的开发者都十分重要。我们并不孤单:该案的最高法院案卷中包含了来自一系列民间社会组织的法庭之友意见书,包括 Engine Advocacy、电子前哨基金会(EFF)和 Public Knowledge,他们代表言论自由、开放互联网发声,并强调合理的责任限制是现代互联网能够正常运作的前提。我们将持续关注案件进展,并始终致力于为全球软件开发者发声。
我们的透明度中心更新
我们对开发者的承诺之一,是始终坚持以开发者为先的内容治理方式。我们尽可能以最小化限制的方式来处理违规,给予用户申诉的机会,并对我们的行为保持透明。
我们已更新 GitHub 透明度中心,加入了 2025 年上半年数据,其中包括一份结构化数据文件仓库。在本次更新中,我们特别想澄清我们是如何报告和可视化政府移除请求的。
主要变更如下:
- 我们将原本“基于当地法律的政府移除请求”和“基于服务条款的政府移除请求”合并为一个新的报告类别:“收到的政府移除请求”。这样可以更准确地反映实际情况:政府移除请求可能会引用当地法律或服务条款违规,但更多时候,它们只是要求删除内容的官方请求。
- 我们仍保留“基于当地法律处理的政府移除请求”和“基于服务条款处理的政府移除请求”两个独立类别。这一区分非常重要,因为它反映出有些政府要求移除的内容确实违反了我们的服务条款,会像其他违规报告一样处理;而另一些内容并未违反条款,但违反了当地法律。在后一种情况下,我们会将影响限制在法律要求的司法管辖区内,并将请求公开在我们的 gov-takedowns 仓库中,以确保透明度。
- 我们还更新了 gov-takedowns 仓库的 README,明确说明该仓库只包含基于当地法律而导致内容移除的政府官方请求。
这些是细微的澄清,但我们分享的数据需要尽可能清晰准确,以便研究平台治理和政府信息管控的学者能够有效使用。如果你有反馈、研究成果或希望增加的报告分类,欢迎在透明度中心仓库中提交 issue。
我们的可接受使用政策(AUP)更新
我们已发起一个 pull request,并开启为期 30 天的征求意见期,拟更新我们的可接受使用政策(AUP)。此次更新将若干现有 AUP 条款重组为独立政策,并提供更多指导。新的政策包括:
- 儿童性虐待材料(CSAM)
- 恐怖主义及暴力极端主义内容(TVEC)
- 未经同意的私密影像
- 合成媒体与 AI 工具
其中,合成媒体与 AI 工具政策将扩展,明确禁止 CSAM 和 TVEC,以符合国际法律。你可以在我们的说明中进一步了解我们对深度伪造工具的治理方法。
我们邀请所有利益相关方在 10 月 16 日之前,审阅并评论此次新增的可接受使用政策。