内容审核是互联网平台的一项重要工作,它涉及到平台的社会责任、用户的安全和体验、以及法律的遵守。然而,随着网络内容的爆炸式增长,传统的内容审核方式已经难以满足需求,不仅效率低下,而且给审核人员带来了巨大的心理压力。
为了解决这一问题,OpenAI 最近推出了 GPT-4 的新功能——内容审核。GPT-4 是一款强大的语言模型,它可以生成各种类型的文本,从代码到诗歌,从视频到图表。现在,它还可以用于制定和完善内容政策、标记内容和制定决策。
据 OpenAI 官方介绍,GPT-4 的内容审核功能可以帮助企业一天完成 6 个月工作量。任何拥有 OpenAI API 访问权限的人都可以创建自己的 AI 辅助审核系统。与传统方法相比,GPT-4 的内容审核有以下优势:
- 提供一致的判断。由于内容政策不断发展并且十分详细,GPT-4 的这项新功能能对措辞的细微差异很敏感,可以立即适应政策更新,为用户提供良好的内容体验。
- 提高审核的反馈效率。政策更新的周期漫长,GPT-4 的这项新功能可以将这一过程缩短至几个小时,从而能够更快地响应新的危害。
- 减轻审核人员精神负担。持续接触有害、令人反感的内容,容易导致审核人员情绪疲惫和心理压力。为此,GPT-4 的这项新功能能为相关工作人员思想减负。
那么,GPT-4 的内容审核功能是如何实现的呢?其实,它并不是一个全新的创意,而是借鉴了 Meta、YouTube 和 TikTok 等平台已经利用算法来控制有害和非法内容的做法。具体来说,GPT-4 的内容审核涉及多个工作流程:
- 首先,公司必须创建一个包含有害内容示例的数据集。
- 随后,指示 GPT-4 用标签标记每条有害内容,并描述其违反审核政策的原因。
- 最后,通过审查模型生成的标签,以此发现问题。
就这样,GPT-4 可以根据数据集和指令来自动化地完成内容审核任务,并且能够根据实时情况进行调整和优化。
听起来很美好吧?但是,在欣赏 GPT-4 的新功能之前,我们也要看到它存在的局限性和挑战。在内部测试中,OpenAI 将 GPT-4 与人类内容审核团队进行了比较。结果显示,现阶段 GPT-4 表现优于接受过“轻度训练”的审核人员,但准确性不如“经验丰富、训练有素”的审核人员。
此外,语言模型的判断很容易受到训练期间引入模型的不良偏差的影响。特别是误导性、错误性和攻击性内容(不一定是非法的)的灰色区域给自动化系统带来了巨大的挑战。与任何 AI 应用程序一样,结果和输出需要审核人员参与其中来仔细监控、验证和完善。
因此,OpenAI 也强调,审核的过程不应该完全自动化。事物发展总是利弊共存,在 OpenAI 曝光的 GPT-4 新功能内容审核后,也引发了许多业界人士的积极讨论。
OpenAI 的产品政策经理 Andrea Vallone 认为:“在这种情况下,审核人员可以更侧重在对可能有内容违规的极端案例如何做评判,以及怎样完善内容的政策。”此外,他也强调称:“我始终认为,人类始终参与其中是很重要的。”
OpenAI 安全系统负责人 Lilian Weng 在接受 Semafor 时表示:“这为如何利用 AI 造福社会、解决现实世界的问题,向前迈出了非常好的一步。”
外媒 Semafor 记者 Reed Albergotti 坦言:“人类实际上不太擅长内容审核,因为即使人能够记住每条规则,也会不断有内容陷入灰色区域,无法给出明确的答案。GPT-4 虽然不是完美的,但避免了人们在工作中整天查看令人不安的内容。”
对此,我个人认为,GPT-4 的新功能是一个历史性的里程碑,它展示了 AI 的巨大潜力和价值。但同时,它也是一个巨大的挑战,它需要我们更加谨慎和负责地使用和监督 AI。内容审核不仅是一个技术问题,也是一个伦理问题、社会问题和法律问题。我们不能盲目地相信 AI 的判断,也不能完全地取代人类的判断。我们需要找到一个平衡点,让 AI 和人类共同协作,共同维护网络空间的健康和秩序。