ChatGPT水印技术引争议:透明度与用户留任两难

OpenAI内部正面临着一项反作弊技术的抉择:既要维护透明度承诺,又要保留用户。近期调查显示,约有三分之一的ChatGPT用户因担忧反作弊技术而选择减少使用该平台。OpenAI员工担忧水印技术可能被轻易破解,如通过文本翻译、添加表情符号等方式规避检测。因此,如何平衡透明度与用户留任成为该公司的一大难题。

自2022年11月推出ChatGPT以来,OpenAI内部便开始争论反作弊项目的实施。预计将在2023年内发布的反作弊工具一度遭到搁置,随后团队重新评估并调整策略。OpenAI首席执行官山姆·奥特曼(Sam Altman)和首席技术官米拉·穆拉蒂(Mira Murati)均参与了对反作弊工具的讨论。然而,由于在透明度承诺与用户留任间摇摆不定,该工具至今仍未正式对外发布。

据悉,OpenAI研发的文本水印方法具有很高的技术前瞻性。尽管在实际应用中尚存在一定局限性,如水印可能被翻译、添加表情符号等方式破解,但OpenAI仍在积极寻求解决方案。此外,公司担心该工具对非英语母语者等群体可能产生不成比例的影响。

针对这一问题,OpenAI内部员工提出多种观点。有人主张向教育机构或外部公司提供检测器,以识别出人工编写的作品。同时,也有员工认为,相较于潜在的好处,反作弊工具引发的争议显得微不足道。目前,已有部分教师尝试运用相关工具,但仍存在成功率低、误报等问题。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注