OpenAI 大幅缩短 AI 模型安全测试周期 专家警告或埋下隐患
以GPT系列、Codec、DALL-E和Whisper等AI项目闻名的OpenAI公司,近期被曝大幅压缩其大型语言模型(LLM)的安全测试周期。专家警告,这种为追求发布速度而牺牲安全评估的做法可能带来严重后果。
据《金融时报》报道,OpenAI目前仅给予内部员工和外部团队数天时间,用于评估最新LLM模型的风险与性能表现。而此前同类测试通常持续数月时间。八位熟悉OpenAI测试流程的知情人士透露,该公司已明显减少在安全测试方面的投入,无论是资源分配还是时间安排都大幅缩减。
测试周期缩短的典型案例体现在GPT系列模型上:GPT-4发布前经历了长达六个月的安全评估,而2024年5月推出的GPT-4 Omni模型测试阶段仅持续一周。Parekh咨询公司CEO帕雷克·贾恩指出:"AI领域竞争日趋白热化,科技公司正以惊人速度推出新模型。"
安全风险与声誉危机双重威胁多位专家强调,压缩测试时间将显著影响首发模型质量。"如果出现模型幻觉或输出危害等事故,OpenAI将失去公众信任,面临产品发布受挫的困境。"贾恩分析道。他特别指出,OpenAI已因从非营利组织转型为营利企业面临形象危机,任何安全事故都可能强化"为利润牺牲安全"的负面认知。
测试参与者直言不讳地批评这种变化:有人将缩短测试称为"轻率之举"和"灾难配方";曾参与GPT-4测试的人员透露,某些潜在风险往往需要两个月才能被发现。虽然OpenAI未立即回应质询,但该公司在2024年9月已将安全委员会改组为独立的"董事会监督委员会",该机构有权出于安全考虑推迟模型发布。
技术升级或成双刃剑贾恩提出另一种可能性:OpenAI或许正通过AI技术提升测试效率。"他们可能在内部流程中大量应用AI技术,试图以此加速模型发布。"这一推测得到OpenAI2024年12月声明的佐证,该公司当时宣称其AI测试模型正快速变得更加强大。然而,这种技术驱动的测试加速能否真正保障模型安全性,仍需实践检验。