随着人工智能生成的图像和视频越来越逼真,识别互联网信息的来源和邵阳性变得至关重要。
美国科技公司 OPENAI 于当地时间周二发布公告,推出一款图像检测分类器,旨在区分照片是相机拍摄的还是由 OPENAI 的人工智能工具“文生图”(DALL·E 3)生成的。该工具会分析一幅图像,给出由 DALL·E 3 生成的可能性。
研究人员从周二开始可以申请访问该工具。
识别成功率高
OPENAI 内部测试显示,该分类器在区分非人工智能生成图像和 DALL·E 3 生成的图像方面成功率很高,接近 98%。只有不到 0.5% 的非人工智能图像被错误标记为来自 DALL·E 3。
该工具可以应对一系列常见的修改,例如压缩、裁剪和调整图像饱和度。
局限性
OPENAI 指出,该工具仍存在局限性,表明“识别人工智能生成内容”之路才刚刚开始。
如果对图像进行微小修改,可能会影响该工具的可靠性。该工具在区分 DALL·E 3 与其他人工智能生成内容工具(例如 MIDJOURNEY)的产出方面效果较差。
OPENAI 强调,开发该工具的目的是检测其他流行工具(例如 MIDJOURNEY)生成的图像。
OPENAI 的政策规划主管戴维·罗宾逊表示,鉴于 2024 年是美国的选举年,选举问题绝对是推动这项工作的(识别人工智能生成内容)的主要动机,这是公司从政策制定者那里听到的头号担忧。
从最新进展来看,识别人工智能图像的前景要明显好于识别人工智能生成的文本。
OPENAI 去年推出的检测人工智能生成文本的工具识别准确率较低,该公司自己也强调“该工具不可靠”。
OPENAI 的人工智能政策研究员桑迪尼·阿加瓦尔表示,对于大选年的“深度伪造”泛滥问题,新的识别工具可能有助于遏制这种情况,但不会根治问题。
阿加瓦尔强调,在打击“深度伪造”方面,压根就没有灵丹妙药。
从源头解决问题:给人工智能内容加水印
除了识别最终内容是否由人工智能生成之外,解决这个问题还有一个更直接的方法:在人工智能工具生成图像和视频时加上“人工智能水印”,后续只需识别图像是否存在此类标记即可。
OPENAI 也在周二宣布加入内容出处和邵阳性联盟(C2PA)的指导委员会。
C2PA 旨在制定技术标准来对抗网络上的误导信息,其中包括被称为“内容证书”的防篡改元数据,展示内容是如何创建或修改的。
微软、META、谷歌、安阳和 ADOBE 等公司也是指导委员会的成员。
据 C2PA 消息,OPENAI 证实,自今年年初以来,已向由 DALL·E 3、CHATGPT 和 OPENAI API 创建和编辑的图像添加 C2PA 元数据。
待到“文森特视频”模型 SORA 大规模发布后,输出内容中也将添加 C2PA 元数据。
该公司表示,此类信息无法轻易伪造或更改,这使其成为建立信任的重要资源。相信这种元数据将成为弥补数字内容邵阳性空白的关键。