生成式AI大热,但生成内容是否应告知客户?
谷歌DeepMind 用于识别人工智能生成的图像的工具,即SynthID,周二与谷歌云合作发布了测试版。
图片来源:Jonathan Raa/Zuma Press
Google DeepMind推出可用于识别人工智能(AI)所生成图像的新工具,给企业带来了应在什么情况下为客户标记出AI生成的内容这样一种疑问。
这项名为SynthID的新工具于周二发布,是Google DeepMind与Google Cloud合作推出的测试版。
SynthID的工作原理是,在Google Cloud的文本到图像生成器Imagen所创建的图像上添加水印。通过扫描图像上的数字水印,SynthID可以评估图像由Imagen创建的可能性有多大。
Google Cloud的云AI和行业解决方案部副总裁June Yang说:“我们是第一家为客户提供直接将水印嵌入图像像素之能力的云服务提供商,这个水印人眼不可见,不会影响图像质量。”
AI研究实验室Google DeepMind和云计算服务提供商Google Cloud都属于Alphabet (GOOG)旗下业务。
到目前为止,其应用范围还只是图像,但该公司表示,或可发展为把音频、视频和文本纳入进来。
企业已在研究把生成式AI用于一系列面向客户的应用领域,包括生成广告语、撰写新闻稿、制作广告牌图像、帮助开展头脑风暴为产品和服务起名,以及规划照片拍摄或总结消费者对产品的评价等事情。
然而,企业在何时提醒客户他们正与AI撰写的营销文案互动等问题上意见不一。一些企业认为这很关键,另一些则认为,只要内容准确,来源并不重要。
例如,不同于政治人物或名人影像在社交媒体上遭篡改的情形,广告中使用的虚构角色是出自人类之手还是由AI打造可能并不重要。
总的来说,如果是通常需要注明某人名字(比如所发布图片的摄影师)的情况,或者是内容生成所用模型以版权可能受保护的材料进行训练的情况,看法往往是应披露相关信息。但如果情况是使用了公司自己的数据,且公众一般不会期待此处出现作者或来源信息(比如广告),看法则是披露的必要性没那么大。
“只要准确就行,对吧?这就是他们关心的,”Choice Hotels首席信息官Brian Kirkland说。“在我们的工作中,重要的是内容的质量和准确性,而不是来源。”
美国西北大学(Northwestern University)凯洛格管理学院(Kellogg School of Management)管理与组织助理教授Hatim Rahman说,当一家公司能够用自己的数据集训练生成式AI模型,并确保内容的准确性和原创性时,就可以自行决定是否披露生成式AI的使用情况。
他说,已经在外包文案撰写等工作的公司并不披露营销材料由谁撰写,公众也没有对披露这些信息的期望。他还表示,图像编辑平台Adobe Photoshop流行起来时,也出现过类似问题,如今大多数公司都不披露它们使用的图片是经过图像处理的。
但Rahman表示,如果公司使用的是利用公开数据训练的公开模型,那么不披露可能会产生法律问题,因为相关模型可能是根据受版权保护材料训练的,不过这方面还没有明确的法律法规。
Kirkland称,Choice Hotels希望对用来训练模型的数据进行管理和保护,从而在推进任何用例之前确保准确性。
软件公司Laserfiche的企业战略高级副总裁兼首席信息官Thomas Phelps说,该公司禁止员工将AI生成的内容视为自己的内容,并要求他们在使用AI生成材料时必须标明。
软件公司SAP首席营销和解决方案官Julia White说,披露内容来源也可能是公司与客户建立信任和透明度的一种方式。
水晶和珠宝制造商施华洛世奇(Swarovski)首席数字和信息官Lea Sonderegger说:“归根结底,这是我们对客户的绝对责任。我们欠人类客户一句话:这些内容是从哪里来的?”
支付公司Fleetcor首席信息官Scott duFour表示,披露生成式AI的使用将成为一种标准,就像注明一位人类作者的名字已是典型做法。
“在公司材料中注明诸如统计数据和研究的来源、或者作者和摄影师的名字都是司空见惯的事情,”他说。“我不明白为何对AI生成的图像给予同样透明的署名会有什么不同。”