+
四家顶级广告公司:生成式AI需要“道德准则”
于洋
2023.03.20
赞 0浏览 654评论 0收藏 0

原标题:Four top ad agencies share their ‘ethical codes of conduct’ for generative AI

编译自:The Drum

Media.Monks、R/GA、奥美和Dept正在制定使用生成式人工智能的道德准则。虽然方法各不相同,但共识是需要尽快制定规则。这就是他们现在的处境。

1679307210267657.jpgChatGPT-4等AI工具的使用给广告公司来了一系列道德问题

 

目前,荷兰数字代理公司Dept已加入到Media.Monks、奥美和R/GA开发道德框架的努力中,以指导生成式人工智能在广告中的使用。

 

希望利用ChatGPT和MidJourney等工具的机构面临着几个道德问题。作为回应,数字机构已经制定了规则或“核心原则”,可以预见人工智能在整合方面可能产生的问题,例如浏览由技术造成的冗余,了解生成式人工智能和机器学习工具应该用于哪些工作。

 

样本偏差是一个进一步的问题。用于训练生成式人工智能工具的数据集可能会重现广为人知的偏见,例如种族主义或性别歧视性的语言,在某些情况下,数据集可能违反了版权法——Getty对Stable Diffusion制造商的诉讼就强调了这一问题。此外,还有一个问题是,代理机构应该在哪里以及如何在广告创意中使用人工智能。

 

新兴技术副总裁Isabel Perry表示,像Dept这样的机构现在就已经确定了一个道德框架,而不是“三年后”。这是“非常重要”的。该机构表示,人工智能应用已经为其带来了30%的年收入,并预计这一数字将在两年内上升到80%。与此同时,其总收入的10%将来自其机器学习操作部门。目前,已经在使用Dept的人工智能服务的客户包括eBay、Phillips和Seacor。

 

它的道德框架伴随着“基本价值观”,承诺公司将增加对人工智能的使用,以更快地改善数据分析和“维度化”新想法,并声明该机构将“尽最大努力为任何被人工智能取代的人提供培训”,来为这部分人员“努力留住就业机会”。

 

规则如下。

 

Dept的AI指南


“我们考虑了使用和采用人工智能的长期影响。”

 

“人工智能让我们能够实现观点的碰撞,并对结果进行实验,这让我们有能力扩大不太知名的创作者对世界的影响。”

 

“我们收集数据,并在道德的基础上训练人工智能,向客户展示这种指导我们的智能的输入方式。”

 

“我们相信,人工智能是一种工具,它可以发现机会,改善我们营销和技术交付的功能。”

 

“我们相信,人工智能自动化是让团队专注于我们业务中更具创新性任务的一种方式。”

 

Dept的首席执行官Dimi Albers表示,这些原则应该让企业为即将到来的立法变化做好准备。

 

他说:“虽然未来会有立法,但它将远远落后于实际的发展情况。毕竟每一种技术都是如此,”他说。“作为一家服务公司,这关系到我们如何预测政府看待公司的方式,以及我们如何确保我们目前在做的事情是正确的。”

 

他说,除了道德框架之外,Dept还将在春季结束前设立“一个正式的委员会”,来管理人工智能的伦理问题。他希望,这一发展将有助于该公司向客户传播其人工智能的原则。“如果你有这样的能力,当你与客户合作时,进行这方面的对话就会稍微容易一些。企业会关注怎样才能用AI让业务完成地更快或更有效率,而这取决于我们如何能够以一种大家都感觉良好的方式做到这一点。”

 

Dept的准则制定尚在进行中,Perry表示,公司计划在准则定稿时听取整个公司的意见。“我们将召开一次全公司会议,在会上介绍我们的人工智能的道德和原则,因为我们要给每个员工一个辩论的机会,这一点真的很重要。

 

“我们还将在会议上为律师提供简短的指导,因为不可避免地……我们需要向每一个人提供关于版权和知识产权的良好建议,包括哪些内容不能与这些工具共享,以及这对客户意味着什么。”她补充说。

 

AI圣经


Dept并不是唯一一个为AI制定正式准则的机构。挑战者网络Media.Monks也公布了自己的规范,其中指出,在其业务中使用人工智能“需要慎重考虑代表性、偏见和潜在危害”。

 

它还提醒员工围绕人工智能使用的知识产权风险:“我们将永远是客户品牌声誉、知识产权、数据安全和增长潜力的管家。这种管理延伸到我们在服务过程中使用或推荐的任何以AI为中心的技术,以及我们与他们合作开发的任何由原始AI驱动的工具。”

 

虽然它没有列出对被生成式AI取代的员工做出的具体承诺,但它确实包含了一项保证,即“重新设计我们的运营,并为我们的员工提供他们在AI辅助的未来中释放潜力所需要的机会和培训”。

 

Dept及其竞争对手并不是第一个考虑人工智能伦理问题的组织。自Descartes和Leibniz以来,人们一直在思考如何以负责任的方式使用这些工具。然而,许多机构已经开始在没有正式道德框架的情况下利用他们的专业知识进行交易。

 

在巴黎奥美的一个AI实验室里,机构高管们正在撰写一套“10条戒律”,指导他们的同事使用人工智能工具。巴黎奥美公司总裁兼首席执行官Mathieu Plassard说:“我们有一些文件,但我想做的是把它们转变成正式的AI圣经。”目前,他们已经制定了一些关于监督和样本偏差的“通用原则”。

 

他表示:“人工智能不会取代创造力,人类的监督在所有阶段都至关重要。”“我们知道生成式AI可以从平台上学习,所以我们只会在有信心的情况下使用它……因此,当涉及到我们或客户的声誉时,我们不会冒任何风险。我们对员工和客户都是透明的,当我们使用人工智能时,我们会明确说明。”

 

他指出,虽然该团队必须遵守该机构自己的法律准则,但员工也必须了解客户的道德规则——而且这两者之间可能不一致。”我们必须确保自己符合客户的规定,”他说。“当我们输入或提示简报的某些元素时,我们必须确保不会泄露任何客户的知识产权或机密。”他还说,该机构最近宣布成立的“人工智能学院”将对员工进行道德和其他技能方面的培训。

 

他的同事、执行创意总监David Raichman表示,对员工进行人工智能技能培训本身就是一项道德原则。“我们不想给我们的员工传递这样的信息:未来你将被人工智能取代。我们想说的是,在未来,你会有新的技能,你会得到提高,你会学会如何管理这些。”

 

他认为,对该机构来说,合乎道德的前进道路是想办法“保护艺术家,找到新的工作方式”。例如,如果我们喜欢一个插画师,并不意味着我们要窃取他的时间,我们也可以与他合作,用他的插图训练一个生成式AI。这是机构保护人才的道德要求。”

 

行业标准

R/GA伦敦执行创意总监Nick Pringle表示,该机构也在努力制定一套正式的规则。Pringle表示,由于该机构只是以“分散的”方式,而不是在整个组织中“系统地”使用生成式人工智能,因此大部分道德工作都集中在建立有关法律许可和透明度的规范上。“我们在简报中获得了大量上市前的信息,大量的商业机密。所以每个人都必须意识到他们输入的所有东西,都将归第三方所有。它不太可能被泄露出去……但这不是隐私。

 

他解释道:“我们不是在创造可用于生产的资产,所以我们不能向客户推断它是否可以被接受并用于商业用途。”“如果我们为一个使用人工智能的客户展示作品,那么该作品上就必须带有水印,我们必须有充分的准备。我们必须说明我们使用了哪个平台。”

 

到目前为止,Pringle的团队试图将人工智能作为一种纠正手段,而不是直接进行产出。“这有点像合气道的原理。合气道是一种武术,你可以利用对手的力量对付他们。例如,使用ChatGPT生成糖果市场上使用的10个套路;现在我们知道了这些套路,就可以避免它们。”

 

Pringle认为,每个在工作中使用生成式人工智能的机构都应该说明何时以及如何使用这项技术。

 

“我认为这是一个完全合理的要求,”他说。“虽然我们仍处于法律的灰色地带,而且在全球经济中,美国的版权侵权与英国不同……但我们确实有责任这么做。”

本文由作者原创发布于TopMarketing,内容为作者独立观点, 不代表TopMarketing立场。如有转载需求,请联系作者本人。
创作不易,点个赞鼓励作者吧~
收藏 0
0
评论请文明发言,异常行为可能被禁言
2000
全部评论0
一键投稿
营销日历
2024 4
认领材料
*可补充证明材料,比如发布后台截图、名片、认证截图等
*如无其他证明,请点击请点击《认领声明》
+