本文刊登于《大众摄影》杂志2024年第2期


刘雅菁

博士,现就职于浙江传媒学院。

Photographies、ICOM 等期刊和国际学术会议中发表多篇论文。



编者按:2023年10月的《大众摄影》刊登了《摄影伦理审查制度思考》一文后,受到读者广泛关注。因此,我们将继续推出和摄影人息息相关的图像伦理文章,本期结合当前热点话题分析了AI时代图像生产、传播各个环节中相关伦理问题的产生和应对。

2023年摄影界的热门话题离不开“生成式AI图像”“ AI摄影”。Midjourney、Stable Diffusion、DALL-E等AI图像生成工具吸引了很多摄影师和大众的浓厚兴趣。各种以人工智能生成式图像为主题的展览和比赛也相继出现。也有人在此浪潮中反思摄影概念的界定和照片意义的生产路径等,并向这一新兴事物发起挑战。
如今,基于视觉的生成式人工智能模型可以使人们通过输入文字、图片或音频得到全新的图像,编辑或增强已有的图像。然而,模型的训练与应用都离不开大量的数据支持,其伦理问题也由此突显。以摄影为例,可能包含着:摄影师对失去商业工作的恐惧;摄影作品版权、著作权和传播权存在的侵犯风险;生成的图像对种族、性别等存在的偏见;以及文化特性、创意与情感在图像中的缺失等等。生成式AI图像的传播和信息还带来了信息获取、虚假信息、隐私、媒介素养、价值观和尊严等方面的问题。本文将通过案例阐述生成式AI在摄影中已经出现的伦理问题以及人类对其的态度和应对方案。

AI生成的“美国华盛顿特区五角大楼附近发生大爆炸”图片。(图片来源:CNN)

AI图像的恶作剧

生成式AI图像不仅可以欺骗我们的眼睛,还可以篡改信息或产生具有误导性的信息,对我们的社会安全和经济发展产生影响。2023年5月,一张AI生成的“美国华盛顿特区五角大楼附近发生大爆炸”的图片在网络上出现。尽管相关部门和记者迅速对事件的真实性展开了调查,但虚假的AI图像和新闻仍然被诸多权威媒体转载,并造成了股市短暂下跌。这大概是首次与突发事件相关的虚假新闻报道,连主流媒体和新闻工作者也被蒙在鼓里。AI图像带来的视觉虚假信息具有极高的隐蔽性和煽动性,更容易与观众产生强烈的情感共鸣。观众喜欢看什么,AI便可以生产什么样的图像。例如,美国前总统特朗普在网络上发布了自己即将被捕的消息。在特朗普预言的“被捕日”当天,网络上开始疯狂流传他在曼哈顿“被捕”“被审讯”“逃离逮捕”等内容的AI图像,满足了观众的猎奇心理,引起了网络轰动。幸好记者和媒体在此次事件中保持了理性,并没有形成新闻报道造成更严重的影响。但也可以看出,在面对潜在的新闻事件时,生成式AI图像正在以恶作剧式的叙事挑战媒体从业者的职业素养和大众对媒体的态度底线。

摄影伦理|AI的恶作剧

BBC技术研究中心的技术人员使用Midtravel生成的消防员营救幼儿图像。(图片来源:BBC NEWS)

在本应严肃的灾难性叙事中,生成式AI图像也出现了明显的危险信号。在2023年土耳其大地震中,有一张消防员怀抱小女孩的照片被广为转发。然而,一些诈骗团伙用这张照片来欺骗人们进行捐款。而这张照片却是希腊爱琴海消防队一位少将使用Midtravel人工智能软件制作的。为了验证,BBC技术研究中心的技术人员使用相同的软件,输入文字“地震后消防员戴着头盔抢救小孩的图片”,软件很快生成了4张相似的图片。如果将这4张图片放大并仔细观看,可以发现儿童和消防员的手指是不和谐的、被挤压得五官扭曲的人物面部、消防员的帽子存在透视问题等。然而这些细节,在快餐式读图时代很容易被人们忽略。人们不会抱着“找茬”的心态去仔细观看每张图片,更容易根据图片的转发量、时效性、个人认知等来判断。图像和媒体传播的真相越来越模糊了。

虚假信息、错误信息、媒体素养及由此产生的言论问题和新型社会叙事方式,都是生成式AI图像已经面临的伦理问题。为了解决这一问题,越来越多的公司开发了人工智能识别工具来检测和识别图像、音频和视频是否由人工智能生成,如Sensity AI、Fictitious.AI以及Originality.AI等。创作者也应该在图片的显著位置及传播过程中明确标记该图片由AI生成,或者添加水印。通过提高生成式AI图像的信息透明度来重拾人们对图像的信任、降低信息传播过程中可能产生的负面影响。

由AI图像生成工具Stable Diffusion制作的AI图像中出现了盖蒂图片社的水印。(图片来源:The Verge/Stable Diffusion)

著作权归谁?
人工智能生成的图像需要在网络中收集大量的照片和艺术作品等作为训练数据,不仅创作者可能并不知道这些数据的准确来源及原始作者,原始作者也对自己作品的使用情况并不知情。由此,产生了图像的著作权和传播权之争。全球最大的图片社盖蒂图片社(Getty Images)首先针对原始图像数据进行了知识产权的维护。2023年1月,盖蒂图片社对AI图像生成工具Stable Diffusion的母公司Stability AI提起了诉讼,称Stability AI未经许可从其图片库中采集了1200多万张受版权保护的照片及其标题和元数据,公然侵犯了盖蒂图片社的版权和商标保护权。同年8月,盖蒂图片社在内的几家著名图片机构、作家和摄影师团体联合签署了公开信,呼吁对人工智能采取法律约束,尊重知识产权。
如果将人工智能视为机器人,那么AI图像的版权是否由AI工具和创作者共同所有?在我国近日刚刚结束的“AI生成图片著作权侵权第一案”中,原告使用的是Stable Diffusion工具并强调其需要不断调整描述词和参数才能得到理想的图像。法院依此认为,AI图像的本质是人利用工具进行创作,体现了创作者的智力投入,因此创作者享有涉案图片的著作权。然而,此案件对于生成式AI图像的著作权界定并不具备普遍性。一是由于人的作用,包括其智力投入、个性化表达等在每一张生成式AI图像中都存在着巨大的差异。二是创作者与AI制图工具之间的著作权问题也不应该被忽视。
在查阅了当下热门的AI制图工具之后发现,大部分的AI工具将作品的版权归属于创作者。少数如Craiyon,则强调将作品的著作权归属于AI工具才能获得免费的许可使用权,如果创作者将使用AI工具生产的图像用以商业目的并获得收益则需向AI服务商支付版税。由此可见,生成式AI图像的著作权界定更为复杂。摄影师在使用AI图像生成工具进行创作时应仔细阅读所有条款,包括著作权归属、信息使用、数据保护条例等,最大程度地避免纠纷。
除此之外,还涉及AI制图工具所使用的数据库资源是否侵犯了第三方知识产权。而这一点对创作者来说是无法掌控的灰色地带。少数人工智能公司提出,如果用户因版权问题而被起诉,将由公司支付由此产生的所有费用,如OpenAI。然而,OpenAI公司也正面临着来自艺术家、作家和新闻媒体等多方群体的法律诉讼,控诉其未经许可使用图片、文字、艺术作品等进行人工智能模型训练。

格雷格·鲁特科夫斯基,城堡防御2018。
文化特性与多样性的反思
摄影在社会学意义上最大的价值莫过于其深入社会现实、挖掘和展现社会现象所带来的丰富、多样的影像档案资料。蕴藏在影像中的历史与文化会随着社会的发展愈显重要。而生成式AI图像则缺少了最重要的记录性和在场性。AI图像生产是基于创作者的想象、生活经验、视觉认知、人工智能训练模型和数据库、文化语境等固有的“信息数据”,是在现有的传统图片基础上的复制和搭建。试想,当人们疲于拿起相机,AI图像生产的“原材料”逐渐减少,那么人工智能系统会产生什么样的图像?艺术家明妮·艾泰路(Minne Atairu)在制作黑人模特肖像照片时发现,当某一主题缺少足够的训练数据,AI图像生成工具便很难给出相应的图像。创作者可以结合Photoshop等其他工具对图像进行处理,然而,要想根本解决问题则需要技术人员认真审视用于训练模型的数据结构。
人工智能技术可以使图像复制、模仿影像风格变得简单。但其负面影响也不能忽略,大众容易因此对某一风格、词汇、概念等产生刻板印象。波兰艺术家格雷格·鲁特科夫斯基(Grey Rutkowski)大概是生成式AI图像中受影响程度最大的艺术家。以“奇幻”“风景”“游戏”等为提示词进行AI图像生成,可能会产生大量类似于鲁特科夫斯基风格的奇特风景。根据Lexica网站的数据,在AI图像生成工具Stable Diffusion中,以格雷格·鲁特科夫斯基的风格制作的AI图像数量为9.3万次。 

新的叙事方式和传播伦理

生成式AI图像中人文关怀和情感的缺失经常被人们诟病。莫里斯布莱克(Maurice Blackburn)律师事务所的律师与媒体机构Howatson Company一起合作,与被澳大利亚离岸拘留中心拘留的难民们一起,利用人工智能技术将难民的遭遇进行了可视化。他们将长达300多个小时的采访提炼成了32个难民陈述词,并输入AI图像生成工具Midjourney,与难民一起进行调整,最终制作了130多张能够较为还原真实场景的AI图像。获得难民许可、将难民的个人信息全部匿名、与难民一起制作AI图像等做法尊重了难民的人格、保护了难民的人身安全和尊严。在充分考虑了AI图像可能对难民造成的伤害等伦理问题之后,人工智能技术可以为历史、创伤、记忆、想象等摄影创作中常见的主题提供新的叙事方式。

然而,这些图像被上传到了Shutterstock图片库,试图与传统的摄影图片放在一起来强调这些人工智能生成图像及其背后历史事件的真实性。目前,全球范围内的图片库尚未形成有效的AI技术监管,依靠C2PA(内容来源和真实性联盟)创建过滤器来筛选并删除AI图像也并不可靠。因此,当AI制作的图像缺少明显的标注时,同样也会产生前面所提到的传播和信息伦理问题。生成式AI图像进入互联网传播后,还有可能再次被作为真实图像进行人工智能模型训练的危险。

澳大利亚离岸拘留中心拘留的难民。由AI图像生成工具Midjourney制作。(图片来源:Exhibit A-i:The Refugee Account)

人工智能时代的伦理转向

伦理问题涉及到生成式人工智能模型生命周期的各个阶段,包括设计、开发、应用、传播。因此,对其的治理也应包含对技术本身的伦理治理和对人工智能引发的伦理问题进行治理。前者以提高科技人员的道德素养与水平、要求科研人员学习伦理与安全课程等为解决途径。而后者则更为复杂,需要多方开展合作并在各自的法律、政策等框架下寻求解决方案。
不同国家、各类组织和专家近年来一直在共同呼吁和强调各领域中对人工智能进行治理的重要性与紧迫性。2016年,联合国教科文组织、世界科学知识与技术伦理委员会、美国斯坦福大学、欧洲公民权利与宪法事务部等组织和机构相继发布了人工智能报告,并强调制订人工智能伦理框架和原则。2021年,全球首份规范人工智能的国际性文书《人工智能伦理问题建议书》终于颁布。该建议书从数据保护、教育、性别、文化、传播等方面提出了价值观、原则及政策行动,形成了动态且具有包容性的人工智能伦理框架。随后,我国也相继颁布了《新一代人工智能伦理规范》《生成式人工智能服务管理暂行办法》,提出了不侵害知识产权、避免偏见歧视、禁止违规恶用等伦理要求。目前,已形成了人工智能基本伦理准则,包括以人为本、可持续、合作、隐私、公平、共享、安全、透明、可问责九大要素。

事实上,在梳理了生成式AI图像在摄影领域中出现的伦理问题之后,可以发现这些问题与其他领域和行业有着极强的相似性。集中体现在信息获取路径不透明、个人数据隐私与安全存在隐患、知识产权归属不清、可信度不足以及对不同种族、信仰、肤色等群体存在刻板印象等方面。因此,未来在面对AI技术与摄影伦理的问题时可参考已颁布的政策文件作为理论和实践框架。

马丁·里斯在《人类未来》中提到,“要应对全球威胁,需要更多的技术,但这些技术需要社会学和伦理道德的引导。”生成式AI图像固然离不开科学家和工程师对模型和数据结构等技术方面的研究,同时也需要社会学者和艺术家等共同参与,从科技对人类社会生产生活所产生的复杂影响中出发,共同促进可信任的生成式AI图像。


如您有成组作品或文章希望投稿给大众摄影新媒体,请发邮箱[email protected]并留下姓名、联系电话。

END
    欢 迎 关 注    

欢│迎│进│入│微│店│订│阅

大│众│摄│影│全│年│杂│志