和 AI 搭档创作?大型语言模型(LLMs)如何改变创意游戏规则?
- Yuan Ren
- 3月25日
- 讀畢需時 3 分鐘

自从2022年12月ChatGPT走入公众视野并掀起广泛讨论,大型语言模型(LLMs)已被各行各业迅速采纳,以辅助用户处理范围广泛的开放式任务,其中不乏需要高度创造力的工作。去年,Zenan Chen和Jason Chan在顶尖期刊《Management Science》上发表了一篇题为《Large Language Model in Creative Work: The Role of Collaboration Modality and User Expertise》的开创性研究。该研究通过一项精心设计的随机实验,深入考察了在广告文案创作这一典型创意工作中,人类与LLM的不同协作模式所产生的效果。研究着重比较了两种主要的LLM使用方式:一种是将LLM作为“代笔人”(ghostwriter),使其在内容生成过程中扮演主导角色;另一种是将LLM作为“意见征询者”(sounding board),用于对人类创作的内容提供反馈和评估。实验邀请了专家和非专家参与,要求他们分别在有无LLM辅助的情况下完成广告文案的撰写任务,并衡量广告的质量。

有趣的研究发现:AI是如何与人类协作的?
该研究最引人注目的发现是,LLM的使用效果并非一概而论,而是由其协作模式和实验参与者的专业知识水平共同塑造的。借助LLM的反馈,非专家能够产出在语义上更接近专家水平的广告内容,从而有效地弥合了他们与领域专家之间的差距。然而,对专家而言,采用LLM作为“代笔人”不仅未能带来明显的优势,反而对其表现产生了不利影响。这是因为“代笔人”模式极易引发“锚定效应”(anchoring effect),即LLM生成的初始内容会不自觉地限制了专家的创新思维,最终导致其创作的广告质量有所下降。除此之外,专家在使用LLM作为“意见征询者”时,并没有得到显著的有效帮助。这或许可以归因于“天花板效应”(ceiling effect),即通用型LLM的建议可能难以超越他们已有的深厚专业知识和实践经验。
广告创意领域:AI是个双面刃
除上述外,该研究还提供了一些引人深思的发现:一般来说,表达更为客观的、长度适中的,可读性强的广告往往能够获得更多的点击量。但是,LLM 以代笔模式生成的初稿可读性较差。此外,在“代笔人”模式下,LLM倾向于在初始生成的草稿中引入更多的Emoji和话题标签,这可能会降低信息的可信度和来源的可靠性 (Koch et al. 2023)。尽管实验参与者在使用“代笔人”模式后可能会对Emoji的使用进行部分修正,但最初由LLM引入的这些元素似乎仍然会对最终的广告产生一定的“锚定”影响。

对企业和从业者的启示:AI应用的巨大潜能
这项研究为实践者提供了极具价值的启示。它强调了根据从业者的专业知识水平来选择最合适的LLM协作模式的重要性。对于经验尚浅的新手而言,“意见征询者”模式更有助于他们提高创意工作的质量。企业可以考虑将LLM应用于这一模式,以支持新入职的员工或帮助他们应对不熟悉的运营问题,从而加速他们的学习和成长。同时,企业应制定相应的LLM使用指南,向员工强调在使用“代笔人”模式时可能出现的认知偏差。对于依赖专家进行高水平创意产出的情况,尤其需要谨慎使用“代笔人”模式,因为它存在引发“锚定效应”并限制专家创造力的潜在风险。然而,虽然通用型LLM可能难以直接提升专家的工作质量,但探索开发针对特定领域数据进行深度训练的专业LLM,或许能够为这些资深人士提供全新的视角和知识。
随着LLM技术的不断成熟和广泛应用,个人和组织都必须充分认识到这些新兴技术的潜在优势和固有限制。通过明智地发挥LLM的长处,并有效规避其短板,企业将能够更好地驾驭生成式AI的力量,从而激发人类的创造力,并在各种创意领域取得更卓越的业务成果。
参考文献:
Chen, Z., & Chan, J. (2024). Large Language Model in Creative Work: The Role of Collaboration Modality and User Expertise. Management Science, 70(12), 9101–9117. https://doi.org/10.1287/mnsc.2023.03014
Koch T, Denner N, Crispin M, Hohagen T (2023) Funny but not credible? Why using (many) emojis decreases message credibil ity and source trustworthiness. Soc. Media Soc., ePub ahead of print September 4, https://doi.org/10.1177/20563051231194584.
Comments