社会模拟(Social Simulation)通过模拟仿真真实世界的系统来模仿人类行为和特性,为社会科学研究提供了理解在现实生活难以实际观察的现象的窗口工具[1]。大语言模型(Large Language Model,以下简称为LLM)的强势兴起为社会模拟注入了新活力,大量相关研究如雨后春笋般出现。LLM究竟能否应用于社会科学研究,有哪些潜在问题,以及有哪些可能解决方案?本文将围绕这三个问题进行探讨。
[1] Gao C, et al. Large language models empowered agent-based modeling and simulation: A survey and perspectives[J]. Humanities and Social Sciences Communications, 2024,11(1): 1-24.
基本介绍
社会科学 (Social Science) 是研究人类的一系列学科,包括人们如何思考(心理学)、交流(语言学)、建立管理和价值体系(政治学、经济学)、集体运作(社会学)以及在不同时期创造文化(文学、人类学、历史学)[2]。
图1. 社会科学的研究领域 [2]
近二十年来,得益于大数据和计算能力的发展,2009年David Lazer等学者在Science发表文章提出了“计算社会科学(Computational Social Science)”概念:使用计算手段研究大规模复杂的人类行为。[3,4] 其中,基于代理的社会模拟(Agent-based Social Simulation,以下简称ABSS)是一个重要研究范式。它通过设计环境、代理和交互规则来仿真真实世界系统,模仿人们的行为或特性[1]。它能够帮助研究者理解、分析、预测那些无法在现实生活观察或控制的现象。
LLM具有的强大的感知、推理、角色扮演、自我进化表现为ABSS带来了新的机会。为LLM设计合理的规则和程序构建而成的LLM 智能体有足够能力代替真人进行社会模拟实验。
图2. ABSS需求与LLM Agent的能力的对应[1]
大量围绕社会科学话题的LLM研究如雨后春笋般出现,如图3所示,包括个人层面和社会层面的模拟工作,以及众多可用的开源模拟平台工具[5-10]。本文讨论的重点并非LLM应用于某项具体的模拟工作,而更关心LLM在一般的社会模拟研究中的能力,因此在此仅作简单列举。
图3. LLM ABSS的部分工作示例[5-10]
[2] ZiemsC, et al. Can large language models transform computational social science?[J]. Computational Linguistics, 2024, 50(1): 237-291.
[3] Lazer D, et al. Computational social science[J]. Science, 2009, 323(5915): 721-723.
[4] LazerD M J, et al. Computational social science: Obstacles and opportunities[J]. Science, 2020, 369(6507): 1060-1062.
[5] Strachan, James WA, et al. ‘Testing theory of mind in large language models and humans.’ Nature Human Behaviour 8.7 (2024): 1285-1295.
[6] Xie C, et al. Can Large Language Model Agents Simulate Human Trust Behavior?[C]//The Thirty-eighth Annual Conference on Neural Information Processing Systems. 2024.
[7] Park J S, et al. Generative agents: Interactive simulacra of human behavior [C]//Proceedings of the 36th annual ACM symposium on user interface software and technology. 2023: 1-22.
[8] GaoC, et al. S3: Social-network simulation system with large language model-empowered agents[J]. arXiv preprint arXiv:2307.14984, 2023.
[9] Yang Z, et al. Oasis: Open agents social interaction simulations on one million agents[J].arXivpreprint arXiv:2411.11581, 2024.
[10] Piao J, et al. AgentSociety: Large-Scale Simulation of LLM-Driven Generative Agents Advances Understanding of Human Behaviors and Society[J]. arXivpreprint arXiv:2502.08691, 2025.
相关研究梳理
本文将围绕“LLM究竟能否应用于社会科学研究,有哪些潜在问题,以及有哪些可能解决方案?”这三个问题进行相关研究梳理。
图4. 相关研究梳理
LLM应用于社会科学模拟
LLM能够应用于计算社会科学 研究2筛选了25个代表性计算社会科学基准,将其整理为分类或生成任务,使用F1分数和人类评分评测了LLM进行计算社会科学能力。实验发现,LLM能够达到与人类相当的水平,并能够生成超过人类的高质量文本,但未超过微调后的LLM。
LLM可以代替人类群体进行社会科学模拟 Gati Aher等人[11]提出了图灵实验(Turing Experiment)方法,选取四个经典的社会学实验,通过设定不同的名称和性别,在整个人类群体维度上考察LLM能否模拟具有代表性的参与样本。他们发现,使用LLM作为参与者能够重现实验结果,并且能够抓住人类行为中的性别偏差,但也发现了过于理想化的偏差。
图5. LLM能够复现社会学实验 [11]
LLM能够预测社会科学实验结果 研究12选取了涵盖多个学科领域的70项全国代表性的调查实验,涉及476种实验处理效应。GPT-4通过模拟美国代表性样本,对实验刺激生成对参与者的反应的预测。实验发现,GPT-4的预测能够和真实实验效应达到r=0.85的高相关性,且对于不在GPT-4训练数据中的研究也有高预测准确性。
图6. LLM预测结果与实际实验效应相关性高 [12]
LLM能够模拟特定人类亚群 研究13在美国政治和公众舆论话题上进行了人类亚群体态度和行为的模拟。GPT-3生成的反应与人类样本的反应在内容、语调和模式上高度一致,表明其能够模拟人类亚群体的态度和行为。
图7. GPT – 3使用了与人类相似的词集合[13]
[11] Aher G V, et al.Using large language models to simulate multiple humans and replicate human subject studies[C] International Conference on Machine Learning. PMLR, 2023:337-371.
[12] Hewitt L, et al. Predicting results of social science experiments using large language models[J]. Preprint, 2024.
[13] Argyle L P, et al.Out of one, many: Using language models to simulate human samples[J]. PoliticalAnalysis, 2023, 31(3): 337-351
LLM进行社会模拟的问题
模拟一致性差 研究14在10个计算社会科学相关的话题上进行了LLM模拟的可靠性评估,即LLM生成的响应是否与预定义的角色特征一致。大多数LLM在模拟中表现良好,但一些LLM在模拟中表现出显著的不一致性,对同一问题的不同表述给出了不同的答案。
图 8. LLM生成响应不一致图示 [14]

回答多样性差且不稳定 研究15考察了LLM能否代替人类调查数据来反映公众意见,结果发现尽管LLM能较好地体现公共意见的总体平均值,但在多样性、准确估计相关性以及数据的稳定性和可重复性方面存在严重问题,对提示词和模拟时间敏感。
图 9. 不同人群的平均意见分数 [15]
LLM不能很好地代表人群观点 研究16探讨LLM所反映的观点与人类观点之间的对齐情况.研究发现,LLM只能表达某些群体的主导观点,且这种一致性不能跨主题保持,而某些人口群体的观点在所有模型中都未能得到很好表达.在适当提示下,特定群体的观点一致性能得到一定程度的提高,但未解决问题.
图 10. (a) LLM在不同群体的观点上的一致性; (b) 在适当提示下LLM在特定群体观点上的一致性有一定提高 [15]
错误刻画与扁平化 Angelina Wang等人在Nature Machine Intelligence发表文章[17]表明LLM在赋予性别、种族等社会身份后,代表的观点出现了错误刻画和扁平化现象.首先,LLM的输出更倾向于反映外群体对该群体的看法,而不是内群体自身的看法。其次,LLM倾向于生成单一化的群体形象,忽略了群体内部的多样性。这将会进一步强化刻板印象,抹除边缘化群体声音.
图11. LLM将群体声音扁平化 [17]
训练与测试数据局限 除了开展实验之外,研究人员也从训练和测试时使用的数据对LLM在模拟人类社会行为的局限性进行了讨论[18-19].首先,LLM的训练数据缺少对对人类内在心理状态和个体生活经历的刻画; 第二, LLM缺少人类内在动机的决策能力;第三,LLM训练数据中存在偏差,导致结果不公平和片面;第四,许多AI基准测试直接以单一的’正确’答案作为标准,并不能准确地反映人类真实判断,且忽略了人类决策的差异和不确定性.
图12. 基准测试标注与人类实际反应之间存在显著差异[19]
[14] Huang Y, et al. Social Science Meets LLMs: How Reliable Are Large Language Models in Social Simulations?[J]. arXivpreprint arXiv:2410.23426, 2024.
[15] Bisbee J, et al. Synthetic replacements for human survey data? the perils of large language models [J]. Political Analysis, 2024, 32(4): 401-416.
[16] SanturkarS, et al. Whose opinions do language models reflect?[C]//International Conference on Machine Learning. PMLR, 2023: 29971-30004.
[17] Wang A, et al. Large language models that replace human participants can harmfully misportray and flatten identity groups[J]. Nature Machine Intelligence, 2025: 1-12.
[18] Wang Q, et al. From ChatGPT to DeepSeek: Can LLMs Simulate Humanity?[J].arXiv preprint arXiv:2502.18210, 2025.
[19] Ying L, et al. On Benchmarking Human-Like Intelligence in Machines [J]. arXiv preprint arXiv:2502.20502, 2025.
提高LLM社会模拟能力的可能途径
隐式身份提示 研究17发现使用身份编码的名字(如“Darnell Pierre”)代替身份标签(如“黑人男性”)可以一定程度上缓解上文提到的错误刻画现象,使用非敏感的人格特质(如行为特征、政治倾向等)来替代敏感的人口统计学属性,可以增加响应的多样性。
图 13. 使用隐式身份提示可以缓解错误刻画 [17]
调节token采样温度 研究17通过增加温度参数可以增加输出的多样性,但这种方法并不能完全解决单一化扁平化的问题.即使温度已经升高到不能顺利生成合理的回答,依旧不能生成和人类一样多样化的结果。
图 14. 升高温度系数可以提高多样性但不足以解决问题[17]
提供高质量的过往经历 研究20提出了一个新型的代理架构,通过与超过1000名真实个体进行深度高质量的访谈,LLM能够了解从个人生活故事到对当前社会问题的看法等广泛话题上真人个体的态度和行为.实验表明基于访谈的LLM agent能够大幅提高社会科学上的预测表现。
图15. 收集参与者数据和创建LLM agent的过程 [20]
微调训练模型 研究14为了解决LLM模拟中的不一致性,提出了基于强化学习的AdaORPO算法,通过构建训练数据集,在每个批次中计算平均评分来调整学习率,结合监督微调损失和序数回归损失来更新模型参数.微调后算法能够提高满意度率,一定程度上解决一致性问题。
图16. AdaORPO训练前后效果对比 [14]
[20] Park J S, et al.Generative agent simulations of 1,000 people[J]. arXivpreprint arXiv:2411.10109, 2024.
相关讨论
上述文章介绍了当前LLM应用在社会科学,特别是社会科学模拟中的可行性,潜在问题,以及可能解决方案.以下将对LLM进行社会科学的两个问题进行讨论。
1.要像人又不能太像人,近似的边界在哪里?
社会科学实验,无论是基于真人样本还是LLM样本,都涉及到抽样步骤.在过去的研究中,研究人员会尽量使用全面的抽样样本以保证结果的可靠性。在LLM进行社会模拟的话题下,抽样样本的合理性转变成了’LLM要多大程度上反应真人’,这里涉及到几个权衡:
(1)Agent复杂度和模拟精准度的权衡:固然提供更加精细化的个人经历或访谈数据能够增加LLM理解该个体行为的能力和模拟能力,但过于复杂的外部知识将带来很大的工作量和计算成本。
(2)多样性和刻板印象的权衡:真人数据集永远是所有人类数据集的采样,当我们声称某个模拟能够达到该样本上的多样性时,在更细粒度的数据集上,该模拟又会变成刻板印象。我们该如何界定何时是多样性以足够为边缘群体发声?
(3)数据质量和数据安全的权衡:当我们采集更细致,更准确,更丰富的真实数据时,收集难度和成本对应升高,同时对于隐私数据的担忧和相应的数据安全管控也会增加。我们该如何控制收集高质量数据时不越过数据伦理的红线?
2.使用’合成人’是否可行?
由于真实数据采集的困难,现在出现了使用LLM进行角色扮演后生成’硅基人’数据的工作[21]。诚然,这种方法并不能获得与真人完全一致的数据,但当体量增大,如研究21提供的,在一亿个不同的’硅基人’数据量下, 有没有可能每一个真人都能够找到与他足够相近的’硅基人’呢,这会不会成为ABSS生成个体代理的可行方案呢?
[21]Ge T, et al. Scaling synthetic data creation with 1,000,000,000 personas[J]. arXiv preprint arXiv:2406.20094, 2024.
#artContent h1{font-size:16px;font-weight: 400;}#artContent p img{float:none !important;}#artContent table{width:100% !important;}