走向负责任和可问责的金融大模型伦理治理
DOI:
https://doi.org/10.1234/9acy1223关键词:
生成式人工智能, 金融领域应用, 伦理治理, 数据隐私, 偏见和歧视, 负责任和可问责摘要
作为计算智能和数字思维发展的新阶段,近期兴起的基于大模型的生成式人工智能已初具通用人工智能的特征,且实现了从现实空间、数据空间到生成空间的突破性进展。然而,生成式人工智能一方面在安全和伦理上存在可能危及人类生存的风险,另一方面存在一定的社会伦理风险。生成式人工智能在金融领域的应用,是金融行业在数字化转型大潮推动下的必然趋势。在金融领域,生成式人工智能的创新应用包括优化客户体验和定制个性化推荐、金融欺诈检测和预防、风险评估和信用评分、交易和投资策略优化、借助自然语言处理提升合规效率等。与此同时,金融大模型的应用也进一步加剧了人们的担忧,数据隐私、偏见、可解释性等伦理风险在该领域备受关注,而上述风险的共性问题主要在于生成内容的“幻觉”、数据投毒以及合成数据的使用。面对金融大模型的伦理和法律风险,对其进行伦理治理将更有利于对大模型潜在伦理和法律风险的整体治理。对于政府和行业主管部门而言:首先,应深入理解不同层级的伦理和治理原则,明确其背后的价值观和优先考量,从而根据具体需求确立金融大模型伦理治理的基本理念;其次,通过明确我国科技伦理和人工智能伦理治理的指导思想,探索金融大模型伦理治理的工作思路;最后,积极开展科技伦理审查工作,走向负责任和可问责的金融大模型伦理治理。
学科分类号
TP18;F831
基金
本文系国家社会科学基金重大项目“智能革命与人类深度科技化前景的哲学研究” (项目批准号:17ZDA028)、中国社会科学院“登峰战略”新兴学科和交叉学科项目(项目批准号:DF2023XXJC02)的阶段性研究成果。