近日,《国务院关于深入实施“人工智能+”行动的意见》重磅出台,上海亦明确表示将在三至五年内建成全球知名金融科技中心,正积极打造人工智能与金融深度融合的创新试验场和示范高地。
在此背景下,随着AI技术在金融领域的应用场景不断拓展落地,如何构建有效的监管框架,既能设定风险边界又能引导行业健康发展,成为业内关注焦点。9月10日,由上海交通大学上海高级金融学院主办的“AI落地金融之路”——“2025 Inclusion·外滩大会”见解论坛顺利举行,与会专家共同探讨技术创新与风险管控的平衡策略,旨在助力AI金融生态的健康构建。
在圆桌讨论环节,华东政法大学国际金融法律学院教授徐明分析指出,人工智能作为新兴事物,当前发展主要面临“问题新颖、风险较高、监管复杂”三大核心挑战。
关于“监管复杂”这一挑战,徐明认为具体体现在三个层面。首先,现行的法律与监管体系尚不能完全适应AI发展需求,如何构建一套松紧适度、宽严相济的法律制度是首要难题。其次,AI技术应用广泛,已深度融入民众日常生活,涉及多个行业、领域及监管部门,部门间的协调联动存在一定难度,且协调成本较高。最后,AI技术专业性强、迭代速度快,涉及大量新知识与新技术,监管机构能否及时掌握并跟上其发展步伐,也是监管工作面临的一大考验。
针对上述挑战,徐明建议,应采用综合施策的方式,从法律、监管、技术等多个维度统筹应对。在宏观层面,需加快人工智能专项立法进程,明确AI应用的责任主体、责任边界,并严格责任追究,确保法律制度的宽严适度;在微观层面,则要进一步细化各项技术标准、安全标准和监管标准,使人工智能技术在探索与实践过程中有章可循、有据可依、可落地执行。同时,要充分发挥行业自律、监管机构及相关部门的协同作用,主动积极地应对人工智能带来的各种挑战。
联和金融人工智能业务负责人、杭州海茵斯科技创始人聂金则进一步梳理了AI技术在金融行业应用中面临的四大核心监管关切点。
一是数据潜在的歧视性风险。AI决策基于数据驱动,若训练数据本身存在偏见或歧视因素,可能会导致AI系统做出不公平决策,进而加剧社会不平等,同时也可能给相关企业带来潜在的法律风险。二是AI决策的透明度与可解释性难题。2025年各国新出台的监管条例均要求,金融机构在使用AI模型或提供AI服务时,其模型决策的可解释性必须通过审计报告予以证明。三是用户隐私保护问题。聂金强调,为提升AI模型性能,打破数据壁垒至关重要,但在此过程中,大量数据的使用可能导致数据主体边界模糊,对用户信息隐私保护构成较大挑战,尤其在跨国应用场景下,此问题可能升级为数据安全问题。四是责任认定与追溯机制。AI系统能够自主做出决策,但其从模型训练、测试到实际应用的整个生命周期,需要建立一套清晰合理的责任认定与追溯机制。
“我认为在监管方面,首先要坚守风险底线;其次要提供积极有效的引导,为AI技术在金融领域的规模化、体系化应用创造有利条件、铺平发展道路。”聂金针对上述挑战提出了自己的监管思路。
恒生电子首席科学家、研究院院长白硕则从AI技术在金融领域落地实施的实际操作角度,对AI应用的边界问题进行了探讨。
“人工智能可以实现深度了解客户,甚至比客户自身更了解其需求,理论上能做到‘千人千面’的精准服务,但由AI生成的最终结果,仍需经过人工审核这一关键环节,在这类场景中,人需要承担最终的责任兜底。”白硕指出,“这种人机协作的边界,预计在未来相当长一段时间内仍将持续存在。”