您的位置 : 环球研究 / 环球评论 / 新闻详情
评析金融风控场景下的人工智能发展战略
2022年08月31日王可

2022年7月29日,科技部等六个部门发布《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》(以下称“指导意见”)。其目标是落实国务院2017年发布的《新一代人工智能发展规划》,促进地方政府和各类主体加快人工智能场景创新,推动技术应用和人工智能产业化。技术上的投入需要获得回报是基本的市场规律。六部门的指导意见在战略指引、资本引导、融资支持、创新合作、人才和科技基础建设、算力和数据资源共享等方面,均为推动科技应用指明了方向和路径。各类市场主体的期待将是相关政策在地方和行业的落地,以及各方对创新应用实践的鼓励和包容,包括对可能引发问题的适度容错和适时纠偏。

 

一、金融领域智能场景应用的基础

 

以金融领域为例,指导意见指出要优先探索大数据金融风控、企业智能征信、智能反诈等场景,发展高端高效智能经济。在大型银行等金融机构,因为多年来中国金融机构国际化的努力,为了适应巴塞尔协议等国际金融监管规则的要求,大数据和算法应用早已在风险管理领域广泛应用。例如,对市场风险和信用风险的管理应用场景实际上就是金融机构计量客户或自身交易头寸和交易对手风险的过程。对电信诈骗、网络赌博等异常资金流动的监控对应着反洗钱可疑交易监控的应用场景。借贷和支付业务中的反欺诈监控是典型操作风险控制的实践。金融交易数据和算法科技经过十几年的应用,对传统金融机构来说,已经是常规的工作。近几年金融机构也响应国家推动数字化转型的发展战略,在营销、客户服务、内部审批和风险管理等多方面推动了人工智能的应用。

 

相较于大型金融机构的投入,中小型机构和与金融业交叉的新型业态更为保守和谨慎。这不仅与成本有关,也和这些企业对风险管理的认识程度、管理水平较为有限相关。近年来互联网技术和平台经济广泛地向信贷、支付、金融产品销售服务等领域渗透扩展,传统金融机构也在加大力度利用各类新兴技术和新型社交媒体加深对零售消费者的触及度。互联网零售券商、基金产品销售、保险代理等方面都可以见到典型的例子。这些跨行业技术互动将有力地推动大数据、算法科技和人工智能在金融业的场景应用。

 

二、智能场景应用在金融领域的发展方向

 

新兴科技产业在协助传统金融机构提高服务市场能力的过程中,我们看到了一些突出的问题。例如,个别中小型金融机构风控能力较为有限,对其面临典型风险的认识水平和管理能力亟待提高。在金融安全和稳健、审慎经营的层面,金融风控场景应用的推广应着力推动向中小金融机构努力。从行业主管部门的角度,加强资本充足性监管,防范系统性风险对银行体系的冲击,推动风控场景的应用是最为直接和有效的方式。

 

在风险管理应用方面,现有的大型金融机构可以直接参与到市场化的科技转化竞争中。他们对于风险的认识和把控具有成熟的经验。相比单纯的金融科技公司而言,银行等大型机构对市场风险、信用风险等的计量方法、对数据的熟悉和认知深度、对监管要求和自身风控的应用场景拥有产业的优势,已经积累了相当的经验和人才储备。因此,人工智能的战略推动,也需要考虑着力于这些企业,推动成熟金融风控技术向市场转化,进而促进科学风险管理方法在中小型机构的应用。

 

同时,互联网和大数据平台经济为场景创新提供了全新的视角。数字化平台企业借助其在电商、消费、出行、社交等领域获取的海量消费者数据,已经成功地切入了消费信贷、金融产品销售等领域,在消费者个人征信评估、投资者适当性评估等方面创造性地利用其特有客户数据、消费行为数据、人际互动数据,开发了很多信用评估、风险控制及反诈模型。这是传统金融机构所不具备优势的领域。虽然一些平台实体涉及的非法融资、高杠杆金融活动引发重大风险和监管关注,但我们不应忽视这些科技公司使用大数据和智能化技术对金融市场业务拓展和风险管理的贡献。在这个方面,行业监管应保持客观的态度,对技术创新及应用给予应有的包容。在推动人工智能发展的政策角度,此类平台经济的创新成果应该获得保护,并在推广上给予支持。

 

科技应用在金融机构的前后台业务职能条线并不平衡。金融市场数据应用最为前沿的例子,可见于投资决策的应用以及交易执行上,如量化投资和程序化交易。而且因为其直接与业务扩展和企业利润相关,发展最为迅速,竞争也最为激烈。相对而言,在中后台管理的自动化技术上,金融机构投入相对薄弱。例如,在国内金融机构反洗钱监控系统化的工作中,可疑交易监控模型、名单筛查所使用的模糊匹配技术仍然处于初级阶段。一个直接的原因是中后台是成本中心,不能直接产出利润。另一个原因也在于国内尚未形成在精细化管理上优胜略汰的竞争机制,风控管理的优势还未能转化成业务竞争的优势。在市场成熟之前,我们仍需要必要的监管政策,引导推动科技应用在行业内的均衡发展。

 

三、智能应用的法治问题

 

互联网和数据应用加深了金融行业与投资者、金融消费者的互动。但是,基于大数据的算法和智能应用也同时带来了传统金融业务模式中未曾突现的问题。例如,数据的广泛采集和应用带来的潜在个人信息过度收集、个人隐私泄露等问题。数据采集方式集中于青年消费群体,带来对中老年人和儿童的可能算法歧视问题。相同或同类算法应用于行业公司带来的潜在横向限制竞争问题。国务院《新一代人工智能发展规划》已经提出,到2025年要初步建立人工智能法律法规、伦理规范和政策体系,意在于此。因此,推动人工智能场景应用的同时,也要系统性地持续开展科技应用治理的研究和实践。

 

在个人征信等新型产业领域,新的消费数据和算法已经被引入。行业的管理也需要解决诸多问题。如何保证普惠金融能够在新的业务模式得到落实?涉及个人信息保护的数据,是否可以跨行业在市场主体之间分享?如何保护个人隐私,做到指导意见所提出的“数据基座”资源、算法模型、算力资源的共享?如何防范利用网络安全漏洞、数据保护漏洞实施欺诈等问题都需要在实践中加以解决。

 

人工智能法律伦理规制的研究和实践,应尽快加强加深。通过加强法治宣传教育,让更多懂技术的人才参与到政策规则的制定工作中。同时,也要通过执法和司法实践进行推动。执法部门可以吸引复合型人才,既懂技术,又熟悉法律,快速切入问题关键,落实政策目标。必要时,执法部门也应借助外部专业机构的力量,推动数据法律规范在金融监管、个人信息保护、数据保护、反垄断执法的应用。

 

从国家政策推动的角度,行业主管部门应该重点关注这类问题,推动风险管理技术、隐私计算和基础建模技术的研究和应用,加强算法治理和审计工作。拥有成熟技术的机构,应加大技术转化,实现新的利润增长。不仅解决自身管理需要,也可以利用其在金融科技、监管科技方面的经验和成果,瞄准中小机构和新型市场参与者,推广技术和产品。