尊龙凯时,尊龙凯时官方网站,尊龙凯时APP下载
2025年3月,国际证监会组织(IOSCO)发布了《资本市场中的AI运用:案例、风险和挑战》(Artificial Intelligence in Capital Markets: Use Cases, Risks, and Challenges)报告 。根据该报告定义,AI系统(AI system)指的是一种机器系统(machine-based system)。该系统能够根据显性或隐性的目标,基于其所接受的输入信息,自动输出可以影响实体或虚拟环境的预测、建议、决策等内容。而不同的AI系统将会在自动化程度(Level of autonomy)和部署之后的适应性(Adaptiveness)方面存在一定的差异。根据该报告的的定义,从最广义的AI系统角度来看,其包括自动推理、自然算法等内容,不过近年来热度相对较高的
该报告的调研群体主要包括IOSCO金融科技工作组(Fintech Task Force, FTF)的24个参与经济体。在该报告中,IOSCO通过对各个经济体资本市场中监管者进行调查问卷,详细梳理了全球各个资本市场中参与者对于AI的运用重点。根据调查问卷结果,IOSCO发现,对于主要经济体内参与资本市场各项业务的资管机构而言,目前对于AI的运用集中在智能投顾(Robo-Advice)和投资研究(Investment Research)。若进一步将范围拓展到资本市场的各类参与者,可以发现资本市场各类参与者最为普遍的AI运用在于与客户进行沟通、算法交易、智能投顾、欺诈检测、内部效率提升和反洗钱监测。因此,在实践中,资管机构除了在智能投顾、投资研究等领域进行AI运用之外,也在算法交易、内部效率提升等领域探索了AI的运用。
在投研领域,资管机构主要使用AI来增强投资选择过程、进行相关投研材料翻译、监测宏观环境和数据并对客户进行定位和营销。在增强投资选择过程上,AI的主要用途包括市场情绪分析、数据汇总和流程自动化。在相关投研材料的翻译上,AI可以支持资管机构第一时间了解通过其他语言撰写的投资研究材料,也可以促进资管机构在第一时间了解到其他经济体产品创新的一手信息。在监测宏观环境上,有部分资管公司已开始利用自研、第三方平台和数据提供商所提供的AI工具来自动监测宏观经济环境和数据的变化,并在触发相关阈值时进行及时预警。在对客户进行定位和营销时,资管公司运用AI工具对客户进行画像和定位,更好地了解客户的需求痛点,从而向客户提供能够满足其需求的产品或产品组合。
从AI对投资赋能的潜在效果来看,埃森哲曾在2021年发布《资产管理行业的未来》(The Future of Asset Management) ,根据其预测,当资管机构对于AI的运用逐步成熟之后,AI将能够帮助资管机构获得310BP的Alpha,其中有30BP来源于AI赋能研究,有80BP来自于AI对于投资决策的有效支持,有200BP来自于AI对于交易择时和策略的优化。在不同的资产大类层面,AI也能够帮助资管机构优化投资收益。在权益资产方面,AI能够通过敏感性分析和预测计算等方法,帮助资管机构在上市公司季报或季度收入发布之前预测全域资产的可能表现。在房地产资产方面,投资经理可以通过替代数据(例如消费和人口结构数据等)来预测房地产市场、房屋出租率和价格的潜在变化,从而更准确的预测房地产资产的收益率等数据。在固收类资产方面,AI可以帮助投资经理通过进出口数据、全球资金流向数据以及其他宏观数据指标来预测不同经济体的利率走势和汇率变化。而从最新的实践数据来看,来自加州大学埃尔文分校、佐治亚州立大学和爱荷华州立大学的4位教授发表了《生成式AI与资产管理》(Generative AI and Asset Management),该文章选择了对冲基金的回报率进行研究,从研究的结果看,相较于没有使用生成式AI的对冲基金,运用AI支持投研的对冲基金能够获得1.8%-3.5%的超额收益回报。
第一,AI运用所带来的网络风险。基于AI的运用和部署,AI系统的运用将会使得各类机构所面临的网络风险显著提升。一是不法分子运用AI进行网络攻击的风险。不法分子将可以运用AI来策划和实施自动进行网络攻击。具体来看,AI技术能够帮助其对于信息系统的脆弱节点进行分析,从而使得资管公司和资本市场的漏洞更容易被不法分子抓住。与此同时,AI可以使得不法分子所运用的钓鱼邮件、诈骗信息、入侵方式更为智能化,从而帮助不法分子更便于窃取数据和躲避侦测。在2024年11月,美国财政部金融犯罪打击网络部门(FinCEN)曾发布警告讯息指出,越来越多的金融机构上报,其自身和客户所遭遇的深度伪造信息(Deepfake media)攻击日渐增多,不法分子大量运用深度伪造技术来试图对资管产品的持仓信息、资金流向和客户个人信息等进行窃取,从而对资管机构的声誉和安全产生负面影响。二是对AI系统的攻击。由于AI系统自身的脆弱性,其在构建和训练的过程中都较为容易受到不法分子的投毒和攻击。不法分子既可以对大语言模型的语料进行投毒来开展攻击,也可以在AI系统构建底层代码时埋入后门。
第三,AI运用过程中的模型风险和数据质量风险。根据IOSCO所收集的各经济体反馈来看,AI在算法交易、智能投顾、预测性分析、市场分析、交易分析、风险建模、交易执行、营销宣传、客户沟通、反洗钱等多个领域都将会存在模型风险和数据使用风险。一是模型风险。大语言模型相对复杂,因而基于大语言模型构建的AI系统的输出结果往往较难甚至无法进行较好的解释。这一情况映射至资管机构的日常运行之中,往往意味着运用相应AI系统的投资产品和服务难以进行充分的信息披露,其信息披露内容容易不充分、不准确同时缺乏效率。与此同时,AI模型自身可能还会存在一定的局限性(Limitations)和偏向性(Bias)。一方面,大语言模型的训练仅能使用历史数据,故而难以适配金融市场和投资者偏好的最新变化,从而难以准确地在未来市场环境下为资管机构投资提供超额收益。另一方面,大语言模型训练时所使用的算法、数据和权重等可能存在偏向性,因而可能会导致其对于投资决策和不同类型客户的需求研判存在偏差。二是数据质量风险。大语言模型的训练不仅依赖于算法,同时也依赖于丰富、可靠的数据等语料。一般来看,大语言模型若在训练阶段能够使用来源范围广泛、高质量的数据,将能够使得其最终生成的结果更为准确和可靠。与之相对应,若大语言模型在训练时所使用的语料准确性较差,甚至被认为“投毒”,那么大语言模型所产生的输出结果质量也将存在问题。这一情况映射到资管机构层面,就意味着资管机构通过AI所开展的投资收益堪忧。与此同时,与模型风险类似,大语言模型在训练过程中所使用的数据也会存在局限性和偏向性问题,从而影响AI支持资管机构发展的实际效果。
第四,AI运用在外包服务、第三方服务方面的风险。由于大语言模型和AI系统的研发成本高、研发周期长,包括资管机构在内的金融机构难以完全采用自研的方式对大语言模型和AI系统进行研发,或多或少都需要依托来自于第三方机构的基数支持,这就使得资管机构在运用AI时将会面临集中度、外包服务和第三方依存度等的潜在风险。一是集中度风险。若资管机构所使用的AI模型自身,或AI模型所使用数据等对于单一或特定几家机构的依存度较高,那么资管机构在运用AI时将会面临较高的集中度风险。二是外包服务和第三方机构风险。不同于资管机构可以直接接受金融监管部门监管,资管机构所使用的AI系统其运作方式和提供者在绝大多数经济体内并不属于金融监管部门的监管范畴之内。因此,若相关AI系统的外包服务提供商出现问题,其风险也将存在传染至资管机构的可能性。
第五,资管机构工作人员在与AI系统交互过程中的风险。即使AI系统设计相对完美,但由于AI系统的最终操作方仍然是人类,因此在人类操作AI的过程中也将存在相应的风险。一是缺乏问责机制和无法满足监管合规要求。资管机构在运用AI系统的同时,也需要对AI系统设置相应的内控合规流程和要求,从而避免机构人员在使用AI的过程中存在违规行为。二是缺乏内控机制和管理能力。在AI系统研发、接入系统、运用和监控的过程中,都需要资管机构拥有相应的风险管理能力。考虑到AI作为较新的运用,资管机构从业人员或许尚不具备有效驾驭AI的能力,故而可能衍生出潜在的不可控风险。三是过度依赖技术的风险。虽然在充分的研发和训练技术中,生成式可以提供看起来令人信服的结果,但是从实践上来看,由于AI技术的开发和运用仍处于初期,因此AI系统仍然时常“一本正经的胡说八道”。若资管机构缺乏自身判断力地轻信AI系统的结论,或者缺乏人工管控的任由AI系统“信马由缰”,则AI系统可能导致各类不可控的风险。
第一,在牌照要求方面,尚未推出专门的智能投顾牌照,但开展智能投顾业务仍需满足各司法辖区开展投顾业务的持牌要求。以新加坡与澳大利亚为例,新加坡金管局(Monetary Authority of Singapore,MAS)在2018年10月发布了《提供智能投顾服务的指引》(Guidelines on Provision of Digital Advisory Services,以下简称“《智能投顾指引》”) ,规定在新加坡提供金融投资建议服务(包括智能投顾服务)的各类机构均需要持有金融顾问牌照(Financial Advisers Licence)。但是,持有金融顾问牌照的投顾机构在未获得其他牌照的情况下,不得处理或控制客户的资产或资金。在提供金融咨询服务外,投顾机构若向客户提供执行资本市场操作、代客户管理投资组合等服务,则还需要持有对应的资本市场服务(Capital Markets Services,CMS)牌照 ,例如证券交易牌照(Securities Dealing License)、衍生品交易牌照(Derivatives Trading License)、基金管理牌照(Fund Management License)。
另一方面,鉴于完全自动化模型面临的挑战,部分监管机构认为,在没有人类顾问参与的情况下很难确保投资建议的适当性。例如,加拿大的监管机构要求在客户初始开启智能投顾服务时,应有人工顾问与客户联系和确认;同时,在后续的智能投顾服务过程中,应当始终让客户有选择与顾问进行联系的选项。美国马萨诸塞州证券监管部门(Massachusetts Securities Division)在2016年4月发布《关于州注册投资顾问使用第三方智能投顾的政策说明》(Policy Statement: State-Registered Investment Advisers Use of Third-party Robo-Advisers),指出完全自动化的智能投顾可能本质上无法履行州注册投顾机构应尽的责任义务。
第三,在算法监管方面,如何确保用于生成建议的算法按照预期运行是智能投顾的监管重点。智能投顾商业模式的核心是将客户数据转化为可操作算法,算法中存在的错误或歧视可能会给客户带来损失,甚至导致金融市场的混乱。为了降低算法风险,监管机构要求智能投顾机构为算法设立治理和监督安排,且最终责任应由董事会或高级管理层承担。以新加坡为例,在《智能投顾指引》中针对智能投顾做出了算法监管的相关安排,主要思路是将算法监管的责任归属于智能投顾机构的董事会和高管,其需要对面向客户的算法工具进行有效监督和治理,包括确保有足够的资源来监控和监督算法的性能、具备开发和审核算法方法的能力和专业知识的人员、制定算法工具开发的规章制度等。
第四,智能投顾在提供通用化建议(Streamlined/Scaled Advice)时应向投资者明示风险与潜在后果。英国金融行为监管局(Financial Conduct Authority,FCA)将通用化建议定义为一种仅关注客户的特定需求(如养老投资、教育储蓄等),基于这一特定需求提供投资建议的投顾服务,该服务不涉及客户其他背景情况的分析。由于该类智能投顾服务在向客户提供建议时所考量的信息相对有限,无法考虑到客户的全部财务状况和客观偏好等因素。在这种情况下,智能投顾需要向客户明示提供建议的有限性、风险以及潜在后果,例如发出风险披露声明。