AI大模型落地遇冷,金融机构加速探索技术路径

华院计算蔡华博士对记者表示,自回归文本生成方式由于缺乏外部知识验证机制,容易出现幻觉问题。在处理长文本推理和复杂逻辑推理时,这种局限性尤为明显。特别是在跨段落、跨文档推理时,模型容易引入逻辑混乱或错误推断,进一步加大了幻觉出现的概率。


为应对这一挑战,金融机构和科技企业正在积极探索解决方案。记者了解到,目前,金融领域的解决方案主要围绕RAG(搜索增强生成)、高质量指令参数数据集、结合格式化数据和计算能力进行优化。

“RAG技术可以通过改变提示的方式,有效提高回答的准确性。”华院计算董事长宣晓华对记者表示,大模型主要依赖归纳法进行学习和生成,在微调阶段,如果使用高质量的数据集,且该数据集能够全面覆盖所属领域的各个方面,那么大模型的可靠性也会得到显着提升。

大型金融机构更倾向于采用RAG+搜索的方式,结合专业数据库进行金融数据库的标注和分析。某大型外资银行科技部门人士对记者表示,数据是AI大模型的基础,质量直接影响模型的准确性和可靠性,采用RAG技术,让AI在回答问题时能够实时调用专业领域的知识和数据,从而提高输出的准确性和可靠性。

例如,在专业的保险领域,往往需要投入大量人力与时间,对海量的保险条款、PDF文档及Excel数据进行加工与标签化处理,确保数据的准确性和可用性。上海燕道数科负责人娄道永对记者表示,保险大模型往往要通过积累海量数据并运用精算技术,将全国范围内的保险产品、社保规则及相关法律法规等信息进行结构化处理,涵盖全行业寿险产品、社保规则以及养老、医疗等多维度数据,这不仅需要强大的技术支持,更离不开专业精算团队的深度参与。

定制化训练与场景优化也是金融机构在去“幻觉”化中常用的办法。金融机构通过定制化训练,针对特定业务场景优化AI模型。例如,宁波银行接入DeepSeek大模型后,通过业务人员的微调训练和专业语料库支持,尝试降低“幻觉”问题。富国基金则通过将大语言模型应用于量化投资决策,利用情绪因子等技术提升业务效率。


上海人工智能研究院算法专家陆文韬总结,为了能有效避免AI大模型生成错误结果、产生“幻觉”,从技术实现角度应该注意三个方面问题,一是确保训练数据的高质量和多样性至关重要,二是调整模型架构与训练策略,三是完善实时监控与反馈机制。

除了RAG架构之外,还可以采用多种方法来优化模型性能。蔡华对记者表示,例如,强化学习优化(RLHF),通过人类反馈提升输出的真实性和专业性,减少错误。同时,是基于约束的生成,利用外部API校验或规则模板约束,避免生成不符合事实的内容。此外,结合Agent技术,增强模型的工具调用和任务规划能力,减少幻觉,提升在金融等领域的可靠性。

对于场景优化中保护行业核心技术和数据的问题,陆文韬提出,为保障金融科技领域的数据安全与合规,行业可借鉴数据脱敏与加密、可信数据生态构建、合规工具链完善等方法。例如,采用联邦学习实现“数据可用不可见”,确保原始数据不外泄;利用区块链技术进行语料共享存证,实现数据确权与溯源等。

[物价飞涨的时候 这样省钱购物很爽]
还没人说话啊,我想来说几句
上一页12下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
     推荐:

    意见

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *: 
    安全校验码 *:  请在此处输入图片中的数字
    The Captcha image  (请在此处输入图片中的数字)



    Copyright © 温哥华网, all rights are reserved.

    温哥华网为北美中文网传媒集团旗下网站