人工智能与人类的紧密结合,使得智能人机合作成为大势所趋人工智能技术的快速发展也面临许多困难和挑战其中,如何以通俗易懂的方式向人类解释AI技术的基本原理,其自动决策机制,潜在风险和防范措施,成为开发可靠,安全,可靠的人工智能的首要任务在此背景下,华夏基金首席数据官陈一新,,,,张全时,,陶大成,,,刘奇,黄,,张永锋等12位来自机器学习,计算机视觉,自然语言处理,生物医学,金融,推荐系统等应用领域的著名专家共同创作了《可解释人工智能导论》一书
《解释性人工智能导论》一书全面介绍了可解释性AI的基础知识,理论方法和产业应用本书分为三个部分,共11章第一章揭示了数据驱动人工智能系统的决策机制,提出了基于人机交流和交互场景的可解释人工智能范式第2~5章介绍了可以解释人工智能技术的各种方法,包括贝叶斯方法,基于因果启发的稳定学习和反事实推理,基于与/或图模型的人机合作解释,深度神经网络解释第6~10章分别介绍了可解释性人工智能在生物医学,金融,计算机视觉,自然语言处理,推荐系统等领域的应用案例,详细阐述了可解释性在司法,城管,安防,制造等实际应用中的积极作用第11章总结了整本书,并讨论了可以解释人工智能研究的挑战和未来发展趋势
为什么强调人工智能的可解释性日常生活中充满了解释性的解释比如医生在向患者解释诊断结果和治疗措施时,要给患者解释好病因和治疗方法,让患者放心可是,核心的AI算法,尤其是深度学习算法,通常以类似于黑箱的工作模式运行,导致AI系统的运行结果无法被人类以合理的方式理解和认知在涉及人身财产安全的重要领域,如金融,医疗,自动驾驶等,模型的可解释性成为决定用户能否信任模型的关键
华夏基金首席数据官陈一新提到,在金融领域,机器学习的可解释性往往需要面对多种对象,包括开发者,用户,应用用户,金融监管,社会公众虽然不同对象所看重的可解释性的侧重点不同,但却是必要的对于开发者来说,算法的可解释性可以保证后续优化改进过程的有效实施,对于金融工具的使用者来说,可解释性可以让机器学习模型像其他传统金融理论或公式一样被理解和接受,对于应用用户,比如使用模型的投资研究人员,可解释性可以对模型给出的不同资产定价结果进行详细解释,对于金融监管者而言,可解释性可以确保他们从全过程约束AI模型,防范金融风险,对于公众来说,任何学科的深入发展都是不可或缺的,人们需要仔细监督金融机构的决策
金融人工智能是一个发展中的领域伴随着社会共识的深化和金融人工智能可解释性相关法律法规的不断完善,可解释性将成为金融AI长期可持续应用的必要原则之一根据消息显示,华夏基金正在积极探索和尝试将可解释机器学习应用于基金业务领域,以AI技术作为辅助投资工具,重点辅助海量数据集评估,动态股票筛选,提高投资效率等领域
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。