建立一个自动化的洞察提取框架,用于客户反馈分析,使用 Amazon Bedrock 和 Amazon

构建客户反馈分析的自动化洞察提取框架

关键要点

本文章探讨如何利用 Amazon Bedrock 和 Amazon QuickSight 构建一个高效的客户反馈分析框架。我们将介绍如何整合大语言模型LLMs来实现这一目标,实现流程自动化,以便企业能够更快地做出数据驱动的决策。这一框架不仅支持洞察提取,还通过数据可视化增强了决策过程。

surfshark官网登录入口安卓版

提取客户反馈中的有价值洞察面临许多重大挑战。手动分析和分类大量非结构化数据如评论、留言和电子邮件既耗时又容易引起不一致性和主观性。随着反馈量的增加,回复速度和解决客户问题的能力受到阻碍。此外,捕捉颗粒化的洞察如特定方面和相关情绪也是困难的,低效的客户查询处理和优先级排序可以导致延误和客户不满。这些痛点凸显了简化客户反馈洞察提取过程的必要性,从而使企业能够做出数据驱动的决策并提升整体客户体验。

大型语言模型LLMs已经改变了我们与自然语言交互和处理的方式。这些强大的模型可以理解、生成和分析文本,解锁各个领域和行业的广泛可能性。从客户服务到电子商务,再到医疗保健和金融,LLMs的潜力正在迅速被认知和应用。企业可以利用LLMs获取有价值的洞察,简化流程,并提供增强的客户体验。与传统的自然语言处理NLP方法如分类方法不同,LLMs在适应动态变化的类别和基于内嵌的预训练知识提高准确性方面,提供了更大的灵活性。

Amazon Bedrock,作为一项全面管理的服务,旨在便利LLMs与企业应用程序集成,通过单一API提供来自Anthropic、Mistral AI、Meta和Amazon等领先人工智能公司的高性能LLMs。它还提供了一系列功能,如通过微调进行模型自定义、为上下文响应集成知识库,以及用于在系统间运行复杂的多步骤任务的智能代理。借助Amazon Bedrock,开发人员可以进行实验、评估和部署生成性AI应用,而无需担心基础设施管理。其企业级的安全性、隐私控制和负责任的AI特性,能够在大规模生成性AI创新中实现安全可信的创新。

为了创建和共享客户反馈分析而不必管理底层基础设施, Amazon QuickSight 提供了一种简便的方法来构建可视化、执行一次性分析,并快速从客户反馈中获得商业洞察,无论何时何地、在何种设备上都能进行。此外,QuickSight的生成性业务智能BI能力使您可以使用自然语言询问客户反馈,而无需编写SQL查询或学习BI工具。这种用户友好的数据探索和可视化方式使组织内的用户能够快速轻松地分析客户反馈并分享洞察。

在本文章中,我们将深入探讨如何将LLMs集成到企业应用中,以利用其生成性能力。我们将探讨工作流实施的技术细节,并提供可以快速部署或修改以适应您特定需求的代码示例。无论您是希望将LLMs纳入现有系统的开发人员,还是希望利用NLP技术的商业领袖,本文章都可以作为您的快速入门指引。

采用生成性方法进行NLP任务的优势

在客户反馈分析中,您可能会想知道传统的NLP分类器,如BERT 或fastText,是否足够。尽管这些传统机器学习ML方法的准确性相对不错,采用生成性AI方法有几个显著的优势。以下表格比较了生成性方法生成性AI与区分性方法传统ML在多个方面的区别。

方面生成性AILLMs传统ML准确性通过利用预训练期间获取的知识和客户反馈与类别名称之间的语义相似性,达到竞争力的准确性。特别适合缺少标记数据的情况。在拥有足够的标记数据时能够达到高准确性,但若缺乏标记数据,依赖于预定义特征,性能可能会下降。获取标记数据通过在大规模文本语料库上进行预训练,从而实现零样本或少样本学习。不需要标记数据。需要针对所有感兴趣的类别提供标记数据,这可能耗时且成本高昂。模型泛化通过预训练期间接触到多样文本体裁和领域,增强了对新任务的泛化能力。依赖大量特定任务的标记数据来改善泛化能力,限制了对新领域的适应能力。操作效率利用提示工程,减少在引入新类别时对广泛微调的需求。每当添加新类别时需要重新训练模型,增加了计算成本和部署时间。处理稀有类别和不平衡数据能够通过理解上下文和语言语义生成稀有或未见类别的文本。由于标记示例有限,处理稀有类别或不平衡类别时表现不佳,往往导致对稀有类别的性能较差。可解释性通过生成文本提供对其预测的解释,提供决策过程中的洞察。可解释性通常仅限于特征重要性或决策规则,缺乏生成文本所提供的细微差别和上下文。

生成性AI模型凭借预训练的语言理解、提示工程和减少对标签更改的微调需求,相比传统ML方法能节省时间和资源。您还可以进一步微调生成性AI模型,以调整其在特定领域或任务上的表现。有关详细信息,请参阅 在Amazon Bedrock中使用您的数据进行微调和继续预训练自定义模型。

在本文章中,我们主要关注LLMs在客户反馈分析中的零样本和少样本能力。LLMs的零样本学习指其在没有特定任务示例的情况下执行任务的能力,而少样本学习则涉及提供少量示例以提高在新任务上的性能。这些能力因能在准确性与操作效率之间取得平衡而引起广泛关注。借助LLMs的预训练知识,零样本和少样本方法使模型能够在极少或无标记数据的情况下执行NLP。这消除了大量数据标注工作的需要,使其能够快速适应新任务。

解决方案概述

我们的解决方案呈现了一个完整的生成性AI客户评论分析应用。当自动内容处理步骤完成后,您可以将输出用于下游任务,例如调用客户服务后端应用中的不同组件,或将生成的标签插入每个文档的元数据中以进行产品推荐。

以下图例展示了所提议解决方案的体系结构和工作流程:

客户评论分析工作流程包括以下步骤:

用户将文件上传到您 Amazon Simple Storage Service (Amazon S3) 数据湖中的专用数据库,启动 AWS Step Functions 的处理。Step Functions 工作流启动。在第一步中,一个 AWS Lambda 函数读取并验证文件,提取原始数据。使用预配置用户提示由LLM处理原始数据,LLM根据用户提示生成输出。将处理后的输出存储到数据库或数据仓库中,例如 Amazon Relational Database Service (Amazon RDS)。使用QuickSight在BI仪表板中可视化存储的数据。当结果准备好时,用户会收到通知,并可以访问BI仪表板以查看和分析结果。

该项目可在 GitHub 上获得,并提供 AWS Cloud Development Kit (AWS CDK) 代码进行部署。AWS CDK是一个开源软件开发框架,允许以代码的形式定义云基础设施 (IaC),并通过 AWS CloudFormation 提供。这为您在AWS帐户上的自动部署体验提供了支持。我们强烈建议您遵循 GitHub README 和 部署指南 来开始。

在接下来的部分中,我们将重点介绍关键组件,以解释这一自动化洞察发现框架:使用Step Functions进行工作流编排、对LLM进行提示工程,以及使用QuickSight进行可视化。

前提条件

本文面向具有LLM和提示工程基础知识的开发人员。虽然不需要高级技术知识,但如果您希望探索我们的GitHub示例代码,熟悉Python和AWS云服务将是有益的。

使用Step Functions进行工作流编排

为管理和协调多步骤工作流和过程,我们利用了Step Functions。Step Functions是可视化工作流服务,能够帮助开发人员构建分布式应用程序、自动化流程、编排微服务,以及创建数据和机器学习管道,使用AWS服务。它可以自动化提取、转换和加载ETL过程,因此多个长时间运行的ETL作业能够顺序运行并成功完成,无需人工编排。通过组合多个Lambda函数,Step Functions使您能够创建响应迅速的无服务器应用程序,并编排微服务。此外,它还能编排大规模的并行工作负载,使您能够对大量数据集如安全日志、交易数据或图像和视频文件进行迭代处理。我们的端到端编排的定义详见 GitHub repo。

Step Functions为端到端工作流调用多个Lambda函数:

有效验证文件格式 的预处理使用LLM进行推断、处理和保存结果检索未知项和分析额外标签 的后处理通知最终用户任务状态和响应信息

Step Functions使用 Map状态处理模式 来编排大规模并行工作负载。您可以修改Step Functions状态机以适应自己的工作流,或修改Lambda函数以满足自己的处理逻辑。

提示工程

为了调用Amazon Bedrock,您可以按照我们的 代码示例 使用Python SDK。提示是描述AI应执行任务的自然语言文本。提示工程可能包括对查询进行措辞、指定风格、提供相关上下文或为AI指定角色,例如“您是一个有帮助的助手”。我们提供了一个 反馈分类的提示示例。有关更多信息,请参阅 提示工程。您可以根据自己的工作流来修改提示。

此框架使用示例提示为用户反馈生成标签,从预定义的标签列表中选择。您可以根据用户反馈风格和商业需求来调整提示。

您的任务是根据用户反馈内容和通过XML标签和 包裹的反馈标题,选择适当的标签。

以下是潜在标签列表:tags

title

feedback

请仅从标签列表中选择一个,并在标签内回复用户的问题。如果以上标签均不适合反馈或信息不够,请返回“unknown”。不需要解释,也不需要回显标签列表和反馈。

使用QuickSight进行可视化

我们成功地利用LLM将反馈分类到预定义分类中。在数据被分类并存储到Amazon RDS后,您可以使用QuickSight生成概述,并可视化数据集中的洞察。有关部署指导,请参阅 GitHub Repository 结果可视化指南。

我们使用来自Amazon Bedrock的LLM为每个反馈生成一个类别标签。该生成的标签存储在 labelllm 字段中。要分析这些标签的分布,请选择 labelllm 字段以及其他相关字段,并使用饼图可视化数据。这将提供不同类别及其在反馈数据集中所占比重的概述,如下图所示。

除了类别概述外,您还可以生成反馈或问题随时间变化的趋势分析。以下截图展示了问题的数量在3月份达到峰值,但随后立即改善,后续月份的问题数量减少。

有时,您可能需要创建分页报告,以向公司管理团队汇报客户反馈。您可以使用 Amazon QuickSight分页报告 创建高度格式化的多页报告,从LLMs提取的洞察中定义报告布局和格式,并调度报告生成和分发。

清理

如果您按照GitHub部署指南操作并希望进行清理,请在CloudFormation控制台中删除堆栈 customerservicedev,或运行命令 cdk destroy customerservicedev。您也可以参考GitHub部署指南中的清理部分。

建立一个自动化的洞察提取框架,用于客户反馈分析,使用 Amazon Bedrock 和 Amazon

适用的现实应用程序和场景

您可以使用此自动化架构进行各种现实应用和场景中的内容处理:

客户反馈分类和情感分类 在现代应用服务中,客户经常留下评论和反馈,以分享他们的经验。为了有效利用这些宝贵的反馈,您可以使用LLMs分析和分类评论。LLM会提取反馈中提到的特定方面,例如食品质量、服务、氛围等相关因素。此外,它还会确定与每个方面相关的情感,将其分类为积极、消极或中性。通过LLMs,企业可以获得有关客户满意度的重要洞察,同时识别需要改进的领域,进而做出数据驱动的决策,以提升其产品和客户体验。

客户服务的电子邮件分类 当客户通过电子邮件与公司的客服部门联系时,他们通常会有各种询问或问题需要及时处理。为了优化客户服务流程,您可以利用LLMs分析每封进入邮件的内容。通过审查邮件内容并理解询问的性质,LLM将邮件分类为预定义类别,如账单、技术支持、产品信息等。这种自动化的分类方法可以高效地将邮件路由到适当的部门或团队,以便进一步处理和回复。通过实施这一系统,企业能够确保客户询问能够被相关人员及时处理,从而提高响应速度,提升客户满意度。

网页数据分析以提取产品信息 在电子商务领域,从网页中提取准确和全面的

使用自定义查询定制适用于特定业务文档的 Amazon Textract 机器学习博客
< 上一篇
智能医疗表单分析与 Amazon Bedrock 机器学习博客
下一篇 >

评论