人工智能自动化 | 20+ GenAI UX 模式、示例和实施策略

2025-8-14    杰睿 行业趋势

20+ GenAI UX 模式、示例和实施策略

生成式人工智能通过关注基于意图的结果规范,为人类与系统交互提供了一种新的方式。GenAI 带来了新的挑战,因为它的输出是概率性的,需要理解变异性、记忆、错误、幻觉和恶意使用,这就带来了构建原则和设计模式的必要性,正如 IBM 所描述的那样。

此外,任何AI 产品都是一个分层系统,其中 LLM 只是其中一种成分,而内存、编排、工具扩展、UX 和代理用户流才是真正的魔力!

本文是我对 GenAI 设计模式演变的研究和记录,这些模式为产品经理、数据科学家和交互设计师提供了一种通用语言 ,帮助他们打造以人为本、值得信赖且安全的产品。通过应用这些模式,我们可以弥合用户需求、技术能力和产品开发流程之间的差距。

以下是 21 种 GenAI UX 模式

  1. GenAI 或无 GenAI
  2. 将用户需求转化为数据需求
  3. 增强或自动化
  4. 定义自动化水平
  5. 逐步采用人工智能
  6. 利用心智模型
  7. 传达产品限制
  8. 显示思路链(CoT)
  9. 利用多种输出
  10. 提供数据源
  11. 传达模型信心
  12. 为记忆和回忆而设计
  13. 提供上下文输入参数
  14. 为 coPilot、共同编辑或部分自动化而设计
  15. 定义自动化的用户控件
  16. 用户输入错误状态的设计
  17. 针对人工智能系统错误状态的设计
  18. 设计以捕捉用户反馈
  19. 模型评估设计
  20. 人工智能安全护栏设计
  21. 传达数据隐私和控制

1. GenAI 还是非 GenAI

评估 GenAI 是否改善了用户体验或增加了复杂性。通常,基于启发式 (IF/Else) 的解决方案更易于构建和维护。

GenAI 有益的场景

  • 开放式、富有创意且能增强用户体验的任务。
    例如,写作提示、总结笔记、起草回复。
  • 创建或转换复杂的输出(例如,图像、视频、代码)。
    例如,将草图转换为网站代码。
  • 结构化的用户体验无法捕捉用户意图。

应避免使用 GenAI 的情况

  • 结果必须精确、可审计或确定。
    例如,税务表格或法律合同。
  • 用户期望清晰一致的信息。
    例如:开源软件文档

如何使用此模式

  1. 确定客户旅程中的摩擦点
  2. 评估技术可行性:确定人工智能是否能够解决摩擦点。评估规模、数据集可用性、错误风险评估和经济投资回报率。
  3. 验证用户期望:
    -
    通过评估系统是否增强了人类的努力还是完全取代了人类的努力,确定人工智能解决方案是否侵蚀了用户期望,如模式 3“增强与自动化”中所述。-
    确定人工智能解决方案是否侵蚀了模式 6“心智模型”

2. 将用户需求转化为数据需求

这种模式确保 GenAI 开发始于用户意图以及实现该意图所需的数据模型。GenAI
系统的优劣取决于其训练数据。但真正的用户并非以行列的方式表达,他们表达的是目标、挫折和行为。如果团队未能将用户需求转化为结构化的、模型可用的输入,最终的系统或产品可能会优化到错误的结果,从而导致用户流失。

如何使用此模式

  1. 作为 PM、产品设计师和数据科学家的跨职能团队进行协作,并针对值得解决的用户问题进行协调。
  2. 定义用户需求通过使用三角研究:定性(市场报告、调查或问卷)+ 定量(用户访谈、观察性研究)+ 突发(产品评论、社交聆听等)和综合用户洞察 JTBD框架同理心地图将用户的情绪和观点形象化。价值主张画布将用户的收益和痛苦与功能结合起来
  3. 通过 选择合适的数据模型来定义数据需求和文档,进行差距分析,并根据需要迭代优化数据模型。一旦理解了“为什么”就将其转化为模型的“什么” 。你的AI模型需要哪些特征、标签、示例和上下文来学习这种行为?利用结构化协作来找出答案。

3. 增强 vs. 自动化

GenAI 应用中的一个关键决策是完全自动化任务还是增强人类能力。使用此模式可以使技术与用户意图和控制偏好保持一致。

自动化最适合用户倾向于委派的任务,尤其是在繁琐、耗时或不安全的情况下。例如,Intercom FinAI 会自动将冗长的电子邮件线索汇总为内部笔记,从而节省重复性、低价值任务的时间。

增强功能能够提升效率、创造力和控制力,从而增强用户想要持续参与的任务。例如, Abelton 的Magenta Studio支持创造性的控制,方便用户操控和创作新音乐。

如何使用此模式

  1. 为了选择最佳方法,请使用研究综合工具(如同理心地图(可视化用户情绪和观点)和价值主张画布(了解用户的收益和痛苦))评估用户需求和期望
  2. 测试并验证该方法是否会削弱或增强用户体验。

4. 定义自动化水平

在人工智能系统中,自动化指的是将多少控制权委托给人工智能而不是用户。这是一种战略性的用户体验模式,它根据用户的痛点、情境场景和对产品的期望来决定自动化程度。

自动化水平

  1. 无自动化(AI 辅助,用户自主决定)
    AI 系统为用户提供帮助和建议,但所有决定均由用户自行决定。例如,Grammarly会突出显示语法问题,但用户需要自行决定接受或拒绝更正。
  2. 部分自动化/副驾驶/共同编辑(AI 在用户监督下行动)
    AI 发起操作或生成内容,但用户根据需要进行审核或干预。例如,GitHub Copilot会建议开发人员可以接受、修改或忽略的代码。
  3. 完全自动化(AI 独立行动)
    AI 系统无需用户干预即可执行任务,通常基于预定义的规则、工具和触发器。GenAI 中的完全自动化通常被称为代理系统 (Agentic systems)例如,Ema可以自主规划和执行多步骤任务,例如研究竞争对手、生成报告并通过电子邮件发送,无需用户在每个步骤提示或干预。

如何使用此模式

  1. 评估用户需要自动化的痛点及其风险:当相关风险较低且发生故障不会造成严重后果时,自动化任务最为有效。低风险任务(例如发送自动提醒、促销邮件、过滤垃圾邮件或处理常规客户咨询)可以自动化,最大程度地减少负面影响,同时节省时间和资源。高风险任务(例如进行医疗诊断、发送关键业务邮件或执行金融交易)需要仔细监督,因为一旦发生错误,可能会造成重大损失。
  2. 评估和设计特定的自动化级别:根据用户的期望和目标,评估用户痛点是否应该属于——无自动化、部分自动化或完全自动化。
  3. 定义用户控件以实现自动化(参考模式 15)

5. GenAI 的逐步采用

当用户第一次接触基于新技术的产品时,他们常常想知道系统能做什么和不能做什么,它如何工作以及他们应该如何与它交互。

该模式提供了多维策略来帮助用户使用 AI 产品或功能、减少错误、与用户准备情况保持一致,以提供明智且以人为本的用户体验。

如何使用此模式

这种模式是许多其他模式的顶峰

  1. 从一开始就注重传达好处:避免深入探讨技术细节,并强调人工智能如何带来新的价值。
  2. 简化用户引导体验:在询问用户数据共享偏好之前,先让用户体验系统的价值,并优先提供基础 AI 功能的即时访问权限。鼓励用户稍后注册以解锁高级 AI 功能或分享更多详细信息。例如,Adobe FireFly循序渐进地引导用户从基础功能到高级 AI 功能。
  3. 定义自动化水平(参考模式 4) 逐步增加自主性或复杂性。
  4. 通过针对错误进行设计 来提供可解释性和信任(参考模式 16 和 17)。
  5. 传达数据隐私和控制(参考模式 21),以清楚地传达如何收集、存储、处理和保护用户数据。

6. 利用心智模型

心智模型帮助用户预测系统(网页、应用程序或其他类型的产品)的运作方式,从而影响他们与界面的交互方式。当产品与用户现有的心智模型相符时,用户会感觉直观且易于上手。当两者发生冲突时,可能会导致用户沮丧、困惑,甚至放弃。

例如,Github Copilot 建立在开发人员从传统代码自动完成的思维模型之上,从而简化了向 AI 驱动的代码建议的过渡

例如,Adobe Photoshop 建立在使用矩形控件扩展图像的熟悉方法的基础上,通过集成其生成填充功能,智能地填充新创建的空间。

如何使用此模式

通过提问来识别并建立现有的心智模型

  1. 用户旅程是什么以及用户试图做什么?
  2. 哪些心智模型可能已经存在?
  3. 该产品是否打破了任何直观的因果模式?
  4. 你是否打破了现有的心智模型?如果是,请清晰地解释如何以及原因。良好的引导、微文案和视觉提示可以帮助弥合差距。

7. 传达产品限制

这种模式涉及清楚地传达人工智能模型能做什么和不能做什么,包括其知识边界、能力和局限性。

它有助于建立用户信任、设定适当的期望、防止误用,并在模型出现故障或异常行为时减少挫败感。

如何使用此模式

  1. 明确说明模型的局限性:显示过时知识或缺乏实时数据的上下文提示。例如,当问题超出其知识范围时, Claude会说明其知识范围。
  2. 当模型无法提供合适的输出时,提供回退或升级选项。例如,当被问及与购物无关的问题时, Amazon Rufus会说:“它无法访问事实信息,我只能协助解决与购物相关的问题和请求。”
  3. 在产品营销、入职培训、工具提示或回应免责声明中明确限制

8. 显示思路链(CoT)

在人工智能系统中,思路链(CoT) 提示 技术 通过模仿人类更结构化、循序渐进的思维过程,增强了模型解决复杂问题的能力。

CoT 展示是一种用户体验模式,它通过揭示 AI 是如何得出结论的来提高透明度。这可以增强用户信任,提高可解释性,并为用户反馈提供空间,尤其是在高风险或模糊场景下。

例如Perplexity通过显示处理步骤来增强透明度,帮助用户理解答案背后的深思熟虑的过程。

例如Khanmigo是一种人工智能辅导系统,它通过模仿人类推理来逐步指导学生解决问题,以增强理解和学习。

如何使用此模式

  1. 显示“研究”和“推理”等状态 来传达进展,减少用户的不确定性,让等待时间感觉更短。
  2. 使用渐进式披露:从高级摘要开始,并允许用户根据需要扩展细节。
  3. 提供 AI 工具透明度:清晰显示 AI 用于生成建议的外部工具和数据源。
  4. 展现信心和不确定性:表明人工智能信心水平,并在相关时强调不确定性。

9. 利用多种输出

GenAI 凭借其概率特性,能够对同一输入产生不同的响应。这种模式通过并排呈现多个输出来利用可变性。展示多样化的选项有助于用户创造性地探索、比较、改进或做出更符合其意图的决策。例如, Google Gemini提供了多种选项,帮助用户探索、改进并做出更明智的决策。

如何使用此模式

  1. 解释变化的目的:帮助用户理解输出之间的差异是故意的,旨在提供选择。
  2. 启用编辑功能:让用户无缝地对输出进行评分、选择、重新混合或编辑,从而塑造结果并提供反馈。例如, Midjourney 可以帮助用户调整提示,并指导用户使用重新混合功能进行修改和编辑。

10.提供数据源

在 GenAI 应用程序中,清晰地阐明数据源对于透明度、可信度和用户信任至关重要。清晰地表明 AI 的知识来源有助于用户评估响应的可靠性并避免错误信息。

这在医疗保健、金融或法律指导等高风险事实领域尤其重要,因为决策必须基于经过验证的数据。

如何使用此模式

  1. 内联引用可靠来源:将来源显示为脚注、工具提示或可折叠链接。例如,NoteBookLM会在其答案中添加引用,并将每个答案直接链接到用户上传的文档部分。
  2. 清晰披露训练数据范围:对于生成工具(文本、图像、代码),请简单解释模型训练时使用了哪些数据,以及未包含哪些数据。例如,Adobe Firefly披露其生成填充功能是在库存图像、公开授权作品以及版权已过期的公共领域内容上进行训练的。
  3. 提供来源级信心:在有多个来源贡献的情况下,直观地区分更高信心或更权威的来源。

11. 传达模型信心

AI 生成的输出具有概率性,准确度可能存在差异。显示置信度分数可以传达模型对其输出的确定性。这有助于用户评估可靠性并做出更明智的决策。

如何使用此模式

  1. 评估情境和决策风险:显示模型置信度取决于情境及其对用户决策的影响。在医疗保健、金融或法律咨询等高风险场景中,显示置信度分数至关重要。然而,在AI 生成的艺术作品或故事叙述等低风险场景中,显示置信度可能不会带来太多价值,甚至可能带来不必要的困惑。
  2. 选择合适的可视化:如果设计研究表明展示模型置信度有助于决策,那么下一步就是选择合适的可视化方法。百分比、进度条或一些修饰语(“可能”、“不确定”)都能有效地传达置信度。合适的可视化方法取决于应用程序的用例和用户的熟悉程度。例如,Grammarly会使用“可能”之类的修饰语来描述它与用户共同生成的内容。
  3. 在低信心情况下指导用户行动:提供前进的路径,例如提出澄清问题或提供替代选项。

12. 为记忆和回忆而设计

记忆和回忆是一个重要的概念和设计模式,它使人工智能产品能够存储和重用过去交互中的信息,例如用户偏好、反馈、目标或任务历史,以提高连续性和情境感知。

  • 通过记住过去的选择或偏好来增强个性化
  • 通过避免重复输入请求来减轻用户负担,尤其是在多步骤或长格式任务中
  • 支持复杂任务,如项目规划中的纵向工作流程、通过参考或借鉴过去的进展进行学习历程。

用于访问信息的记忆可能是短暂的会话内的短期)持久的跨会话的长期),并且可能包括对话上下文、行为信号或明确的输入。

如何使用此模式

  1. 定义用户上下文并选择记忆类型。
    根据用例选择记忆类型,例如短暂记忆、持久记忆或两者兼有。购物助理可能实时跟踪交互,无需为未来会话保留数据,而个人助理则需要长期记忆来实现个性化。
  2. 在用户交互中智能地使用记忆
    为 LLM 构建基本提示,以便根据上下文回忆和传达信息(例如,“上次你喜欢更轻松的语气。我应该继续吗?”)
  3. 传达透明度并提供控制功能
    清晰地传达正在保存的内容,并允许用户查看、编辑或删除已存储的记忆。使“删除记忆”操作易于访问。例如,ChatGPT 在其平台上提供了广泛的控制功能,可随时查看、更新或删除记忆

13.提供上下文输入参数

情境输入参数通过简化用户交互来提升用户体验,并更快地实现用户目标。通过利用用户特定数据、用户偏好、过往交互,甚至来自其他具有相似偏好的用户的数据,GenAI 系统可以定制输入和功能,以更好地满足用户意图和决策。

如何使用此模式

  1. 利用先前的交互:根据用户先前输入的内容预填充输入。参考 模式 12,记忆与回忆。
  2. 使用自动完成或智能默认设置:在用户输入时,根据个人和全局使用模式提供智能的实时建议。例如,Perplexity会根据您当前的查询线索,提供智能的后续查询建议。
  3. 推荐交互式 UI 小部件:根据系统预测,提供定制的输入小部件,例如提示框、滑块和复选框,以增强用户输入体验。例如,ElevenLabs允许用户通过显示预设或默认值来微调语音生成设置。

14. 为副驾驶/共同编辑/部分自动化而设计

副驾驶是一种增强模式,AI 充当协作助手,在用户掌控全局的同时,提供情境化和数据驱动的洞察。这种设计模式在战略制定、构思、写作、设计或编码等领域至关重要,因为这些领域的结果具有主观性,用户拥有独特的偏好,或者用户的创意输入至关重要。

副驾驶 加快工作流程,增强创造力并减少认知负荷,但人类仍保留创作权和最终决策权

如何使用此模式

  1. 嵌入内联帮助:AI 建议会根据上下文进行呈现,方便用户轻松接受、拒绝或修改。例如,Notion AI 可以帮助您起草、总结和编辑内容,同时您可以掌控最终版本。
  2. 保存用户意图和创意方向:让用户通过目标、语气或示例等输入来引导 AI,同时保持原创性和创意方向。例如,Jasper AI 允许用户设置品牌语调和语气指南,帮助构建 AI 输出,使其更好地匹配用户意图。

15. 设计自动化的用户控件

构建 UI 级机制,让用户根据用户目标、上下文场景或系统故障状态管理或覆盖自动化。

没有系统能够预测所有用户情境。控制赋予用户自主权,即使人工智能出错,也能保持信任。

如何使用此模式

  1. 采用渐进式展现:从最低限度的自动化功能开始,逐渐允许用户选择更复杂或自主的功能。
    例如,Canva Magic Studio一开始会提供简单的 AI 建议,例如文本或图像生成 ,然后逐步展示高级工具,例如 Magic Write、AI 视频场景和品牌语音定制。
  2. 为用户提供自动化控制功能: 提供诸如 开关、滑块或基于规则的设置等UI 控件,让用户选择何时以及如何控制自动化功能。例如,Gmail 允许用户禁用智能撰写功能。
  3. 自动化错误恢复设计:当 AI 出现故障(误报/漏报)时,向用户提供纠正措施。添加手动覆盖、撤消或升级到人工支持的选项。例如,GitHub Copilot 建议内联代码,但当输出关闭时,开发人员可以轻松拒绝、修改或撤消建议。

16. 设计用户输入错误状态

GenAI 系统通常依赖于对人类输入的解读。当用户提供模糊、不完整或错误的信息时,AI 可能会误解其意图或产生低质量的输出。

输入错误通常反映的是用户期望与系统理解之间的不匹配。妥善处理这些问题对于维护信任和确保顺畅的交互至关重要。

如何使用此模式

  1. 优雅地处理拼写错误:当置信度较高(例如,> 80% )时,使用拼写检查或模糊匹配自动纠正常见的输入错误,并巧妙地进行表面更正(“显示结果......”)。
  2. 提出澄清性问题:当输入过于模糊或有多种解释时,提示用户提供缺失的上下文。在对话设计中,当意图明确但实体不明确时,就会发生此类错误。了解更多关于实体和意图的信息。例如,当 ChatGPT 给出“首都是什么?”这样的低语境提示时,它会提出后续问题,而不是猜测。
  3. 支持快速更正:方便用户编辑或覆盖您的解释。例如,ChatGPT 在已提交的提示旁边显示一个编辑按钮,方便用户修改输入。

17. 人工智能系统错误状态的设计

GenAI 输出本质上是概率性的,容易出现幻觉、偏见和上下文错位等错误。

与传统系统不同,GenAI 的错误状态难以预测。针对这些状态进行设计需要透明度、恢复机制和用户自主性。精心设计的错误状态可以帮助用户了解 AI 系统的边界并重新获得控制权。

混淆矩阵有助于分析人工智能系统错误,并通过显示以下计数来深入了解模型的执行情况
-真阳性(正确识别阳性案例)
-假阳性(错误识别阳性案例)
-真阴性(正确识别阴性案例)
-假阴性(未能识别阴性案例)

人工智能错误和故障状态的场景

  1. 系统故障(错误输出)
    由于数据质量差、存在偏见或模型错觉,会出现假阳性或假阴性。例如,花旗银行金融欺诈系统会显示一条消息:“异常交易。您的卡已被冻结。如果是您本人操作的,请验证您的身份。”
  2. 系统限制错误(无输出)
    由于未经训练的用例或知识缺口,会出现真负例。例如,当 ODQA 系统接收到训练数据集之外的用户输入时,会抛出以下错误:“抱歉,我们没有足够的信息。请尝试其他查询!”
  3. 上下文错误(误解输出)由于解释不清或与用户预期相冲突而导致用户困惑的
    真阳性结果属于上下文错误。例如,当用户从新设备登录时,被锁定。AI 会回复:“您的登录尝试已被标记为可疑活动。”

如何使用此模式

  1. 传达各种场景的人工智能错误:使用诸如
    “这可能不准确”、“这看起来像......”或表面置信度水平之类的短语来帮助校准信任。
  2. 使用模式传达低置信度输出的模型置信度。
  3. 提供错误恢复:如果发生系统故障或上下文错误,请提供清晰的路径来覆盖、重试或升级问题。
    例如,使用“尝试其他查询”、“让我改进一下”或“联系客服”等方式。
  4. 启用用户反馈:轻松报告幻觉或错误输出。了解更多关于模式 19 的信息。设计以捕获用户反馈

18. 设计时要捕捉用户反馈

现实世界的一致性需要直接的用户反馈来改进模型,从而改进产品。当人们与人工智能系统互动时,他们的行为会塑造并影响他们未来收到的输出。从而形成一个持续的反馈循环,系统和用户的行为都会随着时间的推移而不断调整。例如,ChatGPT使用“反应”按钮和“评论”框来收集用户反馈。

如何使用此模式

  1. 考虑隐性反馈:捕捉用户操作,例如跳过、忽略、编辑或互动频率。这些被动信号提供了有价值的行为线索,有助于调整推荐内容或发现用户不感兴趣的行为模式。
  2. 寻求明确的反馈:通过点赞/踩、NPS 评分小部件或用户操作后的快速调查问卷,收集用户的直接反馈。利用这些反馈来改进模型行为和产品契合度。
  3. 告知反馈的用途:让用户了解他们的反馈将如何影响未来的体验。这可以增强信任,并鼓励用户持续做出贡献。

19. 模型评估设计

强大的 GenAI 模型需要在训练期间以及部署后持续进行评估。评估旨在确保模型按预期运行,识别错误和幻觉,并与用户目标保持一致,尤其是在高风险领域。

如何使用此模式

三种关键的评估方法可以改进机器学习系统。

  1. 基于法学硕士 (LLM) 的评估(LLM-as-a-judge)一个独立的语言模型充当自动评判者。它可以对回复进行评分,解释其推理过程,并分配诸如有用/有害或正确/不正确等标签。
    例如,Amazon Bedrock 使用 LLM-as-a-Judge 方法来评估 AI 模型的输出。一个独立的可信 LLM(例如 Claude 3 或 Amazon Titan)会根据有用性、准确性、相关性和安全性自动审核和评分回复。例如,比较两个 AI 生成的针对同一提示的回复,评判模型会选择更优的那个。这种自动化方法可将评估成本降低高达 98%,并加快模型选择速度,而无需依赖缓慢且昂贵的人工审核。
  2. 启用基于代码的评估:对于结构化任务,使用测试套件或已知输出来验证模型性能,特别是对于数据处理、生成或检索。
  3. 捕捉人工评估:集成实时 UI 机制,方便用户将输出标记为有用、有害、不正确或不清楚。更多详情,请参阅模式 19。捕捉用户反馈的设计
  4. LLM 作为评判者和人工评估的混合方法将准确率大幅提高到 99%

20. AI护栏设计

人工智能护栏的设计意味着在GenAI模型中建立实践和原则,以最大限度地减少伤害、错误信息、不良行为和偏见。至关重要的是

  • 保护用户和儿童免受有害语言、虚构事实、偏见或虚假信息的侵害。
  • 建立信任和采用:当用户知道系统避免仇恨言论和错误信息时,他们会感到更安全并愿意经常使用它。
  • 道德合规:欧盟人工智能法案等新规要求人工智能设计必须安全。团队必须符合这些标准,才能保持合法合规并承担社会责任。

如何使用此模式

  1. 分析并引导用户输入:如果提示可能导致不安全或敏感内容,则引导用户进行更安全的交互。例如Miko 机器人遇到脏话时,它会回答“我不允许使用此类语言”。
  2. 过滤输出并审核内容:使用实时审核功能检测并过滤可能有害的 AI 输出,在显示给用户之前屏蔽或重新构建它们。例如显示一条注释:“此回复已根据我们的安全准则进行了修改。”
  3. 使用主动警告:当用户接触敏感或高风险信息时,巧妙地通知他们。例如“这只是信息建议,不能替代医疗指导。”
  4. 创建强大的用户反馈机制:让用户轻松举报不安全、带有偏见或虚假信息的输出,从而通过主动学习循环逐步改进人工智能。例如,Instagram 提供了应用内选项,方便用户举报伤害、偏见或虚假信息。
  5. 交叉验证关键信息:对于高风险领域(例如医疗保健、法律、金融),使用可信数据库备份 AI 生成的输出,以捕捉幻觉。参考模式 10, 提供数据源。

21. 传达数据隐私和控制

这种模式确保 GenAI 应用程序清楚地传达如何收集、存储、处理和保护用户数据。

GenAI 系统通常依赖于敏感数据、情境数据或行为数据。处理不当可能会导致用户不信任、法律风险或意外滥用。清晰地传达隐私保护措施有助于用户感到安全、受到尊重并掌控全局。例如,Slack AI 明确表示,客户数据仍归客户所有并控制,不会用于训练 Slack 或任何第三方 AI 模型。

如何使用此模式

  1. 显示透明度:当 GenAI 功能访问用户数据时,显示访问内容和原因的解释。
  2. 设计选择加入和选择退出流程:允许用户轻松切换数据共享偏好设置。
  3. 启用数据审查和删除:允许用户查看、下载或删除他们的数据历史记录,从而让他们能够持续控制。

兰亭妙微(www.lanlanwork.com )是一家专注而深入的界面设计公司,为期望卓越的国内外企业提供卓越的大数据可视化界面设计B端界面设计桌面端界面设计APP界面设计图标定制用户体验设计交互设计UI咨询高端网站设计平面设计,以及相关的软件开发服务,咨询电话:01063334945。我们建立了一个微信群,每天分享国内外优秀的设计,有兴趣请加入一起学习成长,咨询及进群请加蓝小助微信ben_lanlan。

日历

链接

个人资料

蓝蓝设计的小编 http://www.lanlanwork.com

存档