让产品团队共享设计语言,以构建可用、智能和安全的Gen AI体验
生成式人工智能(GenAI)“基于意图生成结果”,为人机交互提供了新的范式。GenAI的输出是概率性的,在制定GenAI设计原则和设计模式时,充分理解其变异性、记忆、错误、幻觉,以及恶意使用问题是非常必要的——正如IBM所指出那样。
此外,任何AI产品都是分层的,LLM只是其中之一,记忆、编排、工具扩展、UX和agent工作流才是真正的魔力所在!
本文是作者对GenAI设计模式演变史的回顾和总结。这些设计模式为产品经理、数据科学家和交互设计师提供了通用语言,可以弥合用户需求、技术能力和产品开发流程之间的差距,帮助产品团队更好打造以人为本的、值得信赖且安全的产品。
21个GenAI UX模式一览:
1、GenAI vs 非GenAI
2、用户需求转换为数据需求
3、增强 vs 自动化
4、定义自定化水平
5、渐进AI采用策略
6、利用心智模式
7、传达产品限制
8、展示思考链(CoT)
9、多个输出结果
10、提供数据来源
11、传达模型信心
12、为记忆和回溯而设计
13、提供上下文输入参数
14、coPilot、共同编辑或部分自动化
15、让自动化能被用户控制
16、用户输入错误状态的设计
17、AI系统错误状态设计
18、捕捉用户反馈设计
19、模型评估设计
20、AI安全护栏设计
21、数据隐私和控制的传达
1. GenAI vs 非GenAI
评估 GenAI 是否改善用户体验或增加了复杂性。通常,基于启发式 (IF/Else) 的AI解决方案更易于构建和维护。
GenAI 有益的场景
- 开放式、富有创意且能增强用户体验的任务,例如:写作提示、笔记总结、回复起草。
- 创建或转换复杂的输出(例如,图像、视频、代码),例如:将设计草图转换为网站代码。
- 结构化的交互体验无法有效捕捉用户意图时。
应避免使用 GenAI 的场景
- 结果必须精确、可审计或很确定,例如:制作税务表格或法律合同。
- 用户获得清晰一致的信心,例如:开源软件文档。
如何使用此模式
- 确定客户旅程中的摩擦
- 点评估技术可行性:确定AI是否能够解决摩擦点。评估规模、数据集可用性、错误风险评估和经济投资回报率。
- 验证用户期望:
(1)评估AI系统解决方案是否干扰用户预期——通过增强人类的努力,或完全替代人力操作(参见模式3)。
(2)评估AI系统解决方案是否干扰用户预期(参考模式 6)。
2. 用户需求转化为数据需求
本模式可确保GenAI的起点是用户意图、其数据模型能达成用户意图。
GenAI系统的优劣取决于其训练数据。但实际使用中,用户并不是以技术性结构化的方式表述需求,而是在表达其使用AI产品的目标、挫折和行为。如果团队无法将用户需求转化为结构化的、模型可用的输入,那么系统或产品就可能给出错误结果、从而导致用户流失。
如何使用此模式
- 由 PM、产品设计师和数据科学家组成跨职能团队,就值得借鉴的用户问题进行协作、对齐。
- 使用三角研究法定义用户需求:定性研究(市场报告、调查或问卷)+ 定量研究(用户访谈、观察性研究)+ 涌现数据研究(产品评论、社交聆听等),并使用JTBD框架、同理性地图等方法将用户情绪和观点可视化,使用价值主张画布将用户收益和痛点与产品功能相对照。
- 定义数据需求,选择合适的数据模型进行差距分析并迭代优化数据模型。理解了“为什么“,就能知道模型“需要什么”——AI模型需要具备哪些特征、标签和样例、上下文学习行为等等,都可通过结构化的协作去寻找答案。
3. 增强 vs 自动化
GenAI 应用开发的关键决策是,做AI增强还是完全自动化。此模式可使技术与用户意图、控制偏好保持一致。
自动化:最适合用户倾向于委派的任务,尤其是繁琐、耗时和不安全的场景。例如,Intercom FinAI 自动将冗长的电子邮件线索汇总为内部笔记,从而节省重复性、低价值任务的时间。
AI增强:可提升效率、创造力和控制力,从而增强用户想要持续参与的任务。例如Abelton 的Magenta Studio提供了创造性控制,方便用户操控和创作新音乐。
如何使用此模式
- 为选择最佳方法,请综合使用同理性地图和(或)价值主张画布等研究工具来评估用户需求和期望。
- 测试并验证该方法是增强用户体验还是削弱用户体验。
4. 定义自动化水平
在AI系统中,自动化水平指的是AI系统掌握了多少的控制权。这种战略性的用户体验模式下,需要根据用户的痛点、情境和对产品的期望来决定其自动化水平。
自动化水平
- 无自动化(AI 辅助,用户自主决定)AI系统为用户提供帮助和建议,但所有决定都是由用户自行作出。例如
- Grammarly 会突出显示语法问题,但需要用户自行决定是接受建议还是拒绝更正。部分自动化/副驾驶/共同编辑(AI 在用户监督下行动)
- AI 发起操作或生成内容,但需要用户审核或作出干预。例如,GitHub Copilot会提供代码建议,开发人员可以选择接受、修改或忽略该建议。完全自动化(AI 独立行动)
- AI 系统无需用户干预即可执行任务——通常基于预定义的规则、工具或触发器。GenAI 系统完全自动化通常被称为代理系统 (Agentic systems)。例如,Ema可以自主规划和执行多步骤任务——研究竞争对手、生成报告并通过电子邮件发送该报告,每一步执行中都无需用户提示或干预。
如何使用此模式
- 评估用户需要自动化的痛点和相关风险:当相关风险较低且发生故障不会造成严重后果时,自动化任务最为有效。
- 低风险任务(例如发送自动提醒、促销邮件、过滤垃圾邮件或处理常规客户咨询)自动化,可以最大减少负面影响、节省时间和资源。
- 高风险任务(例如进行医疗诊断、发送关键业务邮件或执行金融交易)需仔细监督,因为一旦发生错误就会带来重大损失。评估和设计特定的自动化级别:根据用户期望和目标,评估用户痛点类型——不能自动化、部分自动化或完全自动化。定义用户将如何控制自动化(参考模式 15)。
5. GenAI 的渐进采用
用户在首次接触基于新技术的产品时,常常想要知道这个产品能做什么不能做什么,是如何工作的、应该如何与其交互。
本模式提供了多维策略,以帮助用户更好使用AI产品或功能、减少错误,确保产品与用户准备情况相匹配、能为用户提供明智且以人为本的用户体验。
如何使用此模式
这种模式是其他模式的集大成者。
- 开始时强调传递价值:避免过度探讨技术细节,重点突出AI如何创造新价值。简化用户引导体验:先让用户体验到系统的价值,在用户设置数据共享偏好之前就提供基础的AI功能使用权限。鼓励用户稍后注册以解锁高级AI功能或获取更详细细节。例如
- Adobe FireFly循序渐进地将用户从基础功能引导到高级 AI 功能。定义自动化水平(参考模式 4)并逐步增强自主性或复杂性。
- 通过错误设计来提供可解释性、增强信任(参考模式 16 和 17)。传达数据隐私和控制(参考模式 21),清晰告知用户系统将如何收集、存储、处理和保护用户数据。
6. 利用心智模型
心智模型帮助用户预测网页、应用程序或其他类型的产品的系统运行机制,并影响其与系统界面的交互方式。当产品与用户现有心智模型相符时,用户会感觉直观且易于上手。当两者发生冲突时,可能会导致用户沮丧、困惑甚至放弃。(关于心智模式,可参阅:https://www.nngroup.com/articles/mental-models/)
例如:
- Github Copilot 基于开发人员已有的代码补全的心智模型构建,简化了向AI驱动的代码建议模式的过渡难度。
- Adobe Photoshop 在用户已熟知的矩形控件扩展图像方法基础上,继承了AIGC的智能填充功能。
如何使用此模式
通过提问来构建基于已有心智模型的AI系统
- 用户旅程是什么,他们想要做什么?
- 哪些心智模型可能已经存在?
- AI产品是否破坏了任何直观的因果模式?
- 是否打破了已有的心智模型?如果是,请清晰解释其如何被打破,原因为何。良好引导、微文案和视觉提示有助于弥合差距。
7. 传达产品限制
本模式要求清楚传达出AI系统能做什么不能做什么,展示大模型的知识边界、能力和局限性。
这有助于建立用户信任,设定恰当的期望、防止误用,并在模型出现故障或异常行为时减少挫败感。
如何使用此模式
- 明确说明模型局限性:提示信息过时或缺乏实时数据支持的上下文线索。例如,当提问超出其知识范围时,Claude会说明其知识范围限制。
- 当模型无法提供合适的输出时,提供回退或升级选项。例如,在被问及与购物无关的问题时, Amazon Rufus会回复:“无法访问事实信息,我只能协助解决与购物相关的问题和请求。”
- 在产品营销、新人培训、工具提示或回复的免责声明中,给出明示限制。
8. 显示思考链(CoT)
AI系统中,思考链提示技术(CoT) 通过像人那样地结构化、循序渐进的思考过程,来增强模型解决复杂问题的能力。
COT显示是通过展示“AI是如何得出结论”这个过程来提高透明度的一种体验模式,它可以增强用户信任、增强可解释性并为用户提供反馈空间——尤其是在高风险或高模糊性的场景下。
例1,Perplexity显示处理步骤来提高透明度,帮助用户理解生成答案背后的详细思考过程。
例2,Khanmigo(译者注:这是一款AI教育辅导产品)通过模仿人类的推理和学习方式,指导学生一步一步地解决问题。
如何使用此模式
- 显示“研究中”和“推理中”等状态,传达处理进度、减少用户的不确定感,让用户感知的等待时间更短。
- 渐进式披露:一开始展示浓缩的概要信息,并允许用户在需要时查看详细信息。
- 展示 AI 工具透明度:清晰显示生成建议时所使用到的外部工具和数据源。
- 展示信心和不确定性:表明AI信心水平,相应强调不确定性。
9. 多个输出结果
GenAI 凭借其概率特性,能够对同一输入生成多个不同的响应。本模式通过依次呈现多个结果来体现这种可变性。多样化的选项有助于用户创造性地探索、比较、改进或作出更符合其意图的决策。例如, Google Gemini就提供了多个选项,来帮助用户探索、改进并作出更明智的决策。
如何使用此模式
- 解释目的:帮助用户理解多个输出结果之间的差异是故意为之、以供其选择。
- 开启编辑功能:让用户无缝地对输出结果进行评分、选择、重新混合或编辑以塑造结果,或给予反馈。例如, Midjourney 可以帮助用户调整提示词,可以指导用户使用重新混合功能修改和编辑生成的结果。(参考阅读:https://docs.midjourney.com/hc/en-us/articles/32799074515213-Remix)
10.提供数据源
在 GenAI 应用程序中清晰地阐明数据源对于透明度、可信度和用户信任至关重要。清晰地表明 AI 的知识来源有助于用户评估响应的可靠性并避免错误信息。
这在医疗保健、金融或法律指导等高风险事实领域尤其重要,因为决策必须要基于经过验证的数据。
如何使用此模式
- 内联引用可靠来源:将来源显示为脚注、工具提示或可收展的链接样式。例如,NoteBookLM会在答案中添加引用,并将其链接到用户所上传文档的引用位置。
- 清晰披露训练数据范围:对于生成工具(文本、图像、代码),请简要解释模型训练时使用了哪些数据、未包含哪些数据。例如,Adobe Firefly披露其生成填充功能是在库存图像、公开授权作品以及版权已过期的公共领域内容上进行训练的。
- 展示引用来源的信心水平:在有多个来源贡献的情况下,直观地区分出哪些是信心更大或更权威的来源。
11. 传达模型信心
AI 生成的结果具有概率性,不同结果的准确性可能存在差异。显示信心水平分数能传递出模型对其输出结果的确定性高低,从而有助于用户对结果的可靠性进行评估、作出更明智的决策。
如何使用此模式
- 评估情境和决策风险:如何显示模型信心水平取决于情境及其对用户决策的影响。在医疗保健、金融或法律咨询等高风险场景中,显示信心水平分数至关重要;而在艺术作品或故事叙述等低风险场景中,显示信心水平分数可能不会带来太多价值、甚至反而还会带来不必要的困惑。
- 合适的可视化方式选择:如果设计研究表明展示模型信心水平对决策有益,那么接下来就应该是选择合适的可视化方式——百分比、进度条或“可能”、“不确定”等修饰词都可以有效传递。但何为合适的可视化方式,还需要结合应用程序的用例和用户熟悉程度进行评估。例如,Grammarly会使用“可能”等修饰语来描述它与用户共同生成的内容。
- 低信心水平时指导用户行动:通过提供澄清问题或提供替代选项等方式,为用户指引下一步行动选择。
12. 为记忆和回溯而设计
记忆和回溯是帮助AI产品存储和重复使用历史交互信息的重要概念和设计模式,例如用户偏好、反馈、目标和任务历史等信息可提高系统的连续性和情境感知能力。
- 记录过往的选择和偏好,增强个性化
- 避免重复输入以减轻用户负担——尤其是多步骤或复杂长任务时
- 支持复杂任务,比如在项目规划或学习旅程等纵向工作流中,合理参考或基于已有进度执行后续操作。
记忆访问的信息可能是短暂的(仅限单次对话可用)或持久的(在多个对话记录中可用),并且可能还会包括对话上下文、行为信号或明确的输入信息。
如何使用此模式
- 定义用户上下文并选择记忆类型。
- 根据用例选择记忆类型(如:短暂记忆、持久记忆或两者兼有)。购物助理可能会实时跟踪而无需为后续会话保留数据,而个人助理则需要长期记忆来实现个性化。在用户交互中智能地使用记忆
- 为 LLM 构建基础提示,以便根据上下文回忆和传达信息(例如,“上次你喜欢更轻松的语气。我应该继续使用这种语气吗?”)。传达透明度并提供控制功能
- 清晰地传达正在保存的内容,并允许用户查看、编辑或删除已存储的记忆。使“删除记忆”操作易于访问。例如,ChatGPT 在其平台上提供了广泛的控制功能,用户可随时查看、更新或删除记忆。
添加图片注释,不超过 140 字(可选)
13.提供上下文输入参数
情境化的输入参数可以简化用户交互、提升用户体验,帮助用户更快地实现目标。GenAI 可以利用用户特定的数据、偏好数据、交互历史甚至其他相似用户的数据,提供定制的输入方式或功能来更好地满足用户意图和决策需要。
如何使用此模式
- 利用历史交互信息:根据用户之前的输入内容预填充输入(参考模式12 )。自动完成或智能缺省值:用户输入时,系统根据个人或全局使用的模式提供智能的实时建议。
- 例如,Perplexity会根据你的当前查询线索智能提供后续查询建议。交互式推荐UI 小组件:根据系统预测定制化地提供toast、滑块或复选框等输入组件,以增强用户输入体验。例如,ElevenLabs显示预设或默认值等方式帮助用户快速微调语音生成设置。
添加图片注释,不超过 140 字(可选)
14. coPilot、共同编辑或部分自动化
coPilot是指AI充当协助副手、在用户掌握全局的同时提供情境化和数据驱动的洞察参考的增强模式。本模式在战略制定、创意、写作、设计或编码等领域至关重要,因为这些领域的结果具有主观性,用户有着独特的偏好,或者用户的创意输入至关重要。
coPilot加速了工作流程、提高创造力并能减少认知负荷,但人类保留了著作权和最终决策权。
如何使用此模式
- 嵌入的内联帮助:AI 会根据上下文呈现建议,用户可以轻松地选择接受、拒绝或修改。例如,Notion AI 可以帮助您起草、总结和编辑内容,而你掌控了最终版本。保存用户意图和创意方向:用户可以通过输入目标、语气或示例等来引导 AI,同时还能控制其著作权和创意方向。例如,Jasper AI 允许用户设置品牌声音和语气指南,使AI构建的输出更好匹配用户的意图。
添加图片注释,不超过 140 字(可选)
15. 让自动化能被用户控制
设计UI级机制,让用户可以根据用户目标、上下文场景或系统故障状态来控制产品的自动化。
没有系统能预测所有的用户情境,因此要赋予用户自主的控制权、确保人工智能出错时也能继续获得信任。
如何使用此模式
- 渐进式展现:从最低限度的自动化功能开始,逐渐允许用户选择更复杂或更自主的功能。
- 例如,Canva Magic Studio一开始只会提供类似文本或图像生成的简单的AI 建议,然后再逐步展示 Magic Write、AI 视频、品牌语音定制等高级工具。为用户提供控制功能: 提供开关、滑块或规则设置等UI控件,让用户能够控制自动化的作用时机和方式。例如,Gmail 允许用户禁用智能撰写功能。(参考阅读:https://zapier.com/blog/turn-off-smart-compose/)设计自动化错误恢复机制:当AI出现故障(误报/漏报)时,向用户提供手动覆盖、撤销或升级人工支持等纠正措施。例如,GitHub Copilot 提供内联代码建议,但若建议不恰当时,开发人员可以轻松拒绝、修改或撤销其建议。
添加图片注释,不超过 140 字(可选)
16. 用户输入的错误状态设计
GenAI 系统的回复通常要依赖其对人类输入的解读。当用户输入的信息模糊、不完整或有信息错误时,AI 可能会误解其意图或产生低质量的输出。
输入错误通常反映的是用户期望与系统理解之间的不匹配。妥善处理这些输入错误,对维护信任、确保交互顺畅至关重要。
如何使用此模式
- 优雅地处理拼写错误:当置信度较高(例如,> 80% )时,使用拼写检查或模糊匹配方式自动纠正常见的输入错误,并巧妙地进行展示更正信息(“显示结果……”)。提出澄清性问题:当输入过于模糊或有多种解释时,请求用户提供缺失的上下文信息——对话设计中,在意图明确但实体不明确时就会发生此类错误,需要用户提供更多的实体和意图信息。例如,在 ChatGPT中输入“首都是什么?”这样的低语境提示词时,它会提出澄清问题而不是直接猜测。支持快速更正:让用户能够轻松地编辑或重写你的解释。例如,ChatGPT 在已提交的提示词旁边显示了“编辑”按钮,方便用户修改。
添加图片注释,不超过 140 字(可选)
17. 人工智能系统错误状态设计
GenAI的 输出本质上是概率性的,容易出现幻觉、偏见和上下文错位等错误。
与传统系统不同,GenAI 的错误状态难以预测。针对这些状态的设计需要维持透明度、恢复机制和用户自主性。精心设计的错误状态可以帮助用户了解 AI 系统的边界并重新获得控制权。
绘制混淆矩阵有助于分析人工智能系统的错误,可以通过显示各类错误的数量来了解模型表现
–真阳性(正确识别阳性案例)
–假阳性(错误识别阳性案例)
–真阴性(正确识别阴性案例)
–假阴性(错误识别阴性案例)
人工智能错误和故障状态的场景分类
- 系统失败(有错误的输出)
- 假阳性或假阴性通常是数据质量差、偏见或模型幻觉等原因导致的。例如,花旗银行金融防欺诈系统会弹出消息:“异常交易。您的卡已被冻结。如果是您本人操作的,请验证身份。”系统限制错误(无输出)
- 真阴性是由于未经训练的用例或知识缺口引起的。例如, ODQA 系统在接收到训练数据集之外的用户输入时,会抛出以下错误:“抱歉,我们没有足够的信息。请尝试其他查询!”上下文错误(输出有偏差)
- 真阳性是由于解释不清或与用户意图产生误解而带来的错误。例如,用户从新设备登录时会被锁定时,AI的回复是“您的登录尝试已被标记为可疑活动。”
如何使用此模式
- 传达各种场景的人工智能错误:使用诸如“这可能不准确”“这看起来像……”或表明置信度水平之类的短语来帮助校准信任。对低智信度低输出,使用低信息水平的设计模式。提供错误恢复:当系统出现故障或上下文错误时,为用户提供问题解决、重试或升级的清晰路径,比如“尝试其他查询”“帮我改进一下”或“联系客服”等。开启用户反馈:要让反馈幻觉或输出错误(参阅模式19 )。
添加图片注释,不超过 140 字(可选)
18. 用户反馈收集设计
我们需要通过直接收集用户反馈来提高产品与真实世界的一致性,从而提高模型和产品的表现。人们在与AI互动时的行为会塑造并影响后续能获得的产品响应,这就形成了一个持续的反馈循环、系统和用户行为都会随着时间推移而不断调整。例如,ChatGPT就使用“反馈”按钮和“评论框”来收集用户的反馈。
如何使用此模式
- 隐性反馈:收集用户的跳过、忽略、编辑或互动频次等行为数据——这些被动的信息是有价值的行为线索,有助于调整推荐内容或发现用户不感兴趣的行为模式。寻求明确的反馈:通过点赞/踩、NPS 评分小部件或用户操作后的快速调查问卷等方式来收集用户的直接反馈,然后通过这些反馈来改进模型行为和产品契合度。告知反馈用途:让用户了解自己的反馈将如何影响未来的体验。这可以增强用户信任、鼓励其持续做出贡献。
添加图片注释,不超过 140 字(可选)
19. 模型评估设计
健壮的 GenAI 模型需要在训练期间及部署后被持续评估。评估的目的是确保模型按预期运行,识别错误和幻觉,保持与用户的目标一致(尤其是高风险领域)。
如何使用此模式
有三种关键的评估方法可以改进机器学习系统。
- 利用LLM模型的评估(LLM-as-a-judge),让一个独立的语言模型来扮演自动化的评估者,对回复进行评分、解释推理过程,并给打上有用/有害或正确/不正确等标签。
- 例如,Amazon Bedrock 使用本方法来评估 AI 模型的输出。Claude 3 或 Amazon Titan等独立可信的 LLM模型会根据有用性、准确性、相关性和安全性等维度对回复进行自动审核和评分。例如,比较两个AI针对同样提示词的回复进行评判,选出更优的那个——这种自动化方法可将评估成本降低98%、加快模型选择速度,而无需依赖缓慢且昂贵的人工审核。(参考阅读:https://aws.amazon.com/blogs/machine-learning/llm-as-a-judge-on-amazon-bedrock-model-evaluation/)基于代码的评估:对于结构化的任务,可以使用测试套件或已有输出来验证——特别是数据处理、生成或检索任务。捕捉人工评估:集成实时的 UI 机制,让用户能很方便地将结果标记为有用/有害、不正确或不清晰等。更多详情方便用户将输出标记为有用、有害、不正确或不清楚。(更多信息请可参阅模式18)。组合使用LLM 模型评估和人工评估方法,可将模型评估的准确率大幅提高到99%。(参考阅读:https://sanand0.github.io/llmevals/double-checking/)
添加图片注释,不超过 140 字(可选)
20. AI安全护栏设计
AI护设计,是指在GenAI模型中建立最大程度减少伤害、错误信息、不良行为和偏见的相关实践和原则。至关重要的是:
- 保护用户和儿童免受有害语言、虚构事实、偏见或虚假信息的伤害。构建信任和采用:当知道系统能避免仇恨言论和错误言论时,她避免仇恨言论和错误信息时,用户会感到安全并愿意经常使用它。道德合规:欧盟人工智能法案等新规要求人工智能设计必须安全。团队必须遵守这些标准,才能保持合法合规并承担社会责任。
如何使用此模式
- 分析并引导用户输入:如果提示词可能导致不安全或敏感的内容,则引导用户作更安全的交互。例如,当Miko 机器人遇到脏话时,它会回答“我不被允许使用此类语言”。过滤输出并审核内容:使用实时审核功能检测并过滤可能有害的 AI 输出,在显示给用户之前屏蔽或重新生成。例如,显示注释:“此回复已根据我们的安全准则进行了修改。”主动警告:当用户接触敏感或高风险信息时,巧妙地通知他们。例如,“这只是信息参考,不能替代医疗指导。”创建强大的用户反馈机制:让用户能轻松举报不安全、带有偏见或虚假信息的输出,通过主动学习循环来逐步改进人工智能。例如,Instagram 提供了应用内选项,以方便用户举报有害、偏见或虚假的信息。交叉验证关键信息:对于医疗保健、法律、金融等高风险领域使用可信数据库检复核AI 生成的内容,并捕捉幻觉(参考模式 10)。
添加图片注释,不超过 140 字(可选)
21. 传达数据隐私和控制
本模式确保 GenAI 应用程序清楚地传达了如何收集、存储、处理和保护用户数据。
GenAI 系统通常依赖于敏感数据、情境数据或行为数据,处理不当可能会导致用户不信任、带来法律风险或意外滥用等问题。清晰地传达隐私保护措施有助于给用户带来安全感、受遵重感和对全局的掌控感。例如,Slack AI 明确表示,客户数据仍归客户所有并控制,而不会用于训练 Slack 或任何第三方 AI 模型。(参考阅读:https://slack.com/intl/en-in/blog/news/how-slack-protects-your-data-when-using-machine-learning-and-ai)
如何使用此模式
- 显示透明度: GenAI 功能在访问用户数据时,显示访问的内容并解释原因。提供选择加入和退出的流程:允许用户轻松切换数据共享偏好设置。启用数据审查和删除:允许用户查看、下载或删除数据历史记录,以保持他们的持续控制。
结论
这些 GenAI UX 模式是个新的起点,是历时数月的研究成果。这些成果直接或间接地借鉴了来自领先科技公司、Medium 或 Linkedin社区中的杰出的AI设计师、研究人员和技术人员的洞见。作者已尽力引用并感谢所有贡献者。
这些模式也将随着我们不断地学习、对如何构建值得信赖的以人为本的AI产品而持续发展和演变。如果你也是这个领域的设计师、研究人员或建设者,欢迎借鉴、挑战或组合使用,欢迎贡献自己的模式。