本指南非常适合:
没有经验?没问题。
您所需要的只是好奇心、学习兴趣和额外的奉献精神。
UI/UX 设计正在蓬勃发展,数据也印证了这一点。美国劳工统计局预测,从 2021 年到 2031 年,数字设计专业的需求将增长 15%,领先于其他行业。
从 IT 公司到医疗保健初创企业,每个行业都需要设计师设计清晰且具有视觉吸引力的产品。
无论您想成为 UI 设计师、UX 研究员还是产品设计师,您跨工作和跨领域合作的机会都是无与伦比的。
另外,远程工作怎么样?这是此字段的默认设置。
您可以通过字体和调色板发挥您的创造力,解决用户流程方面的挑战,并精通原型设计等技术技能。
结果如何?一份有趣又令人满意的工作。根据 Glassdoor 的数据,UX 设计师的全球平均薪资在 8 万至 12 万美元之间,顶级职位的薪资甚至更高。
智能布局生成器等人工智能解决方案旨在提高生产力,而不是取代人类的技能。
UI/UX 设计除了赚钱之外,还旨在让人们的生活更轻松。
想象一下您上次在线购买披萨或预订机票的情况。
良好的用户体验让这些任务变得毫不费力,而糟糕的用户体验会让你对着屏幕尖叫。
作为一名设计师,你将通过构建既简洁又鼓舞人心的数字体验来应对现实世界的问题。这种影响力会让你欣喜地说:“这是我设计的。”
第一个月的主要任务是奠定坚实的基础。
首先,区分 UI(视觉界面,例如按钮、颜色和布局)和 UX(整体体验,例如易用性和满意度)。
我花了数周时间平滑按钮的渐变,却发现用户根本找不到它,这真是太惨了。
专业提示:不妨从日常事物入手,比如你的咖啡机、银行应用程序或自动售货机。“为什么要这样设计?”“还有什么更好的选择?”这种态度可以提升设计师的创造力。
现在是时候动手实践了。第二个月的重点是学习工具并将其应用于实际场景。
设计软件一开始可能看起来很吓人,但是一旦你掌握了它的感觉,它就像骑自行车一样简单(而且膝盖不会擦伤)。
资源:
我的第一次重新设计是为一个复杂的电商网站做的。我花了几个小时修改按钮的颜色,结果发现结账流程简直像个迷宫。那时我才意识到,吸引人的设计固然好,但真正能让你被雇佣的,是解决用户问题。
你已经进入最后冲刺阶段了!第三个月,你将用实际项目证明你的技能,并打造一个让你眼前一亮的作品集,让你“快来雇佣我!”
正是在这里,我从“我认为我能做到”转变为“我是一名 UI/UX 设计师”。
与他人合作:
投资组合开发:
资源:
使用 AI 驱动的 Figma 插件(例如智能布局工具和调色板生成器)提升您的工作效率。就像拥有一个永不休眠的设计助手。
我建议您开始在工作流程中使用 AI,这样您的工作速度就可以比其他设计师快 10 倍!
养成日常观察的习惯。分析实体和数字事物,例如健身追踪器、新闻应用和餐厅菜单。
可用性怎么样?为什么是这个颜色?如何改进?
这可以帮助您像设计师一样思考,并且您很快就会发现用户体验(和解决方案)的问题随处可见。
雇主希望设计师能够加快结账流程或提高客户参与度,而不仅仅是让事情变得有趣。
成为一名 UI/UX 设计师只需要策略和奉献精神,而不是设计学位或多年的经验。
在三个月内,您可以通过了解基础知识、创建真实世界的项目并自信地展示您的工作,从初学者进步到可以投入工作的水平。
现在迈出第一步:选择一个应用程序,重新设计一个屏幕,并与好友分享,并且不要忘记在社交媒体上分享它以获得反馈。
设计行业正在寻找您独特的见解。
感觉受到启发了吗?关注我的 Instagram (@rehan.designs),获取每日见解、作品集点评以及我的设计幕后花絮。
兰亭妙微(www.lanlanwork.com )是一家专注而深入的界面设计公司,为期望卓越的国内外企业提供卓越的大数据可视化界面设计、B端界面设计、桌面端界面设计、APP界面设计、图标定制、用户体验设计、交互设计、UI咨询、高端网站设计、平面设计,以及相关的软件开发服务,咨询电话:01063334945。我们建立了一个微信群,每天分享国内外优秀的设计,有兴趣请加入一起学习成长,咨询及进群请加蓝小助微信ben_lanlan。
想法简述
随着人工智能 (AI) 越来越深入地融入产品,设计师必须了解这些系统真正能做什么。本文介绍了一个围绕感知、推理、记忆和代理四大核心能力构建的实用框架,旨在帮助用户体验 (UX) 专业人士设计更智能、更值得信赖的 AI 体验。本书包含真实案例和实用技巧,对于任何致力于塑造 AI 界面未来的人士来说,都是必读之作。
许多人认为,人工智能代理已经存在,只是分布不均。然而,目前很少有案例能够展现与这种近未来人工智能的良好交互体验。幸运的是,在最近的 AWS Re: Invent 大会上,我偶然发现了一个与人工智能代理交互的用户体验的绝佳示例,我迫不及待地想在本文中与大家分享这一愿景。但首先,人工智能代理究竟是什么?
想象一下一个蚁群。在一个典型的蚁群中,有不同专长的蚂蚁:工蚁、兵蚁、雄蚁、蚁后等等。蚁群中的每只蚂蚁都有不同的工作——它们独立运作,但又像一个紧密结合的整体。你可以“雇佣”一只蚂蚁(代理)为你做一些简单的半自主工作,这本身就很酷。然而,试想一下,你可以雇佣整个蚁丘去做一些更复杂或更有趣的事情:找出你的系统出了什么问题,预订你的行程,或者……做几乎所有人类在电脑前能做的事情。每只蚂蚁本身并不非常聪明——它们高度专业化,专注于完成特定的工作。然而,不同专长的蚂蚁组合在一起,呈现出一种我们将其与高级动物联系起来的“集体智慧”。我们在博客中一直使用的“人工智能”(AI)与人工智能代理之间最显著的区别在于自主性。您不需要向 AI 代理提供精确的指令或等待同步输出 - 与一组 AI 代理的整个交互更加流畅和灵活,就像蚁丘解决问题一样。
代理型人工智能 (Agentic AI) 的工作方式多种多样——这是一个内容丰富的主题,值得专门写一本书来探讨(或许一两年后)。在本文中,我们将以系统故障排除为例,阐述一个涉及主管代理(也称为“推理代理”)和多个工作代理的复杂流程。该流程始于人类操作员收到问题警报。他们启动调查,然后由主管代理领导的半自主 AI 代理团队帮助他们找到根本原因,并提出解决问题的建议。让我们用步骤图来分解与 AI 代理交互的过程:
上图所示的多阶段代理工作流程包含以下步骤:
如同与典型的人类组织签订合同一样,主管AI代理拥有一支由专业AI代理组成的团队。主管可以将消息路由到其监管下的任何AI工作代理,这些代理将执行任务并反馈给主管。主管可以选择将任务分配给特定代理,并在稍后获得更多信息时发送附加指令。最后,任务完成后,输出将反馈给用户。然后,人类操作员可以选择向主管AI代理提供反馈或附加任务,在这种情况下,整个流程将重新开始。
人类无需担心任何内部事务——所有事务都由“主管”以半自主的方式处理。人类所做的只是提出一个通用请求,然后审查并响应这个代理“组织”的输出。如果你能做到这一点,这正是你与蚁群沟通的方式:你将工作分配给蚁后,让她管理所有工蚁、兵蚁、雄蚁等等。与蚁群类似,单个专业代理不需要特别聪明,也不需要直接与人类操作员沟通——它们只需要能够半自主地解决它们被设计执行的专业任务,并将精确的输出反馈给“主管”代理,仅此而已。“主管”代理的工作就是完成所有的推理和沟通。这种人工智能模型更高效、更经济,并且在许多任务中都非常实用。让我们来看看交互流程,以便更好地感受这种体验在现实世界中的感受。
为简单起见,我们将遵循本文前面的工作流程图,流程中的每个步骤都与图中的步骤相对应。此示例来自AWS Re: Invent 2024 — 不要停滞不前:互联遥测如何助您前进 (COP322),由 YouTube 上的 AWS Events 主持,从 53 分钟开始。
该流程始于用户发现名为“bot-service”的服务(屏幕截图左上角)故障急剧增加,并启动新的调查。然后,用户将所有相关信息以及一些额外的指令传递给主管代理。
现在,在步骤 2 中,主管代理接收请求并生成一组工作 AI 代理,这些代理将半自主地查看系统的不同部分。该过程是异步的,这意味着右侧的建议初始状态为空:调查启动后不会立即显示结果。
现在,工作代理返回了一些“建议的观察结果”,这些结果由主管处理并添加到屏幕右侧的建议中。请注意,屏幕右侧现在更宽了,以便于阅读代理建议。在下面的屏幕中,不同的代理提出了两个截然不同的观察结果,第一个代理专门负责服务指标,第二个代理专门负责跟踪。
这些“建议的观察结果”构成了调查中的“证据”,旨在找出问题的根本原因。为了找出根本原因,此流程中的人类操作员会提供帮助:他们会向主管代理反馈哪些观察结果最相关。因此,主管代理和人类操作员并肩协作,找出问题的根本原因。
人工操作员会点击“接受”按钮,确认他们认为相关的观察结果,这些结果会被添加到屏幕左侧的调查“案例档案”中。现在,人工操作员已经添加了反馈,表明他们认为这些信息是相关的,代理流程将启动调查的下一阶段。主管代理收到用户反馈后,将不再发送“更多相同的信息”,而是会进行更深入的挖掘,甚至可能调查系统的其他方面,以寻找根本原因。请注意,下图中右侧出现的新建议属于另一种类型——它们现在正在查看日志以寻找根本原因。
最后,主管代理掌握了足够的信息,开始尝试找出问题的根本原因。因此,它从证据收集转向推理根本原因。在步骤3和4中,主管代理提供了“建议性观察”。现在,在步骤5中,它准备好进行重大揭秘(也可以称之为“结局场景”),因此,就像文学侦探一样,主管代理提出了它的“假设建议”。(这让人想起游戏“线索”,玩家轮流提出“建议”,然后,当他们准备好发起攻击时,他们就会提出“指控”。主管代理在这里也做了同样的事情!)
建议的假设是正确的,当用户点击“接受”时,主管代理会提供后续步骤来解决问题,并防止将来再次出现类似问题。代理似乎在对人类指手画脚,建议他们“实施适当的变更管理程序”——这是任何良好系统卫生的基础!
代理流如此引人注目,并成为当今众多人工智能开发工作的焦点,原因有很多。代理引人注目、经济实惠,并且能够实现更加自然灵活的人机界面。代理能够填补人类与机器之间沟通的空白,真正实现人机思维的融合,形成超越人类的“增强智能”,其价值远超其各部分之和。然而,要从与代理的交互中获得最大价值,也需要我们彻底改变对人工智能的理解方式,以及设计支持代理交互的用户界面的方式:
无论你对人工智能代理有何看法,它们无疑会与人类同行共同发展,并持续存在。因此,我们必须了解代理人工智能的工作原理,以及如何设计能够让我们安全高效地与它们协同工作的系统,充分发挥人类和机器各自的优势。
兰亭妙微(www.lanlanwork.com )是一家专注而深入的界面设计公司,为期望卓越的国内外企业提供卓越的大数据可视化界面设计、B端界面设计、桌面端界面设计、APP界面设计、图标定制、用户体验设计、交互设计、UI咨询、高端网站设计、平面设计,以及相关的软件开发服务,咨询电话:01063334945。我们建立了一个微信群,每天分享国内外优秀的设计,有兴趣请加入一起学习成长,咨询及进群请加蓝小助微信ben_lanlan。
随着人工智能越来越多地融入网站和应用程序体验,区分哪些地方已经实施了人工智能,哪些地方尚未实施人工智能,变得至关重要。
最初,大多数产品将人工智能作为聊天机器人引入,用户可以通过聊天机器人发起并促进与人工智能的交互。现在,产品正在将人工智能融入仪表盘、任务和搜索功能。用户不再主动体验人工智能——人工智能体验已经预先存在。
由于用户不再控制何时触发人工智能的使用,因此需要让用户了解何时向他们展示人工智能功能或内容,以确定其有效性和质量。不仅如此,《欧盟人工智能法案》(2026年生效)将强制要求用户在与人工智能系统进行通信或互动时必须知晓。
这就是设计系统的用武之地——实施专门的视觉处理,以始终如一地将人工智能内容和特征与非人工智能内容和特征分开。
遗憾的是,目前只有少数开源设计系统明确地包含 AI 组件和模式。我希望很快会有更多系统加入,但目前为止,只有 GitLab 的 Pajamas、IBM 的 Carbon 和 Twilio 的 Paste 在其指南中承认了 AI。
注意:我使用Figma 的设计系统来对 AI 组件和模式进行基准测试。我没有纳入仅包含 AI 聊天机器人或对话设计文档的设计系统,因为这是一种更标准的交互模式;这包括亚马逊的 Cloudscape和Salesforce 的 Lightning。
让我们比较和对比这些设计系统 AI 组件和模式,看看它们可以在哪些方面进行优化以提高可用性。
Pajamas目前不包含明确的组件或模式,但它确实包含一些关于 AI 与人类交互的有趣文档。该文档首先建议通过识别哪些自动化操作是合乎道德且有益的(例如,高风险任务 vs. 低风险任务),来了解 AI 的使用是否真的能给用户带来好处。
接下来,它建议透明地说明 AI 的使用地点——Pajamas 通过其“GitLab Duo”实现了这一点,这是 AI 特性、能力和局限性的指标。
由于“GitLab Duo”用于 AI 功能和交互(而不是任何 AI 内容),Pajamas 还建议使用“<动词> by AI”(即“由 AI 总结”)标记 AI 生成的内容,并发送一条消息鼓励用户检查 AI 内容。
GitLab 也在开发一个框架来实践他们的指导方针;目前还在开发中,但大致的工作内容可以在GitLab 的 AI UX 模式中查看。他们的目标是发布一个带有文档的 AI 模式库——这正是我们所需要的(拜托!)。
GitLab 对其 AI UX 模式的愿景分为 4 个维度,以帮助选择正确的 AI 模式:模式、方法、交互性和任务。
例如,他们早期对人工智能模式的探索包括低保真模型,展示了如何将人工智能与图表或内联解释集成到界面中。这些模式清晰地标记了人工智能的用途,有助于建立用户对人工智能系统的理解和信任。
目前,GitLab 的文档还停留在概念阶段,仅概括了他们希望未来 AI UX 体验的样子。但它提供了一个坚实的框架,大多数设计系统都可以采用——无论哪个行业或产品。
我希望他们能尽快发布更多关于其AI用户体验模式的深入信息。我认为这对其他开发AI文档的设计系统来说,将是一笔宝贵的开源资产。
在众多开源设计系统中,Carbon拥有最丰富的 AI 使用文档。它包含一个 AI 专用版块“Carbon for AI”,涵盖组件、模式和指南,帮助用户识别 AI 生成的内容,并了解 AI 在产品中的应用方式。
Carbon for AI 建立在现有 Carbon 组件之上,添加了蓝色光晕和渐变效果来突出显示 AI 实例。目前为止,已有 12 个包含 AI 变体的组件,例如模态框、数据表和文本输入。
尽管组件的 AI 变体具有独特的视觉处理,但在上下文中,很难区分哪个组件当前处于活动状态(因为它们看起来都是活动的)。
在下面的表单中,AI 用于自动填充大部分输入字段,因此这些字段使用了 AI 变体。即使在默认状态下,AI 变体也会呈现蓝色渐变和边框,这导致难以直观地识别哪个组件处于活动状态。
用户可以覆盖 AI 的输入,这会将组件的 AI 变量替换为默认变量。这将触发“恢复为 AI 输入”操作,以替换输入字段中的 AI 标签,从而允许用户控制手动或自动表单响应。
除了 AI 变体之外,它还包含一个明确的 AI 标签,可以显示一个弹窗,解释特定场景下 AI 的细节(Carbon 将此模式称为“AI 可解释性”)。用户可以选择 AI 标签,弹窗就会出现在按钮下方。
看到像 Carbon 一样完善的 AI 模式和组件设计系统文档,真是令人兴奋。他们不仅提供了 AI 通用用法的文档,还提供了实际可用的组件和模式。
但由于组件的AI变体使得在上下文中使用时难以区分哪个组件处于活动状态,我认为存在可用性和可访问性问题。AI变体的颜色使用过于引人注目,而且看起来像Carbon的焦点状态(这可能会影响依赖焦点状态的低视力用户)。
最后,Paste在“体验”版块下提供了一个“人工智能”板块。Paste 提供了关于在用户体验中使用人工智能的通用文档,以及一些可用的组件。
在设计AI功能时,Paste建议允许用户将AI结果与自身体验进行比较,并处理潜在的错误和风险。为了减少这些错误,Paste提倡赋予用户审查和撤消输出、控制数据源以及向AI系统提供反馈的能力。
Paste 还建议在设计新的 AI 功能时问自己:“如果它做同样的事情但不使用 AI,我将如何设计这个功能?”用户使用产品不仅仅是为了与人工智能互动——他们还试图尽可能高效地完成任务并实现目标。
Paste 包含一个包含 5 个组件的 AI UI 套件:人工智能图标、徽章、按钮、进度条和骨架加载器。它还包含一些专为 AI 聊天体验打造的组件,例如 AI 聊天日志。
Paste 文档中最有帮助的是他们提供的示例,包括路标、生成功能和聊天功能。
对于指示牌,Paste 建议使用带有人工智能图标的装饰性徽章来指示某个功能正在使用人工智能,例如人工智能推荐或预测。指示牌是非交互式的,但类似于按钮,因此看起来可以点击。
生成功能会向用户提供提示,帮助他们使用 AI 功能,例如“总结数据”或“推荐下一步”。当您选择生成功能时,下面会出现一个弹出窗口,向用户提供说明以及它正在使用的 AI 模型。
最后,聊天内容是当今已知的人工智能聊天机器人的典型特征,并包含对其对话原则的引用,以发展人工智能的个性。
Paste 确实即将推出另一种加载模式,但我们还需拭目以待。这种模式将为用户提供一种控制和预测 AI 输出的方式;这包括停止输出以及根据 AI 输出所需的时间来调整状态。
我很高兴看到一些文档和实际示例的结合。虽然其中一个示例是聊天机器人,但 AI UI 套件中的其他组件也展示了如何在界面中透明地展示 AI 的使用方法。
Paste 正在寻求对其 AI UI 工具包的反馈——他们有一个开放的Github 讨论,您可以在其中提交请求。
令人惊讶的是,很少有设计系统发布关于组件和模式的文档来处理AI驱动的内容和功能(至少是公开的)。例如,谷歌和微软都是AI行业的领导者,但开源的Material和Fluent设计系统却不包含AI模式。
由于这些 AI 领导者正在将 AI 融入到与更广泛用户群体互动的常见产品(例如 Gemini 和 Copilot),他们正在构建其他产品也需要效仿的用户心智模型。即使是Adobe 旗下的 Spectrum,虽然已将 AI 融入其众多产品(例如 Adobe Firefly),但在涉及内容和人物写作时,也只用了短短的宣传语来提及机器学习和 AI。
也许他们的AI模式还在开发中?或者他们还在等待时机成熟?
无论如何,向用户展示 AI 功能和生成的内容至关重要,这样他们才能更好地理解所展示的内容,并建立对产品的信任。我期待更多超越闪光图标和聊天机器人的设计系统模式。
兰亭妙微(www.lanlanwork.com )是一家专注而深入的界面设计公司,为期望卓越的国内外企业提供卓越的大数据可视化界面设计、B端界面设计、桌面端界面设计、APP界面设计、图标定制、用户体验设计、交互设计、UI咨询、高端网站设计、平面设计,以及相关的软件开发服务,咨询电话:01063334945。我们建立了一个微信群,每天分享国内外优秀的设计,有兴趣请加入一起学习成长,咨询及进群请加蓝小助微信ben_lanlan。
“好的设计”本应让事情变得更好。但如果“更好”的定义由商业指标而非人来决定,会发生什么?
我们构建了一个数字产品常常以点击量和转化率来评判的世界,而不是以用户尊严或福祉来衡量——说服与操纵之间的界限从未如此模糊。作为设计师,如果我们曾思考过,为什么这么多的网络设计让人感觉就是为了挫败、利用或仅仅让用户感到疲惫不堪,那么答案就在于此。
因此,这里重要的问题并非我们能设计什么,而是我们应该设计什么(以及为什么我们经常不设计)。
我从事设计行业多年,先是从事架构设计,后来又从事用户体验设计,但我仍然对人们对“好设计”的定义如此不同感到惊讶——而且这些定义会随着个人视角的不同而发生变化。对大多数人来说,好设计仅仅是外观精美。对用户来说,它还关乎产品运行的流畅程度。对管理者来说,好设计是指能够带来成果并满足业务目标的设计。而对设计师来说……嗯,这有点复杂。
人们或许会认为,设计师本身应该拥有最广泛、最细致的理解。毕竟,我们受过训练,能够在美学、可用性和业务需求之间取得平衡。然而,即使在我们自己的圈子里,也存在一个持续存在的盲点:设计的伦理维度。设计伦理常常被简化为职业忠诚度的问题——保护客户机密、遵守保密协议或避免抄袭——而更深层次的伦理问题,即那些关乎我们的工作如何塑造用户的自主性、福祉和信任的问题,却很少得到应有的重视。
有时,这种情况的发生是因为我们人类倾向于回避艰难的对话或道德争议。有时,这是因为一种错位的“职业忠诚”感阻碍了我们质疑老板或客户的优先事项。有时,是因为我们认为这无关紧要。毕竟,市场上已经有足够多的设计师了;我们制造一些噪音,很快就会被一个毫不在意的人取代,唯一的结果就是我们丢掉工作。有时,很简单,是因为我们从一开始就没有被教导去思考这些问题。
设计不只是外观和感觉,更在于其运作方式。——
史蒂夫·乔布斯
并非如此。设计不仅仅关乎外观,也不仅仅关乎其功能是否流畅。当然,产品能够帮助我们提高工作效率、更舒适地出行,甚至能煮出更美味的咖啡,这固然重要,但如果产品外观精美,也同样令人欣喜——但这只是表面功夫。
从更深层次来看,设计还关乎产品如何影响用户、塑造他们的行为、引导他们的选择并编码价值观——这些往往是无形的。不幸的是,伦理问题常常被淹没在可用性、吸引力和商业指标的表象之下。当我们开始用点击量、用户投入的时间和收入来衡量成功时,伦理维度就很容易被忽视或被合理化。正因如此,当我们谈论“它如何运作”时,同样重要的是要问:它对谁有效,以及它的目的是什么?
最初,用户体验 (UX) 的理念是将用户视为拥有自身需求、弱点和权利的个体。设计师需要解决实际问题,以系统化思维,并确保产品服务于更广泛的利益,而不仅仅是商业或技术进步。用户体验旨在弥合用户需求与商业目标之间的差距。不幸的是,随着数字产品发展成为价值数十亿美元、执着于增长的生态系统,这种平衡发生了改变。
“操纵的最大危险在于,它可能变得无形、正常化,并融入日常生活。”
——肖莎娜·祖博夫
在这个数字产品日益复杂、商业模式日益激进的世界里,用户体验(UX)最初以人为本的本质已日渐式微。商业需求往往凌驾于一切之上,用户体验设计师常常被迫将“业务影响”置于用户福祉之上。多年来用于引导用户获得价值的说服工具如今被滥用,并被重新定义为操纵工具。诱骗用户做出非本意行为的“暗箱操作”如今带来了数十亿美元的非预期订阅和购买。
这些原本旨在让科技更人性化的技能,如今却越来越多地被用来利用人性。
这种道德沦丧的现象更加令人担忧,因为它已不再是偶然事件,而是系统性的问题。许多组织的产品路线图很少提及道德设计原则,而用户参与度和盈利能力的KPI却被定期列为优先事项。我们已经形成了一种专业的环境,设计师们非常擅长优化用户行为以实现业务目标,但却很少具备(或被授权)识别和处理这些优化带来的道德后果的能力。当衡量成功的标准是界面如何有效地吸引注意力、数据和资金时,即使是出于好意的设计师也会发现自己成了用户操纵的同谋。产品开发的“三重约束”——速度、范围和成本——很少将道德作为第四个支柱,因此这种循环仍在继续。
这种以指标为导向的执念所带来的后果已不再抽象。亚马逊2023年的Prime会员取消流程要求用户浏览17个屏幕——这被联邦贸易委员会(FTC)后来认为是“旨在阻止用户退出”的数字障碍赛道——这并非个例,而是企业为留住用户不惜一切代价的蓝图。亚马逊内部为该流程起的代号“伊利亚特”颇具启发性:它指的是一段史诗般的旅程,也明确表明摩擦是设计使然。该流程利用了损失厌恶、注意力分散和认知超载等心理因素,动用各种心理杠杆来阻止用户离开,这与亚马逊以无摩擦高效著称的一键结账形成了鲜明对比。
欧洲《数字服务法案》现已将一些不道德的设计选择定义为“非法暗黑模式”,并处以相当高额的罚款。这一举措清晰地揭示了一个令人不安的转折:曾经使用户体验(UX)成为一门受人尊敬的学科的心理学洞见,例如福格行为模型、希克定律或认知负荷理论,如今却常常被用作操纵的工具。DSA的禁令,以及他们最近针对一些主要平台的法律行动,都明显表明操纵性设计已成为一个严重的社会问题。这一切背后的信息相当明确:平台不仅应该对用户的行为负责,还应该对其设计选择如何影响和塑造用户的行为负责。
“道德就是知道你有权做什么和什么是正确的做法之间的区别。”
——波特·斯图尔特
遗憾的是,我们能够侥幸逃脱的行为与真正正确的事情之间的界限并不总是清晰的。在一个往往更注重短期利益而非长期期望的世界里,人们很容易用积极的商业指标来为操纵模式辩护。但即便如此,我们仍然需要不断扪心自问:当我们为指标而设计时,我们是在真正帮助用户,还是仅仅在榨取他们的价值?
忽视用户福祉责任的后果随处可见——它们是一个更广泛问题的明显症状。当公司故意使取消订阅的流程复杂化,当界面设计得让用户参与度远远超出他们的预期,当用户需要输入账单信息才能开始免费试用期——这些都是设计选择的例子,这些选择可能在短期内带来商业成果,但却会导致信任逐渐丧失。这些并非孤立的失误,而是一种更广泛模式的迹象:商业目标始终被置于用户利益之上,这种做法常态化,最终破坏了公司本应依赖的良好关系。
这些模式背后的心理机制众所周知:互惠、稀缺、社会认同和损失厌恶。最初只是一些良性的提醒,例如对用户行为的感谢信息,如今已演变成利用用户社会顺从本能的“确认羞辱”弹窗。受赌场启发的机制,例如可变奖励计划——曾经仅限于老虎机——如今决定了约会应用程序何时显示潜在匹配对象,或电商网站何时显示“库存有限”提醒。所有这些对人们的影响越来越难以忽视:大量研究发现,社交媒体的过度使用或问题性使用与这些平台重度用户的焦虑、抑郁和其他心理困扰发生率较高密切相关。我们已经学会了通过强迫行为来赚钱,而且很多时候,我们要么选择不这样做,要么(更糟的是)选择这样做。
“技术挑战我们去维护我们的人类价值观,这意味着我们首先必须弄清楚它们是什么。”
— 雪莉·特克尔
这不仅仅是个别设计师的错,而是系统性的问题。产品路线图充斥着专注于注意力、提取和转化的关键绩效指标 (KPI),而道德考量却鲜有提及。大多数组织缺乏评估设计决策道德影响的流程,也很少有设计师被赋予在出现问题时进行反驳的权力。即使设计师确实意识到了问题所在,他们也常常缺乏支持,甚至缺乏足够的语言来表达自己的观点。大多数组织缺乏评估设计决策道德影响的流程,也很少有设计师被赋予在出现问题时进行反驳的权力。即使设计师确实意识到了问题所在,他们也常常缺乏支持,甚至缺乏足够的语言来表达自己的观点。
这个问题最容易被忽视的根源之一就是教育。大多数用户体验训练营和学位课程都侧重于可用性、研究和美学。道德,即使出现,也只是被当作一个旁注——一场简单的讲座或一句“不做伤害”的模糊劝诫。诸如如何应对商业压力、抵制操纵性设计、维护用户尊严等复杂的现实世界困境,却很少得到深入探讨。
这种教育差距的后果是实实在在的。新晋设计师在初入职场时,缺乏能够帮助他们识别作品是否逾越界限的工具。缺乏应对的词汇和自信,他们很快就会发现自己被迫实施“暗箱操作”,或者为了提升参与度而牺牲用户福祉。结果,设计师这个职业常常将合规与道德、商业忠诚与道德责任混为一谈。
与此同时,我们掌握的工具正变得越来越强大,也越来越危险。人工智能如今可以个性化推送,测试数百种变体,并以无情的效率优化参与度。同样的技术也可以用来检测和标记操纵模式,增强透明度,或衡量我们工作的道德影响——但除非组织选择设定这些界限,否则默认设置永远是针对易于衡量的指标进行优化:参与度、点击量和收入。
“真正的问题不在于机器是否会思考,而在于人类是否会思考。”
——BF·斯金纳
人工智能在设计领域的应用是一把双刃剑。一方面,它实现了前所未有的个性化和效率。另一方面,它也能将操控规模扩大到前所未有的程度。人工智能不仅可以识别设计中的弱点,并根据这些弱点定制信息,还能以隐形的方式大规模地进行操控。《欧洲人工智能法案》禁止“潜意识操控技术”,这恰恰表明了人工智能应用相关问题已变得多么紧迫和复杂。
问题在于,仅靠监管无法解决问题。真正的工作必须在行业内部进行。
没有勇气,我们就无法始终如一地践行任何其他美德。我们不可能善良、真诚、仁慈、慷慨或诚实。——
玛雅·安吉罗
那么,实际上需要做些什么才能使道德像任何商业 KPI 一样真实、自然地成为我们日常决策的一部分呢?
也许首先应该从我们思考设计的方式入手,以及随之而来的设计教学方式。设计并非一套工具,而是一种思维方式,其中伦理是不可分割的一部分。
商业关键绩效指标(KPI)永远存在,但它们不能成为我们遵循的唯一信号。我们应该像关注用户完成流程的速度一样,同样关注他们是否感到知情、受到尊重和掌控。我们需要
赋能设计师,让他们畅所欲言,并在他们表达意见时给予他们机构支持。
最后,我们需要认识到,我们工作的真正影响不仅在于用户做了什么,还在于他们最终会成为怎样的人。
“并非所有重要的事情都可以被计算,而并非所有可以被计算的事情都重要。”
——威廉·布鲁斯·卡梅伦
当然,并非所有问题都能用算法、清单或新程序解决。设计并非中立;它塑造习惯、信仰和社会规范。它可以强化权力失衡,也可以促进包容,可以削弱信任,也可以建立信任。随着技术变得越来越普及和具有影响力,风险只会越来越大。如果我们想要构建一个人们信任他们使用的产品以及制造这些产品的人的未来,我们就不能将道德视为事后诸葛亮,而要将其视为衡量我们成功的核心标准。挑战并非技术层面,而是道德层面。关键在于在每个阶段都要有勇气扪心自问:谁受益?谁面临风险?我们正在设计一个什么样的世界?
在用户体验设计中,说服与操纵之间的界限很少清晰,交付商业价值的压力常常将设计师推入道德的灰色地带——有时是故意为之,有时仅仅是因为没有人提出正确的问题。只要指标比意义更重要,只要道德问题被视为可有可无而非必需,这些模式就会不断重复。
幸运的是,这里没有什么是不可避免的。我们有能力挑战常规,在被要求越界时予以反击,并坚持将道德考量融入我们的流程和对成功的定义中。这并非关乎宏大的姿态或英雄事迹;而是要让道德成为其应有的样子:成为工作中正常且预期的一部分,就像可用性或可访问性一样。
如果我们希望自己的领域受到尊重,如果我们希望自己作为专业人士受到尊重,我们就需要开始像对待商业选择一样认真对待道德选择。如果我们期待情况改善,就不能坐等其他因素带来改变。改变始于我们每个人,始于我们选择不回避下一个即将面临的道德困境的那一刻。
兰亭妙微(www.lanlanwork.com )是一家专注而深入的界面设计公司,为期望卓越的国内外企业提供卓越的大数据可视化界面设计、B端界面设计、桌面端界面设计、APP界面设计、图标定制、用户体验设计、交互设计、UI咨询、高端网站设计、平面设计,以及相关的软件开发服务,咨询电话:01063334945。我们建立了一个微信群,每天分享国内外优秀的设计,有兴趣请加入一起学习成长,咨询及进群请加蓝小助微信ben_lanlan
兰亭妙微(www.lanlanwork.com )是一家专注而深入的界面设计公司,为期望卓越的国内外企业提供卓越的大数据可视化界面设计、B端界面设计、桌面端界面设计、APP界面设计、图标定制、用户体验设计、交互设计、UI咨询、高端网站设计、平面设计,以及相关的软件开发服务,咨询电话:01063334945。我们建立了一个微信群,每天分享国内外优秀的设计,有兴趣请加入一起学习成长,咨询及进群请加蓝小助微信ben_lanlan
生成式人工智能通过关注基于意图的结果规范,为人类与系统交互提供了一种新的方式。GenAI 带来了新的挑战,因为它的输出是概率性的,需要理解变异性、记忆、错误、幻觉和恶意使用,这就带来了构建原则和设计模式的必要性,正如 IBM 所描述的那样。
此外,任何AI 产品都是一个分层系统,其中 LLM 只是其中一种成分,而内存、编排、工具扩展、UX 和代理用户流才是真正的魔力!
本文是我对 GenAI 设计模式演变的研究和记录,这些模式为产品经理、数据科学家和交互设计师提供了一种通用语言 ,帮助他们打造以人为本、值得信赖且安全的产品。通过应用这些模式,我们可以弥合用户需求、技术能力和产品开发流程之间的差距。
评估 GenAI 是否改善了用户体验或增加了复杂性。通常,基于启发式 (IF/Else) 的解决方案更易于构建和维护。
这种模式确保 GenAI 开发始于用户意图以及实现该意图所需的数据模型。GenAI
系统的优劣取决于其训练数据。但真正的用户并非以行列的方式表达,他们表达的是目标、挫折和行为。如果团队未能将用户需求转化为结构化的、模型可用的输入,最终的系统或产品可能会优化到错误的结果,从而导致用户流失。
GenAI 应用中的一个关键决策是完全自动化任务还是增强人类能力。使用此模式可以使技术与用户意图和控制偏好保持一致。
自动化最适合用户倾向于委派的任务,尤其是在繁琐、耗时或不安全的情况下。例如,Intercom FinAI 会自动将冗长的电子邮件线索汇总为内部笔记,从而节省重复性、低价值任务的时间。
增强功能能够提升效率、创造力和控制力,从而增强用户想要持续参与的任务。例如, Abelton 的Magenta Studio支持创造性的控制,方便用户操控和创作新音乐。
在人工智能系统中,自动化指的是将多少控制权委托给人工智能而不是用户。这是一种战略性的用户体验模式,它根据用户的痛点、情境场景和对产品的期望来决定自动化程度。
当用户第一次接触基于新技术的产品时,他们常常想知道系统能做什么和不能做什么,它如何工作以及他们应该如何与它交互。
该模式提供了多维策略来帮助用户使用 AI 产品或功能、减少错误、与用户准备情况保持一致,以提供明智且以人为本的用户体验。
这种模式是许多其他模式的顶峰
心智模型帮助用户预测系统(网页、应用程序或其他类型的产品)的运作方式,从而影响他们与界面的交互方式。当产品与用户现有的心智模型相符时,用户会感觉直观且易于上手。当两者发生冲突时,可能会导致用户沮丧、困惑,甚至放弃。
例如,Github Copilot 建立在开发人员从传统代码自动完成的思维模型之上,从而简化了向 AI 驱动的代码建议的过渡
例如,Adobe Photoshop 建立在使用矩形控件扩展图像的熟悉方法的基础上,通过集成其生成填充功能,智能地填充新创建的空间。
通过提问来识别并建立现有的心智模型
这种模式涉及清楚地传达人工智能模型能做什么和不能做什么,包括其知识边界、能力和局限性。
它有助于建立用户信任、设定适当的期望、防止误用,并在模型出现故障或异常行为时减少挫败感。
在人工智能系统中,思路链(CoT) 提示 技术 通过模仿人类更结构化、循序渐进的思维过程,增强了模型解决复杂问题的能力。
CoT 展示是一种用户体验模式,它通过揭示 AI 是如何得出结论的来提高透明度。这可以增强用户信任,提高可解释性,并为用户反馈提供空间,尤其是在高风险或模糊场景下。
例如,Perplexity通过显示处理步骤来增强透明度,帮助用户理解答案背后的深思熟虑的过程。
例如,Khanmigo是一种人工智能辅导系统,它通过模仿人类推理来逐步指导学生解决问题,以增强理解和学习。
GenAI 凭借其概率特性,能够对同一输入产生不同的响应。这种模式通过并排呈现多个输出来利用可变性。展示多样化的选项有助于用户创造性地探索、比较、改进或做出更符合其意图的决策。例如, Google Gemini提供了多种选项,帮助用户探索、改进并做出更明智的决策。
在 GenAI 应用程序中,清晰地阐明数据源对于透明度、可信度和用户信任至关重要。清晰地表明 AI 的知识来源有助于用户评估响应的可靠性并避免错误信息。
这在医疗保健、金融或法律指导等高风险事实领域尤其重要,因为决策必须基于经过验证的数据。
AI 生成的输出具有概率性,准确度可能存在差异。显示置信度分数可以传达模型对其输出的确定性。这有助于用户评估可靠性并做出更明智的决策。
记忆和回忆是一个重要的概念和设计模式,它使人工智能产品能够存储和重用过去交互中的信息,例如用户偏好、反馈、目标或任务历史,以提高连续性和情境感知。
用于访问信息的记忆可能是短暂的(会话内的短期)或持久的(跨会话的长期),并且可能包括对话上下文、行为信号或明确的输入。
情境输入参数通过简化用户交互来提升用户体验,并更快地实现用户目标。通过利用用户特定数据、用户偏好、过往交互,甚至来自其他具有相似偏好的用户的数据,GenAI 系统可以定制输入和功能,以更好地满足用户意图和决策。
副驾驶是一种增强模式,AI 充当协作助手,在用户掌控全局的同时,提供情境化和数据驱动的洞察。这种设计模式在战略制定、构思、写作、设计或编码等领域至关重要,因为这些领域的结果具有主观性,用户拥有独特的偏好,或者用户的创意输入至关重要。
副驾驶 加快工作流程,增强创造力并减少认知负荷,但人类仍保留创作权和最终决策权。
构建 UI 级机制,让用户根据用户目标、上下文场景或系统故障状态管理或覆盖自动化。
没有系统能够预测所有用户情境。控制赋予用户自主权,即使人工智能出错,也能保持信任。
GenAI 系统通常依赖于对人类输入的解读。当用户提供模糊、不完整或错误的信息时,AI 可能会误解其意图或产生低质量的输出。
输入错误通常反映的是用户期望与系统理解之间的不匹配。妥善处理这些问题对于维护信任和确保顺畅的交互至关重要。
GenAI 输出本质上是概率性的,容易出现幻觉、偏见和上下文错位等错误。
与传统系统不同,GenAI 的错误状态难以预测。针对这些状态进行设计需要透明度、恢复机制和用户自主性。精心设计的错误状态可以帮助用户了解 AI 系统的边界并重新获得控制权。
混淆矩阵有助于分析人工智能系统错误,并通过显示以下计数来深入了解模型的执行情况
-真阳性(正确识别阳性案例)
-假阳性(错误识别阳性案例)
-真阴性(正确识别阴性案例)
-假阴性(未能识别阴性案例)
现实世界的一致性需要直接的用户反馈来改进模型,从而改进产品。当人们与人工智能系统互动时,他们的行为会塑造并影响他们未来收到的输出。从而形成一个持续的反馈循环,系统和用户的行为都会随着时间的推移而不断调整。例如,ChatGPT使用“反应”按钮和“评论”框来收集用户反馈。
强大的 GenAI 模型需要在训练期间以及部署后持续进行评估。评估旨在确保模型按预期运行,识别错误和幻觉,并与用户目标保持一致,尤其是在高风险领域。
有三种关键的评估方法可以改进机器学习系统。
人工智能护栏的设计意味着在GenAI模型中建立实践和原则,以最大限度地减少伤害、错误信息、不良行为和偏见。至关重要的是
这种模式确保 GenAI 应用程序清楚地传达如何收集、存储、处理和保护用户数据。
GenAI 系统通常依赖于敏感数据、情境数据或行为数据。处理不当可能会导致用户不信任、法律风险或意外滥用。清晰地传达隐私保护措施有助于用户感到安全、受到尊重并掌控全局。例如,Slack AI 明确表示,客户数据仍归客户所有并控制,不会用于训练 Slack 或任何第三方 AI 模型。
兰亭妙微(www.lanlanwork.com )是一家专注而深入的界面设计公司,为期望卓越的国内外企业提供卓越的大数据可视化界面设计、B端界面设计、桌面端界面设计、APP界面设计、图标定制、用户体验设计、交互设计、UI咨询、高端网站设计、平面设计,以及相关的软件开发服务,咨询电话:01063334945。我们建立了一个微信群,每天分享国内外优秀的设计,有兴趣请加入一起学习成长,咨询及进群请加蓝小助微信ben_lanlan。
当我们谈论用户体验时,大多数话题都倾向于愉悦感、易用性和效率。但近年来,一个话题却逐渐受到关注:可持续性。对我来说,“循环用户体验”(Circular UX)——为修复和重复使用而设计——并非源于会议演讲或流行文章,而是在为内部供应链门户网站进行实际产品改造时。
循环用户体验 (Circular UX) 借鉴了循环经济的理念,致力于延长产品的生命周期。循环用户体验 (Circular UX) 并非设计那些快速采用并逐渐淘汰的数字体验(想想那些迫使你每年购买新版本的应用程序),而是鼓励设计兼顾耐用性、可修复性和可重复使用性。
这不仅仅是关于使用环保图标的“绿色UI”。这是为了确保:
这些都是循环用户体验 (Circular UX) 的实际例子:减少重复性工作、使恢复变得容易、并增强探索的信心。
当产品设计为可修复和重复使用时,用户行为会发生以下变化:
上图比较了应用 Circular UX 前后的情况。
这种简单的思维转变——从僵化的流程到灵活、可修复的体验——可以改变用户信任和业务成果。
我曾参与一个团队,负责改造一个时尚品牌的内部供应链门户。旧系统非常死板:如果用户在创建订单或规划发货时出错,唯一的解决办法就是删除所有数据,然后重新执行整个流程。这每周都会浪费数小时,并导致运营团队和 IT 团队之间产生摩擦。
这一转变出人意料地受到了热烈欢迎:
三个月后,我们进行了一项用户调查:83% 的人表示他们“非常喜欢”新版本,因为感觉“惩罚更少”且“更宽容”。
投资回报率是显而易见的:
这就是我们在项目中应用循环用户体验 (Circular UX) 概念的方式。难点在于简化现有流程,赋予用户更多控制权并节省他们的时间。现在,让我们了解一下为什么循环用户体验对所有公司都至关重要:
循环用户体验不仅仅是一个环保的流行词;它指的是尊重用户时间和精力的设计体验。在我的项目中,采用修复和重复使用不仅提高了可用性,还增强了用户信心,降低了运营成本,并创建了一个可以根据未来需求扩展的系统。
当用户感到可以放心尝试,并且知道错误可以恢复时,他们会更有效地使用你的产品,减少压力。而当公司在设计产品时考虑到维修和重复使用,他们就能节省成本,减少客户流失,并确保产品面向未来。
因此,下次设计时,请问自己:“人们修复或重复使用他们已经完成的工作有多容易?”这种小小的思维转变可能会对用户和企业投资回报率产生重大影响。
兰亭妙微(www.lanlanwork.com )是一家专注而深入的界面设计公司,为期望卓越的国内外企业提供卓越的大数据可视化界面设计、B端界面设计、桌面端界面设计、APP界面设计、图标定制、用户体验设计、交互设计、UI咨询、高端网站设计、平面设计,以及相关的软件开发服务,咨询电话:01063334945。我们建立了一个微信群,每天分享国内外优秀的设计,有兴趣请加入一起学习成长,咨询及进群请加蓝小助微信ben_lanlan。
今天给大家分享一个强大的工作流程:Lovable — GitHub — Cursor。
虽然 Lovable 和 Cursor 都是流行的工具,但它们各有其优点和局限性。
但当一起使用时,它们可以很好地互补,您可以获得两全其美的效果。
此工作流程让您可以利用 Lovable 的快速设计生成和 Cursor 的 AI 驱动编码环境来精确构建更强大的应用程序。
我将向您展示如何逐步连接它们并创建无缝的工作流程。
在Lovable中,将您的项目与Github连接起来,这样代码就可以实时同步到GitHub。
在 Cursor 中,你可以将项目代码克隆到本地并进行编辑。之后,你可以随时同步到 GitHub。
一旦同步,更新将立即反映在 Lovable 中。
然后,您可以根据需要选择使用 Lovable 或 Cursor 进行工作。两者之间可无缝切换。
对于专注于前端的设计来说,Lovable 直观且快速。但当需要改进或添加实际功能时,你很快就会遇到瓶颈。
它根本不适合开发可靠的应用程序。而且,Lovable 的免费计划也很容易达到使用上限。
这就是 GitHub 和 Cursor 的用武之地。GitHub 充当了 Lovable 和 Cursor 之间的桥梁。从它的名字就可以看出“ GitHub = Git + Hub ”。Git 是管理代码版本的工具。GitHub 是一个托管 Git 存储库并增强协作的平台。
而 Cursor 就像一个带有 AI 助手的代码编辑器。它比 Lovable 强大得多。你可以更精确地调试、优化和构建代码。
缺点是,如果你编程经验有限,Cursor 可能会让你感到不知所措,而且它不够简单,不适合前端探索。这就是为什么 Lovable 和 Cursor 相辅相成的原因。
但是如何让 Lovable、Cursor 和 GitHub 协同工作呢?
接下来,我将逐步引导您完成工作流程!
首先,你需要有一个 GitHub 帐户。
那就用 Lovable 来构建一些东西吧。我在一篇新闻通讯里提到过 Lovable 。它很容易上手。
为了这个演示,我创建了一个简单的“像我 5 岁一样解释它”应用程序。
您可以随时通过点击右上角的 GitHub 图标选择连接到 GitHub。
如果单击该图标,将出现以下对话框:
连接到 Github 帐户后,此对话框将显示另一个选项,供您将此“项目”连接到您的 Github。请确保它也已连接。
打开 Cursor。第一步是选择一个文件夹。这就是项目所在的位置。
接下来,您只需在 Cursor 中输入以下内容:
克隆此 repo:[你的项目 Github 链接]此repo:[你的项目 Github 链接]
然后 Cursor 会告诉你该怎么做。设置起来非常简单直接。
您实际上是在安装“依赖项”,即下载并设置项目正常运行所需的所有包。
按照说明,我打开了本地服务器,它在 Lovable 中显示了完全相同的设计。
假设现在我想在 Cursor 中进行一些修改。CTA 按钮的悬停效果太过分了。
我在 Cursor 的提示窗口中输入了以下内容:
删除悬停时“解释一下!”CTA 上的放大效果。悬停时对“解释一下! ” CTA产生影响。
然后就修复了:
您可以随时选择将代码从 Cursor 同步到 GitHub。
但是,您会发现选项比您预期的要多得多,而只有一个选项 — — 同步。
Git 就是这样运作的。它将版本控制分解成多个小的、具体的操作,以便你进行精确控制。
这在处理大型项目时尤其有用。想象一下,当多人协作时,所有本地模型都同步到一个中心模型,而且每个人都只能选择同步,没有其他选择,那该有多混乱。
我在下面画了一张图表来帮助您更好地理解所有这些命令。
您不必亲自输入这些命令,但是当您在 Cursor 中看到这些术语并感到困惑时,该图表可以作为有用的参考。
首先,点击这个“分支”图标切换到源代码控制面板。然后点击“+”图标“暂存更改”,使其准备好提交。
然后根据您的需要,您可以在“提交”下拉菜单中选择一个选项。
如果您只想直接同步,请使用“提交和同步”。
你看到“提交”顶部的消息框了吗?它就像一个版本历史记录名称,方便你更好地跟踪更改。如果你将其留空,Cursor 会根据你所做的更改自动生成一条提交消息。
现在就是神奇的一步。因为你什么都不用做。
你应该会立即看到更新自动同步到 Lovable 中。太酷了!
如果您查看上面的快照,它会在聊天窗口中显示来自 Cursor 的最新修订。
然后,您可以根据需要选择继续在 Lovable 中构建或切换到 Cursor。
如果您想与某人合作,只需在 GitHub 上的项目仓库中添加一位合作者即可。前往项目 → 设置 → 合作者 → 添加人员
一旦添加,他们也可以使用 Cursor 实时协作该项目。
感谢阅读。特别感谢 Junaid,在我准备课程期间与我分享了工作流程。
下周见,
欣然
-
PS:几天前我做了一个关于创建 AI 原型的演讲,并演示了一些示例。如果你也对这个话题感兴趣,可以去看看。你可能会喜欢我和观众现场演示的冰淇淋搭配应用。
主体元素
金融类图标化物体:硬币、银行卡、银行建筑、存钱罐、数字符号(如“₿”、“$”)、网格状科技纹理
品牌标识:ABB Logo 或抽象化的品牌色块,立体化呈现
抽象 3D 元素:漂浮的几何体(圆柱、方块、球体)、数据流线条、渐变光球
场景背景:简洁单色或柔和渐变,留出空间让主体呼吸
空间与透视
中心构图:主体位于视觉中央,四周留白适合社交媒体缩略图浏览
微透视:通过 3D 相机轻微倾斜,制造动态感
前景-中景-背景层次:前景有漂浮元素,中景主体,背景光晕或渐变,增强纵深感
配色策略
主色:深蓝 / 银灰 —— 金融行业常用的“稳健、信赖”色
辅色:亮黄 / 金色 —— 暗示财富、价值
点缀色:电光蓝 / 青色 —— 体现科技感
光影处理
高对比度主光,突出边缘高光,强化金属质感
柔和环境光,让暗部不死黑,保留细节
背景光晕或渐变,吸引视线到主体
黄金分割:主体落在黄金分割线上,增加视觉舒适度
中心聚焦:社交媒体适配性强,缩略图清晰易读
动静结合:静态主体 + 流动线条或粒子,营造科技流动感
留白策略:四周留白便于加文字信息或 Logo
稳健(Trustworthy)
科技感(Tech-inspired)
高质感(Premium)
几何化(Geometric)
立体光影(3D Lighting)
金融象征(Financial Symbols)
社交传播友好(Social-friendly)
行业迁移:不仅适合银行,也适合保险、科技公司、加密货币品牌、金融科技应用
风格迁移:把金融元素替换成行业专属元素(医疗、教育、零售等),保留 3D 场景结构与光影
平台适配:同一 3D 场景调整构图比例,即可适配 Instagram、LinkedIn、抖音等不同尺寸
软件:Blender(免费)+ Canva/Photoshop 后期排版
建模:
用 Blender 现成几何体 + 金融符号 SVG 导入挤出成型
用内置材质(金属、玻璃、渐变)快速出效果
灯光:
主光 + 辅光 + 背景光三点布光
在背后加大范围 Area Light 制造光晕
输出:
1920×1920 或 1080×1080(社交媒体友好尺寸)
渲染后在 Photoshop 加品牌色背景和文字
兰亭妙微(www.lanlanwork.com )是一家专注而深入的界面设计公司,为期望卓越的国内外企业提供卓越的大数据可视化界面设计、B端界面设计、桌面端界面设计、APP界面设计、图标定制、用户体验设计、交互设计、UI咨询、高端网站设计、平面设计,以及相关的软件开发服务,咨询电话:01063334945。我们建立了一个微信群,每天分享国内外优秀的设计,有兴趣请加入一起学习成长,咨询及进群请加蓝小助微信ben_lanlan。
每个人都说:“相信你的直觉。”但
没有人解释你的直觉是如何思考的。
查尔斯·皮尔斯做到了。
他称之为溯因推理——最佳猜测的逻辑。从想法到假设的跳跃。这种思维方式并不能保证你一定正确,但能让你足够接近事实,值得一试。
19世纪末,皮尔士(发音为“purse”)提出了一个关于人类如何形成信念的模型。这种信念的形成并非等待神灵的启示或遵循完美的规则,而是从不确定性入手,对我们自以为知道的事物感到不安,并形成一个值得检验的猜测。
他通过自己的工作创造了“探究”一词。这种逻辑如今在早期产品战略、设计研究和推测性人工智能提示中随处可见。但大多数人从未听说过它,或者从未听说过他。
皮尔士是一位逻辑学家、数学家、物理学家,以及许多其他领域的专家,他是美国实用主义的奠基人。但他真正痴迷的是我们如何形成信念……以及如何改变它们。
他相信真理并非唾手可得,而是需要你努力奋斗才能获得。而获得真理的途径并非加倍努力……而是甘愿犯错。
对于皮尔士来说,怀疑并非弱点,而是真正思考的开始。
他概述了人类推理的三种基本方式:
皮尔斯认为,溯因推理是思维的起点,是所有洞察力的源泉。它引领新想法进入思维领域,让产品团队能够推测某个指标下降的原因,让设计师能够预见到混乱的发生,让研究人员能够提出正确的问题——而不仅仅是分析数据。
溯因推理是从观察到可能性的飞跃。从“这到底是怎么回事?”到“也许是这样”。它并不能保证你是对的,但它能给你提供一些可以测试的东西。
演绎法起源于亚里士多德,它从普遍真理出发,并由此推理。
如果所有人都会死,而内特是人类,那么内特也是会死的。
非常简单。无需猜测。
它是系统、策略和自动化的逻辑。它是工程师确保代码正常运行的方式,也是合规团队发现违规行为的方式。演绎是我们利用已知知识进行推理的方式。但演绎并不能产生新的见解。它只能验证符合规则的内容。我喜欢这样理解:演绎建立在现状之上,而不是可能实现的。
归纳法也源于亚里士多德,但经过以下思想家的扩展:弗朗西斯·培根和大卫·休谟,反之亦然。它根据观察到的情况推断可能发生的情况。
到目前为止,太阳每天都会升起,因此,明天它大概也会升起。
它是科学、分析和机器学习背后的逻辑。它能发现模式、发现趋势并标记概率。归纳推理能告诉团队用户做了什么,但不一定能告诉他们为什么做,或者下一步该做什么。
它很强大,但都是事后诸葛亮。它是一种回顾。没有溯因推理来构建问题,也没有演绎推理来施加约束,归纳推理只是收集数据。它只是观察,却不知道究竟要寻找什么。
皮尔士不仅研究我们如何推理,他还研究我们如何相信,以及为什么错误的信念如此难以动摇。在他1877年的论文《信念的固着》中,他列举了人们判断真理的四种常见方式:
其中只有一种说法欢迎质疑。其他说法则鼓励安慰。它们之所以让人感觉真实,是因为它们一直以来都让人感觉真实。可能是因为某个可信的人说过这些话(锚定效应),也可能是因为它们易于重复,难以质疑。
信念并不总是来自证据。它来自情感、重复,有时甚至是便利。
这就是为什么人们会继续从事有害的工作,并相信阴谋论。这就是为什么整个团队围绕着一个在启动会议上感觉正确的想法展开工作,但之后就再也没有被重新讨论过。
皮尔斯的警告不仅仅是哲学层面的,它非常实用:
如果你忽略了怀疑带来的不适,你也就忽略了学习的机会。
大多数现代设计工作都始于一种直觉。你注意到一些事情。你猜测它发生的原因。你验证这个猜测。
这就是绑架。
你不是在证明必然为真,也不是在确认可能为真。你是在问:这里可能发生了什么?
这是探索研究和旅程地图的核心。真正以人为本的设计。这种设计需要长时间地与模糊性共存,以便从中汲取经验,而不是停留在幻灯片上假装自己已经知道了。
问题?
我们不会把溯因推理当成一门技能来教。我们把它当成直觉。高级设计师“大概知道”的东西。
我想皮尔斯不会同意。对他来说,溯因推理不是魔法,而是逻辑。溯因推理是可以训练的,可以解释的,而且也值得实践。
如果说演绎法是数学的逻辑,归纳法是科学的逻辑,那么溯因法就是设计的逻辑。
优秀的设计师总是在别人追寻答案之前提出更精妙的问题。这也是为什么他们不仅仅是在建造,而是在观察。
溯因推理并不仅限于设计。每当我们试图理解一些不明确的事物时,它都会出现。而没有什么比我们如何使用生成式人工智能更切题(或更容易被忽视)了。
在 GenAI 出现之前,深度思考进展缓慢。你必须面对模棱两可的情况,理解零散的信息,并挑战自己的假设。这种方式效率不高,但确实有效。
现在,有了 GenAI,我们就有了一个可以模拟新观点、提出反驳意见并帮助我们比以往更快地测试想法的工具。
但大多数人并非如此使用。他们带着结果而来,而不是带着疑问。他们寻求的是确认,而不是探索。他们把这个工具当成了自动售货机。
提示法运用得当,就能起到溯因推理的作用。你先提出一个假设,然后提出问题,探索可能成立的结论。之后,不断完善假设。
如果使用不当,该工具会反映你的第一个假设。听起来很有说服力,但却无法加深你的理解。
早在语言模型出现之前,皮尔斯就对此发出过警告。当信念被过快接受时,它就会停止进化。当质疑从学习过程中消失时,学习也会随之消失。
提示是练习溯因推理的机会,但只有我们像自己思考一样小心地使用它时,才有意义。
我们并非为真理而设计,而是为可以演变的信念而设计,这意味着我们要适应模糊性,提出更好的问题,并抵制急于获得确定性的冲动。
如果人工智能要帮助我们思考(而不仅仅是产生结果),那么我们必须教会人们如何谨慎地推测并检验假设。我们还必须教会人们如何在不失去控制的情况下改变想法。
查尔斯·皮尔士为我们提供了一个模型,帮助我们在事实不全的情况下进行推理。这是一种灵活且愿意犯错的思维方法。
它仍然有效。
如果你对这些思维习惯是如何养成的感兴趣,我曾专门写过关于弗里德里希·福禄贝尔的文章,他是一位向我们展示如何塑造学习方式的教育家。
蓝蓝设计的小编 http://www.lanlanwork.com