目前,一些学者在尝试整合各地的病例库,并训练大型 AI 模型。所谓大模型,可以理解为用大量数据和案例训练出来的智能系统,就像一个经验非常丰富的 “大专家”。通过数据整合,即使是稀有案例也能达到足够数量,帮助大模型从中学习,变得更有判断力。
这样一来,当医生使用这个模型时,它能提供更完整的信息支持。医生就不必在茫然中摸索,而是像拿到一份全局地图一样,轻松找到方向。这会让医生在决策和行动时变得更简单,从而提升他们对 AI 的满意度。
其实这种情况不只在医疗领域适用。在科研中,年轻研究人员如果在一个高水平平台或顶尖团队中工作,就能轻松获得高维度的信息。相比之下,一个独自在资源匮乏的环境中摸索的人,需要投入大量时间和精力去收集信息,做决策难度自然更高。这时如果有一个 AI 系统能提前整合科研领域前沿关键信息,就像为你提供地图和导航,那你的决策就会简单很多。这不但能减少你的心理负担,还能提高工作和研究的效率。就像拥有一张清晰的路线图,你只需顺着方向走即可,而无需在迷雾中不断试错。
信任
再说第二点:用户对 AI 结果要有足够的信任。在 AI 领域,我们一直强调 “可解释性”,意思是 AI 的决策过程要让人看得明白、能理解。
有些人以为可解释性只是用可视化手段展示 AI 的关注点,但在一些关键领域(比如医疗)这种方式不够有用。黄正行教授指出,在医疗中真正的可解释性是把具体病例的数据和通用医学知识关联起来。换句话说,不只是给出症状描述,而是要解释这些症状背后的医学机理,比如基因因素或环境影响。这样,医生能理解疾病的来龙去脉,而不仅仅看到一堆无意义的描述。
如果 AI 能把病例变成可用机制来解释,让医生清楚疾病产生的原因、演化方式以及治疗手段背后的逻辑,那么医生就会信任 AI 的判断 —— 这比在每个词上标注 “注意力权重” 更有说服力。
毕竟当前还是人类来负责最终决策,如果 AI 的建议缺乏可信的理由,人类很难盲目采纳。因此,真正的可解释性就像给出一套可验证的原因和机制,让人知道 “为什么会这样”。
虽然实现这种可解释性很难,但这是 AI 产品想在竞争中获胜必须面对的挑战。这也让我们重新认识可解释性的价值。
半成品
第三个点是提供 “半成品” 而不是 “成品”。这听起来是不是有些反直觉?
很多人觉得 AI 应该端到端解决所有问题。但停下来,请想想用户的感受,尤其是像医生这样的专业人员。
如果 AI 把一切都做好了,不留给医生决策空间,医生会觉得自己被 “架空” 了,不仅失去参与感,也失去成就感。
我们希望的是,AI 给出一个完整的情况图景和几个可选方案,让用户来决定下一步。这种 “半成品” 模式,让用户觉得自己在参与决策过程。这就像导航软件告诉你几条路线,你来选择走哪条。即使 AI 在每个路口给出建议,但最终选择权仍在用户手中,这样用户就会有投入感,并认可这个系统的价值。
对企业和机构来说,这种方式也更容易让内部人员接受,因为他们感到专业性没有被削弱。最终,这种模式会让用户觉得自己是司令官,AI 是参谋,而不是被 AI 取代的机械操作员。