AI 落地场景不断增多,聊聊AI 产品的可解释性

近几年AI场景越来越多的落地,但受限于AI技术发展程度和社会伦理问题,AI并没有干掉所有场景的工作岗位,而是进入一种人机协同的状态。在人机协同的大时代背景下,AI的可解释性问题变得越来越尖锐。本篇聊聊关于AI产品可解释性的问题。
可解释需求虽然AI行业烧钱的问题被诟病很多,但相比5年前,如今AI确实越来越多的在社会各个层面落地。之前文章谈到过未来会进入自动驾驶时代,无论是L4以下还是L4以上的自动驾驶,都需要自动驾驶系统替代人类做部分或全部的驾驶决策。而自动驾驶能够被大众和社会接受,前提需要在出现问题或人类想了解决策逻辑时,自动驾驶系统能给出合理解释,而非完全把命运交给不可解释的黑盒算法。其他场景也存在类似问题。例如前几年做智能推荐产品,主要聚焦给B端客户提供推荐系统服务,交付以CTR或CVR指标提升为准。而在实际交付中,指标虽然提升了,但客户侧会反馈到单个客户上推荐结果不合理。在当时的话语体系下,更多是给客户讲看总指标,追求全局最优解,而非每个客户最优解。显然站在C端用户的视角,这种解释是不够的。而且在推荐系统实现过程中,确实会存在一些策略不那么个性化,或者存在少数服从多数的建模逻辑,行为少的用户推荐结果会被行为多的用户影响。客户或用户需要知道算法到底如何做出决策,无论是向上汇报还是对终端用户解释,都不算过分的要求。并且随着AI落地场景越来越多,可解释性问题会越来越尖锐。
可解释性难点AI可解释性需求现实存在,在解决AI可解释性的方案里却存在一定的难点。近年来深度学习被广泛应用,算法工程师可以无脑使用深度学习追求一个好的指标,但却使结果变得不可解释。为什么效果好,没有人知道。另外的是有些可解释的模型,即便将决策原因暴露给客户或用户,用户也不一定买帐,因为现在AI终究还是逃不过统计学逻辑,即按照过去数据对未来做预测,预测的准确性是有概率的,并非能百分百准确。这种情况下,可解释性只是直接的目标,准才是根本的目标。
解决方案解决可解释性问题,可能有三个解决问题的方向。方向之一是,回到最初的问题,场景是否真的适合采用AI,是否可以直接上规则。在之前工作中,遇到一些银行和券商客户,数据量有限,同时关注可解释性,也想做推荐,但不适合传统的AI推荐。于是构建了一款规则引擎产品,可手动给不同人群配置不同推荐规则,于是两全其美优雅的解决了问题。方向之二是,将需要解释的内容,适当做产品化。例如之前做新闻客户端时,将召回策略中基于内容标签、作者等召回源,作为推荐缘由直接展示在用户端,用户可以选择对某标签的不感兴趣。同时解决推荐原因和提升推荐效果的问题。方向之三是,对于那些不可解释的模型,需要推进技术上寻求挖掘可解释性的方案,黑盒模型可解释性目前也是业界比较前沿的领域,如果能有一些突破,再去做产品化便能将AI落地速度推进一大步。

THE

END


开课吧推出新的产品经理免费公开课啦!《人工智能必备数学》作者、计算机博士唐宇迪老师,将在9月16日20:00直播,带你打开人工智能的大门、从0到1入门AI PM!分享内容主要有以下四点:
  • · 告别0技术背景,抓住人工智能时代红利

  • · 通过AI提升业绩,突破个人职业发展瓶颈

  • · 大咖指导:AI产品经理从0到1入门学习路径推荐

  • · 干货赋能:探索AI产品商业化,剖析AI解决方案

你有没有心动呢?走过路过不要错过