智能家庭技术正在永远改变,其最有影响力的应用之一是 人类活动认可(HAR)。 HAR使智能系统能够监视日常活动,例如烹饪,睡眠或锻炼,并在医疗保健和辅助生活等领域提供基本的支持。但是,尽管深度学习模型显着提高了HAR的准确性,但它们通常是“黑匣子”,对他们的决策过程几乎没有透明度。
为了解决这个问题,米兰大学(Michele Fiori,Davide Mor,Gabriele Civitarese和Claudio Bettini)的研究人员已经 引入 gnn-xar,第一个 可解释的图形神经网络(GNN),用于智能家庭活动识别。这种创新的模型不仅改善了HAR绩效,而且还为其预测产生了可读的解释。
需要在智能家居中解释的AI
大多数现有的HAR系统都依赖于深度学习模型,例如 卷积神经网络(CNN)和复发性神经网络(RNN)。尽管有效,但这些模型却无法解释,这使得用户(包括医疗专业人员和数据科学家)难以了解为什么检测到特定的活动。 可解释的AI(XAI) 试图通过提供对模型决策的见解,增强现实世界应用中的信任和可用性来减轻这种情况。
图形神经网络(GNN)已成为建模智能家庭中时间序列传感器数据的强大工具,因为它们可以 捕获传感器读数之间的空间和时间关系。但是,现有的基于GNN的HAR方法缺乏内置的解释性。这就是GNN-XAR区分自身的地方,提供了一种创新的解决方案 基于图的HAR具有可解释性机制,使其成为该领域中的第一个。
GNN-XAR如何工作
GNN-XAR介绍了一本小说 基于图的方法 传感器数据处理。它不是将传感器读数视为孤立的事件,而是 构造动态图 随着时间的推移,该模型不同传感器之间的关系。每个图都使用 图形卷积网络(GCN),确定正在执行的最可能的活动。为了确保透明度,适应了 专为GNN设计的XAI技术 突出显示了有助于最终预测的最相关节点(传感器读数)和弧(时间依赖性)。
这 图形施工过程 是GNN-XAR中的关键创新。传感器事件(例如运动探测,设备的使用和门开口)被表示为节点,而边缘捕获了它们的时间和空间关系。该系统区分了两种传感器类型:
- 显式相互作用传感器 (例如,机柜门传感器),它会产生内外的事件。
- 被动传感器 (例如,运动检测器),只有激活事件很重要,计算持续时间。
为了维持结构和效率,系统引入 超节点 该组相关的传感器事件。这使GNN模型可以处理复杂的传感器交互,同时使计算可管理。
GNN-XAR如何解释其决定
与仅提供分类输出的传统深度学习模型不同,GNN-XAR使用 gnnexplainer,一种针对基于图的模型量身定制的专门XAI方法。该方法确定了影响预测的最重要的节点和边缘。 GNN-XAR中的关键创新是其适应Gnnexplainer可以与智能家庭数据无缝合作,以确保解释都是 准确且可读。
例如,如果系统预测“餐食”,它可能会突出显示事件,例如 重复的冰箱开口,然后是炉子激活,为其分类提供逻辑且易于理解的理由。然后,该模型将此解释转换为自然语言,从而使非专家用户可以使用。
实验结果
GNN-XAR在两个公共智能家庭数据集上进行了测试 –卡萨斯·米兰 和 卡萨斯·阿鲁巴– 其中包含来自真实房屋的传感器数据。对模型进行了评估 德克萨尔,一种使用基于CNN的方法的最先进的可解释的HAR系统。结果表明,GNN-XAR不仅提供了 更准确的预测 但也生成 更有意义的解释 与现有的基于XAI的HAR方法相比。
关键发现包括:
- 识别精度略高 比Dexar,尤其是对于具有强大时间依赖性的活动(例如,“离开家”)。
- 卓越的解释性,通过使用大语言模型(LLM)的评估方法来衡量,以评估说明清晰度和相关性。
- 改善了复杂传感器关系的处理,启用更可靠的HAR性能。
特色图片来源: ihor saveliev/Unsplash