日本大阪都市大学开发内置公平性模糊AI系统,提升决策透明度和准确性
2026-04-12 09:42
来源:大阪都市大学
收藏

人工智能系统常因数据偏见导致不公平决策,而多数系统仅输出结果,缺乏过程透明度,使偏见难以识别。为解决这一问题,日本大阪都市大学信息学研究生院由野岛佑介教授领导的计算智能研究小组,开发了一种内置公平性的模糊人工智能系统,旨在从训练初期平衡准确性与公平性。相关研究已发表于《IEEE Transactions on Fuzzy Systems》期刊。

公平决策,清晰理由:从一开始就内置公平性的模糊人工智能

模糊人工智能系统采用类似人类推理的规则进行决策,允许程度性判断,而非严格的二元选择,从而适应现实世界的复杂情境。研究人员应用“基于多目标模糊遗传的机器学习”方法,进化出多个候选模型,将公平性直接整合到训练过程中,而非事后评估。

每个模型均根据准确性和公平性进行评价,算法优化以找到最佳平衡点。测试中,团队使用了四个公平性基准数据集,涉及收入、信用风险、银行存款和再犯罪率等真实场景,这些数据集易受性别和种族因素影响产生偏见。

“设计的模型在准确性和公平性方面超过了其他模型,”第一作者、研究生小西健表示。通过分析内部机制,研究有助于理解准确性与公平性权衡的形成过程。团队计划基于此构建更精确和公平的人工智能系统。

“这项研究的发现将促进人工智能发展,在准确性之外优先考虑透明度和公平性,”野岛教授说。“我们希望这类研究能够实现一个社会,在那里人工智能可以被信任并自信地用于做出细致入微的决策。”内置公平性的模糊人工智能系统为提升AI决策的可靠性和公正性提供了新途径。

出版详情:作者:Osaka Metropolitan University;标题:《Fair decisions, clear reasons: Creating fuzzy AI with fairness built in from the start》;发表于:《IEEE Transactions on Fuzzy Systems》(2026);期刊信息: IEEE Transactions on Fuzzy Systems

本简讯来自全球互联网及战略合作伙伴信息的编译与转载,仅为读者提供交流,有侵权或其它问题请及时告之,本站将予以修改或删除,未经正式授权严禁转载本文。邮箱:news@wedoany.com