首页 > 智慧科技 > 智慧科技 > 索尼新数据集可检验AI模型是否公平对待不同人群

索尼新数据集可检验AI模型是否公平对待不同人群

发布时间:2025-11-08 14:03:19 来源: 18638159832

11 月 6 日消息,索尼人工智能(Sony AI)发布了一个用于测试人工智能模型公平性与偏见的新数据集,名为“公平以人为本图像基准”(Fair Human-Centric Image Benchmark,简称 FHIBE,发音类似“Phoebe”)。该公司称,这是“首个公开可用、具有全球多样性、基于参与者知情同意的人类图像数据集,可用于评估各类计算机视觉任务中的偏见问题”。换言之,该数据集旨在检验当前 AI 模型在多大程度上能够公平对待不同人群。值得注意的是,索尼在评估过程中发现,目前没有任何一家公司发布的数据集能够完全满足其设定的公平性基准。

图源:索尼

图源:索尼

索尼表示,FHIBE 有助于应对 AI 行业在伦理与偏见方面的挑战。该数据集包含来自 80 多个国家近 2,000 名有偿参与者的图像,所有参与者的肖像均在明确知情同意的前提下被使用 —— 这与当前业界普遍采用的、未经许可大规模抓取网络数据的做法形成鲜明对比。FHIBE 参与者可随时选择撤回其图像。据IT之家了解,这些图像还附有详细标注,涵盖人口统计学和身体特征、环境因素,甚至包括拍摄时的相机参数。

该工具“验证了当前 AI 模型中此前已被记录的偏见”,但索尼强调,FHIBE 还能对导致这些偏见的具体因素进行细致分析。例如,某些模型在使用“she / her / hers”代词的时准确率较低,而 FHIBE 分析发现,此前被忽视的一个关键因素是这些人群在发型上的高度多样性。

此外,FHIBE 还发现,当 AI 模型被问及某个中立问题(如“该人物的职业是什么?”)时,会强化刻板印象。测试显示,模型对特定代词使用群体和族裔背景人群存在明显偏见,常常将受访者描述为性工作者、毒贩或小偷。而在被要求推测某人所犯罪行时,模型对非洲或亚洲族裔、肤色较深者以及使用“he / him / his”代词的人群,更频繁地生成“有毒”(toxic)回应。

索尼 AI 表示,FHIBE 证明了在数据收集中实现伦理、多样性和公平性是完全可行的。该工具现已向公众开放,并将随时间推移持续更新。相关研究成果已于本周三发表于《自然》(Nature)期刊。

 

智慧科技更多>>

2月销量被吉利和上汽反超,比亚迪,让子弹先飞一会儿? 奔驰部分EQA/EQB车型高压电池安全隐患召回详解 吉利|2月销量稳进,极氪逆势双增 堆满的智能配置,反倒让汽车更危险了? 半隐藏式门把手+悬浮车顶 奇瑞瑞虎7L官图发布 预售补贴价11.28万起,全新阿尔法S5升级配置,硬刚深蓝SL03? 车企3月购车权益深度解析,谁才是真优惠? 鸿蒙智行、理想、蔚来、小鹏及零跑等公布2月销量 马自达跻身俄罗斯新车市场周销量前十 特斯拉痛失欧洲纯电动车品牌销冠,大众登顶;欧洲插混市场大众亦超越奔驰 尚元智行获嘉兴桐乡无人驾驶车辆道路测试牌照 奇瑞首款纯电皮卡威麟R08 EV即将上市 路特斯Eletre在加拿大或降价近半 混动版车型也在开发中 福特因发动机舱加热器存起火风险 在美加召回超45万辆汽车 2026 款斯巴鲁 WRX 入门版车型重磅回归 Waymo扩大奥斯汀全无人驾驶服务范围 特斯拉Robotaxi车队规模达200辆 3.1亿人的养老需求,能靠机器人来解决吗? 现代汽车聘请英伟达、特斯拉前高管领导自动驾驶业务 蛰伏四年首笔投资,字节终于落子机器人这盘棋 小鹏启动1000座”移动充电站“计划:春运途中为其它车主紧急充电 AI太记仇!做完心理治疗后仍记得“被工程师虐待” 百川智能发布开源医疗模型Baichuan-M3,性能超越OpenAI GPT-5.2 2027款奔驰EQS路测图曝光:800V架构,自研eATS 2.0电机 字节再次上调期权价格:较去年8月涨近13%,较2019年涨幅超4倍 雷军:小米YU7女车主很多,专为女车主做了全车况、全席位安全气囊保护设计 小米回应“绿化带战神”标签:有人刻意收集视频恶意剪辑带节奏 俄罗斯街头惊现山寨版特斯拉Cybertruck,原型是中国魏桥新能源货车 雷军回应小米YU7轮胎曾被黑成“面条胎”,称“是很均衡的胎” 小米YU7为何采用长车头?雷军称好看且更安全,现场搬起前机盖 百度AI芯片公司冲刺IPO:出货量国产第二