12 月 14 日,不列颠哥伦比亚省,阿尔伯塔省和魁北克省政府命令面部识别公司 Clearview AI停止收集和删除未经他们同意而获得的人的图像关于依赖自动人脸分析技术的人脸识别系统风险的讨论往往集中在公司,国家政府和执法部门但最令人担忧的是面部识别和分析如何融入我们的日常生活
亚马逊,微软和 IBM 已停止向警察部门提供面部识别系统,因为研究表明算法偏见严重错误地识别了有色人种,尤其是黑人。
Facebook 和 Clearview AI 已经处理了在未经人们同意的情况下建立数十亿人脸模板数据库的诉讼和和解。。
在英国,警察因在公共场所使用实时人脸识别而面临审查中国政府通过面部扫描技术追踪其少数民族维吾尔人
可是,要掌握这些系统的范围和后果,我们还必须注意日常用户的随意行为,他们以常规方式应用面部扫描和分析,这些行为会导致隐私受到侵蚀并加剧社会歧视和种族主义。自2015年以来,海关和边境保护局一直在使用面部识别技术对乘坐国际航班的非美国居民进行筛查,该项目由特朗普政府加速实施。
作为移动媒体视觉实践及其与社会不平等的历史联系的研究人员,我定期探索用户行为如何围绕隐私和身份等问题建立或改变规范在这方面,人脸分析系统和产品在我们日常生活中的采用和使用可能会达到一个危险的临界点
日常面部扫描
检测面部特征的开源算法使面部分析或识别成为应用程序开发人员的简单附加组件我们已经使用面部识别来解锁我们的手机或支付商品费用集成到智能家居中的摄像机使用面部识别来识别访客以及个性化屏幕显示和音频提醒手机摄像头的自动对焦功能包括人脸检测和跟踪,而云照片存储通过匹配和分组它在我们制作的图像中识别的人脸来生成相册和主题幻灯片
许多应用程序都使用面部分析,包括社交媒体过滤器和配件,这些应用程序会产生人工老化和动画面部特征等效果用于美容,星座或种族检测的自我提升和预测应用程序也会根据面部扫描生成建议和结论
但是,使用人脸分析系统进行星座运势,自拍或识别走在我们前面的人可能会产生长期的社会后果:它们可以促进大规模监视和跟踪,同时维持系统性的社会不平等。去年,美国政府制定了开始将筛查工具扩展到美国公民的计划,这将要求他们在离开美国时通过一个称为生物识别途径的系统进行面部扫描。
偶然风险
伴随着时间的推移,这种低风险和快速回报的用途可以让我们更普遍地进行面部扫描,为跨不同环境的更广泛的系统打开大门我们无法控制——也很少了解——谁运行这些系统以及如何使用数据
如果我们已经对我们的面部进行了自动检查,不仅在我们同意的情况下,而且在我们积极参与的情况下,那么在我们穿过公共空间或访问服务时接受类似的扫描和分析可能看起来并不特别具有侵入性。今天的新闻展示了TSA将如何采用相同的技术,与CBP合作为国际旅客提供生物识别技术,将安全操作扩展到TSAPrecheck成员,并最终使用面部识别来验证国内旅客。
此外,我们个人对面部分析技术的使用直接有助于开发和实施更大的系统,用于跟踪人口,对客户进行排名或开发用于调查的嫌疑人池公司可以收集和共享将我们的图像与我们的身份联系起来的数据,或者用于训练人工智能系统进行面部或情感识别的更大数据集
即使我们使用的平台限制此类用途,合作伙伴产品也可能不会遵守相同的限制私人个人新数据库的开发可能是有利可图的,尤其是当这些数据库可以包含每个用户的多个面部图像或可以将图像与识别信息相关联时
。声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。