来自联邦科学和工业研究组织(CSIRO)的Data61、澳大利亚网络安全合作研究中心(CSCRC)和韩国成均馆大学的研究强调说某些触发因素可能是智能安防摄像头的漏洞。
研究人员测试了如何使用一个简单的物体,比如一件特定颜色的衣服,来轻松地利用、绕过和渗透YOLO,一种流行的目标检测相机。
在第一轮测试中,研究人员使用了一个红色的无檐帽来说明它可以作为一个“触发器”,让受试者在数字环境下消失。
研究人员证明,YOLO摄像头最初能够检测到受试者,但戴上红色的无檐帽后,他们没有被检测到。
在一个类似的演示中,两个人穿着同样的t恤,但颜色不同,结果相似。
Data61网络安全研究科学家Sharif Abuadbba解释说,他们感兴趣的是了解人工智能算法的潜在缺陷。
他说:“尽管人工智能具有有效识别很多事物的能力,但问题是在本质上它是存在对抗性的。如果人工智能模型没有经过训练就来检测所有的各种情况,就会造成安全风险。”
“在上面的实验中我们发现,如果你使用智能摄像头报警器作为监视器,那么那个戴着红色无檐小便帽的人可能会走入和走出而不会被识别。”
Abuadbba认为,通过认识可能存在的漏洞,可以作为一个警告,让用户思考用于训练智能相机的数据。例如,如果你的组织对数据很敏感,那么你需要生成自己信任的数据集,并在监督下对其进行培训……或者选择性地使用这些获取的模型。
Twitter用户最近发现了类似的算法缺陷,因为他们发现社交媒体平台的图像预览裁剪工具自动偏向于白人而不是黑人。
一位白人用户Colin Madland在访问Twitter强调视频会议软件Zoom中的种族偏见后就发现了这一点。
当Madland发布自己和他的黑人同事的照片时,由于算法无法识别他的脸,在使用Zoom呼叫使用虚拟背景时,他的头部被擦掉了,Twitter自动裁剪了图像,只显示Madland的脸。
Twitter回应称,他们将继续测试其算法是否存在偏见。
Twitter首席技术官Parag Agrawal和CDO Dantley Davis在博客中写道:“尽管到目前为止,我们的分析还没有显示出种族或性别偏见,但我们认识到,自动裁剪照片的方式意味着存在潜在的危害。在最初设计和制造这款产品时,我们应该做的更好,预测这种可能性。”
“目前,我们正在进行更多的分析,以进一步加强我们的测试的严密性,我们致力于分享我们的发现,并正在探索开源分析的方法,以便其他人可以帮助到我们。”
(本文出自SCA安全通信联盟,转载请注明出处。)