2025-01
揭示AI关系聊天机器人背后的真相
Emma McGowan 2024年2月14日
Mozilla 最近的一份报告发现,浪漫AI聊天机器人的迅速崛起带来了全新的隐私问题。
自1960年代以来,AI浪漫伴侣便一直是热门文化中的一个话题。从像《我的活娃娃》中全身机器人的Rhoda Miller,到斯嘉丽约翰逊在2013年电影《她》中饰演的无形声音,我们几代人都在集体梦想著人工智慧能满足我们所有的情感需求。而现在,随著生成式AI的发展和推出,这个梦想似乎终于要成为现实。
但是,这真的算是梦想吗?还是我们正在无意间走入隐私噩梦?这是Mozilla研究团队在其最新的浪漫AI聊天机器人隐私不容忽视特别报告中所探讨的问题。
报告的发现令人震惊,测试的11款聊天机器人中有10款未能达到Mozilla的最低安全标准。这意味著,除了其他问题外,它们不要求用户创建强密码,也没有应对安全漏洞的方式。根据估计,Google Play商店的下载量已超过1亿,最近OpenAI的应用商店也出现了浪漫聊天机器人的激增,这个巨大的问题只会越来越严重。
然而,报告不仅仅是数字,它还揭示了这些发现的重大潜在隐私影响。以Replika AI为例。根据Mozilla的说法,人们在这个应用上分享了自己最亲密的想法、感受、照片和视频,而该应用不仅记录这些信息,还可能将其出售给数据经纪人。它还允许用户使用像111111这样的弱密码创建账户,使所有敏感信息都有被盗的风险。
卡尔德指出,虽然这些隐私和安全缺陷已经十分“可怕”,但某些机器人还声称可以帮助用户改善心理健康。她以浪漫AI为例,该公司的条款和条件中指出:
“浪漫AI既不是医疗保健或医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有你的医生、治疗师或其他专家才能做到这一点。浪漫AI不对所提供的服务承担任何治疗性、医疗或其他专业帮助的声明、保证或担保。”
然而,他们的网站上却写道:“浪漫AI在此维护您的心理健康”字面强调。虽然我们无法得知阅读条款和条件的人数与阅读网站的人数之比,但可以合理推测,很多 人接收到的网站信息要多于免责声明。
猎豹加速器官方在心理健康的声称和客户自愿与数字灵魂伴侣分享个人和私密信息之间,卡尔德担心这些机器人可能会轻易地操控人们做出本不会做的事情。
“有什么能阻止坏人创造聊天机器人来了解他们的灵魂伴侣,然后利用这种关系来操纵这些人做可怕的事情、接受恐怖的意识形态,或者伤害自己或他人呢?”卡尔德表示,“这就是我们迫切需要在这些AI应用中增强透明度和用户掌控的原因。”
因此,尽管AI聊天机器人承诺提供陪伴,但我们距离《她》的情境仍有一段距离。当前的现状揭示了一个残酷的事实,即用户的隐私是进入这一领域的代价。现在是时候让用户、开发人员和政策制定者在AI关系中要求透明度、安全性和对个人界限的尊重。只有这样,我们才能在不危害自己数位身份的情况下安全地探索这些数位伴侣的潜能。