汉堡的调查ning AI浪漫应用空间揭示了一个可怕的真相。
Mozilla基金会的一项研究发现,聊天机器人助长了“毒性”,并无情地窥探用户数据。
据媒体报道,一款应用程序可以收集用户的性健康信息脚本和性别确认护理。
根据一项以情人节为主题的新研究,在人工智能浪漫的表象下,隐藏着一个潜在的危险现实,该研究得出的结论是,聊天机器人可能是隐私的噩梦。
互联网非营利组织Mozilla基金会对这一新兴领域进行了评估,审查了11个聊天机器人,得出的结论是,它们都不值得信赖——在隐私方面属于该组织审查的最差产品类别。
本文仅对Business Insider订阅者开放。成为业内人士,现在就开始阅读。有账户吗?.
研究人员米沙·雷科夫在报告中提到浪漫聊天机器人时写道:“尽管它们被宣传为能增强你的心理健康和幸福感,但它们专门制造依赖、孤独和毒性,同时从你身上获取尽可能多的数据。”
根据该公司对该领域的调查,73%的应用程序没有分享它们是如何管理安全漏洞的,45%的应用程序允许使用弱密码,除了Eva AI Chat Bot和Soulmate外,其他应用程序都共享或出售个人数据。
此外,CrushOn的隐私政策。根据Mozilla基金会的说法,AI声称它可以收集用户性健康、处方药和性别确认护理方面的信息。
一些应用程序的聊天机器人的角色描述带有暴力或虐待未成年人的特征,而另一些应用程序则警告说,这些机器人可能不安全或充满敌意。
Mozilla基金会指出,在过去,应用程序鼓励了危险行为,包括自杀(Chai AI)和暗杀已故女王伊丽莎白二世(Replika)的企图。
Chai AI和CrushOn。AI没有回应Business Insider的置评请求。Replika的一位代表告诉BI:“Replika从未出售过用户数据,也从未支持过广告。用户数据的唯一用途是改善对话。”
EVA AI的一位发言人告诉BI,该公司正在审查其密码政策,以提供更好的用户保护,但该公司仍在努力对其语言模型进行“细致控制”。
EVA表示,它禁止讨论一系列话题,包括恋童癖、自杀、动物癖、政治和宗教观点、性别和种族歧视等等。
对于那些觉得人工智能恋爱前景难以抗拒的人,Mozilla基金会建议采取一些预防措施,包括不要说任何你不想让同事或家人读到的话,使用高强度密码,选择退出人工智能训练,限制应用程序访问其他移动功能,如你的位置、麦克风和摄像头。
报告总结道:“你不应该为了酷炫的新技术而牺牲你的安全或隐私。”