在今年第二次全国代表大会上,全国政协委员蒋浩然提出了一个非常现实的问题。 “如果AI手机滥用系统权限,该如何管理?”以前,大多数移动应用程序只需要访问某些类型的跨应用数据,例如地址簿、相册和位置信息。然而,在AI手机的愿景中,手机不仅要“懂”屏幕,还要“为人操作”。这意味着它必须能够读取屏幕上的信息、模拟点击以及在不同应用程序之间切换任务。从技术上来说,这个功能一般是通过手机“读屏”和自动控制权限来实现的。这就相当于把手机的所有操作功能都交给了程序代理。问题就在这里。当AI可以搜索信息、输入内容、甚至完成交易时当手机像人类一样进行操作时,它将不再接触一般意义上的数据,而是接触用户的完整数字生活。聊天日志、银行账户、支付页面以及原本分散在不同应用程序中的信息可以在人工智能代理面前收集成连续的数据流。如果不严格限制该权限,看似有用的应用很难避免潜在的隐私风险。最近引起关注的一些开源人工智能代理也开始出现类似的隐患。例如,一款名为“OpenClaw”的人工智能工具因其强大的自动化能力而迅速在科技界流行起来。一些技术爱好者正在为他人提供上门安装合作伙伴的服务,在一些城市形成了所谓的“蝗虫安装浪潮”。但人类对新技术热情的背后,往往存在现实问题。如果自动化农业如果用户获得了更高的系统权限,则可能会对用户的设备产生意想不到的影响。此前,安全研究人员试图让特工整理邮箱,但程序改变了任务路线,直接删除了大量电子邮件。我已经删除了。即使是熟悉人工智能的专家和工程师也发现很难完全预测其行动过程。当然,监管机构并不会忽视这些风险。 3月初,工信部网络安全漏洞威胁信息共享平台发布安全提醒,指出部分OpenClaw服务默认配置存在较高安全风险,可能导致信息泄露和滥用。某种程度上,这一警告也表明,随着人工智能开始直接接管手机操作系统,传统的软件安全模型将不再足够。从支持人工智能的手机到开源智能代理,这些看似并行现象实际上是同一趋势的一部分。人工智能正逐渐从“为人类提供建议”走向“代表人类行事”。到目前为止,人工智能一直专注于对话、搜索和推荐,但新一代系统旨在直接代表人类执行任务,例如预订航班、回复电子邮件、填写表格甚至完成购买。一旦进入这个阶段,技术问题不仅涉及算法功能,还涉及手机的权限结构。当人工智能代表人类运行应用程序时,本质上是“代理行为”。在现实世界中,代理人需要明确的权限、职责分工以及对其行为的限制。然而,在目前的AI手机设计理念中,这套规则还非常模糊。目前,公众对人工智能的态度主要限制了我们对人工智能流利写作、聊天等体验水平的理解。ng 和视频制作。然而,普通用户往往对其权限范围、数据流向以及潜在的隐私风险缺乏足够的判断。与此同时,学术界、产业界和监管机构之间关于AI代理技术的争论仍在进行中,处于早期阶段,相关法律和治理规则尚未完全形成。历史经验表明,数据安全问题只有在大规模应用后才会引起公众的关注。事实已多次表明,等到重大隐私泄露事件发生后再修复系统漏洞往往代价高昂。更重要的是,人工智能技术的竞赛正在进入全球市场。未来10到20年,中国科技公司在海外市场的发展很大程度上取决于能否通过各国严格的隐私和合规检查。无论是由于欧盟数据保护规则还是其他地区更严格的数字监管,欧盟正在实施更严格的要求对公司的评论。因此,AI手机的发展不仅仅是技术能力,更是合规能力。随着智能代理逐渐成为网络世界中的人类代理,如何为他们设定清晰的行为边界可能变得不如功能创新本身重要。换句话说,人工智能替人类“做事”可能是技术发展的必然方向,但在这个过程中,隐私和安全不应该是事后可以解决的偶然问题,而是从技术设计之初就认真考虑的前提条件。只有这样,才能在不牺牲个人数据安全的情况下,实现人工智能带来的便利。张彤 来源:中国青年报
(编辑:杨淼)