-
安全产品
停止空谈,开始行动:人工智能监管即将到来,您需要做好准备
在过去一年里,随着对生成式人工智能的兴趣激增,人工智能被炒得越来越热,世界各国政府纷纷制定计划来监管这项技术也就不足为奇了。
虽然企业和人工智能公司都知道监管即将到来--他们怎么会不知道呢?- 但许多人对未来的复杂性准备不足。 随着监管法规即将在世界各地的司法管辖区出台,现在是时候停止谈论监管法规的模样,开始行动起来了。
对于在欧洲运营的公司来说,拟议中的欧盟人工智能法案迫在眉睫。这一法律框架将大大加强欧盟当局监控人工智能发展的权力,并有可能对违反规则的公司处以罚款。根据世界经济论坛的分析,该法案的核心是一个分类系统,用于评估人工智能发展对 "人的健康和安全或基本权利 "造成的风险。
虽然实施期为两年,但欧盟人工智能法案包括对违规行为的罚款,这对尚未开始为新法规做准备的公司来说是一个真正的威胁。这些罚款总额最高可达 3000 万欧元或上一财政年度全球年营业总额的 6%,以较高者为准。这些都是不可轻视的制裁措施,因此缺乏准备就更加难以理解了。
不做准备,准备失败
为什么这么多公司没有为即将到来的监管做好充分准备?部分原因在于监管机构。虽然我们已经有了一些指导,就欧盟人工智能法案而言,也有了一个粗略的结构,但我们不知道的东西仍然很多。这仍然是一个不断变化的目标,使得合规部门很难理解他们需要采取哪些措施来确保自己符合新规则。
可以肯定的是,由于人工智能的发展速度太快,监管机构也很难做到这一点。这意味着很难制定出不妨碍创新的实用立法。
此外还有其他一些问题,比如缺乏对人工智能有深刻理解的政策专家,以及目前没有技术产品可以让公司在继续专注于核心业务的同时保持合规。这两个因素都有可能改变,但就目前而言,企业还没有遵守人工智能法规所需的工具。
我们不要假装这一切都很容易。现有法规(如 GDPR)和特定行业法规(如软件作为医疗设备(SaMD)的要求)之间存在着复杂的相互联系,所有这些都需要理解并纳入业务决策,但没有任何一项法规能让公司轻松合规。不可避免的是,随着法规的推出,无论是在人工智能特定法规方面,还是在现有的特定行业准则如何适应人工智能方面,都会出现违规和问题。
不合规的风险
根据欧盟《人工智能法》,严重违规的公司将被处以高达 3000 万欧元的罚款,不过监管机构一开始可能会宽大处理,以解决初期出现的问题。尽管如此,这是企业不可忽视的风险。
在规模较大的企业中,存在着停滞不前的危险,即认为不合规的风险太高而不采取行动,因此什么也不做。原地踏步意味着竞争对手可以从单个公司那里获得市场份额,但如果监管阻碍了公司创新,整个生态系统就会面临更广泛的风险。如果企业因担心违规而无法合作,它们就无法获取必要的数据来制造有可能改善世界的人工智能产品。
最后,如果企业没有为人工智能监管做好准备,就会带来更广泛的社会风险。人工智能安全中心(Center for AI Safety)的研究人员最近发表了一篇关于人工智能灾难性风险的公开论文,指出了四类风险。
首先是 "恶意使用",即个人或团体故意使用人工智能造成伤害。第二类是 "人工智能竞赛",竞争环境迫使行为者部署不安全的人工智能,或将控制权让给人工智能。第三是 "组织风险",强调人为因素和复杂系统如何增加灾难性事故的发生几率。最后是 "流氓人工智能",它描述了控制比人类聪明得多的代理人的固有困难。
这听起来可能很可怕,但这强调了加强人工智能监管的原因,以及公司确保做好准备的紧迫性。
人工智能公司能做些什么?
虽然前景令人生畏,但仍有时间为人工智能监管做好准备。工程师、数据监护人和企业主必须确保他们了解即将发生的事情,以及围绕人工智能安全和隐私的更广泛风险,并愿意推出能够让开发人员保持合规的产品。
尽管为即将到来的人工智能法规做准备似乎是一个令人生畏的前景,但好消息是,现在仍有时间来组织和遵守法规。这一过程中的关键利益相关者--工程师、数据保管员和企业主--不仅需要了解即将出台的法规,还需要积极主动地实施有助于合规的解决方案。以下是企业可以遵循的基本步骤:
优先考虑数据隐私和知识产权: 机器学习模型可能会在不经意间 "记忆 "它们所训练的数据,从而引发严重的隐私问题,尤其是在涉及敏感个人信息的情况下。识别并降低这种风险以保护数据隐私和知识产权至关重要。
实施安全的机器学习模型: 机器学习模型无法避免可能危及数据安全的恶意攻击。采用人工智能的公司必须保持警惕,只使用安全、经过审核的模型。
建立健全的数据管理: 数据保管人应实施管理框架,以保持对模型训练中使用的数据集的控制。这包括为在这些数据集上部署哪些算法制定指导方针,确保与更广泛的合规要求保持一致。
构建人工智能产品的公司需要考虑围绕安全性、偏差、安全性和稳健性等领域降低产品风险。要做到这一点,它们必须确保在具有代表性和细粒度的真实世界数据(包括目前尚未使用的敏感数据)上训练模型。
同样重要的是,他们要通过注册模型、提供版权信息摘要以及质量管理和文档,使自己的行为透明化。这样做可以在开发人工智能模型的过程中支持问责制和提升标准。
归根结底,还是数据安全问题。有了对数据的有序、私密和安全的计算访问,就有可能在不牺牲安全性或合规性的情况下打造创新的人工智能产品,而最关键的是要符合监管要求。
不管你愿不愿意,监管即将到来。为了实现创新并打造安全的产品,我们需要引入工具,让公司能够遵守这些新规则。这对每个人都有好处。
文章来源:eu-startups
扫一扫 加微信
hrtechchina