根据泄露的白皮书,欧盟立法者正在关注基于风险的AI规则

欧洲委员会正在根据Euroactiv获得的一项规范人工智能的提案草案,考虑暂时禁止使用面部识别技术。

创建规则以确保AI是“可信赖且人性化的”

但是,泄露的提案表明,欧盟执行机构实际上倾向于调整现有规则和部门/应用特定风险。评估和要求,而不是像部门要求或禁令这样坚决的要求。

泄露的委员会白皮书浮现了一个想法,认为可能需要三到五年的时间才能使用面部识别技术在公共场所被禁止使用–给欧盟立法者时间来设计评估和管理使用该技术的风险的方法,例如人们的隐私权或算法有偏见造成歧视性影响的风险.

“这将保护个人权利,尤其是防止任何可能的技术滥用,”委员会写道,并补充说:“有必要预见某些例外,尤其是研究方面的活动

但是,该文本引发了人们甚至对有时限的禁令的紧迫关注,该禁令被描述为“可能影响该技术发展和采用的深远措施。”,并且委员会接着说,“现阶段”的优先选择是依靠现有的欧盟数据保护规则,也就是《通用数据保护条例》(GDPR)。

白皮书中包含一些该委员会仍在考虑更广泛地规范人工智能的使用的选择。

这些范围包括自愿标记;对公共部门施加部门要求(包括使用面部识别技术);对“高风险”应用程序(例如在医疗保健,运输,警务和司法等风险部门内以及“可能对个人或法人产生法律效力或带来风险的”应用程序)中基于风险的强制性要求受伤,死亡或重大财产损失”);

该提案还强调,有必要创建监督治理制度以确保遵守规则,尽管委员会建议让成员国自行选择是否

委员会在白皮书草案中表示,其对AI进行监管的优先选择是方案3和4&A。5:对开发人员(无论AI应用程序的任何子集都被视为“高风险”)的基于风险的强制性要求,可能会导致某些“强制性标准”,以及对现有产品安全和责任法规的相关调整,以及因此,它似乎倾向于相对宽松的方法,侧重于“在现有欧盟法律的基础上创建”,并为“高度可操作性”子集创建特定于应用程序的规则。风险”的AI应用/使用-甚至可能不会暂时禁止使用面部识别技术。

白皮书中的大部分内容还讨论了有关“支持开发和应用”的策略。委员会写道:“采用AI技术”和“促进数据访问”。

“这种基于风险的方法将重点关注公众面临风险或重大法律利益受到威胁的领域。”“这种严格针对性的方法不会给被视为’低风险’的申请增加任何新的行政负担。”

负责内部市场业务的欧盟专员蒂埃里·布雷顿(Thierry Breton)表示反对为去年,人工智能–告诉欧盟议会,他“不会成为监管AI的声音”。

对于“低风险”AI应用程序,白皮书指出GDPR中的规定使个人有权接收有关自动处理和配置文件的信息,并设置执行数据保护影响评估的要求。

尽管该法规仅定义了对自动处理的有限权利和限制,但在某些情况下对涉案人员有法律或类似的重大影响。因此,目前尚不清楚它在“低风险”应用程序中的适用范围。

如果委员会的意图还在于依靠GDPR来监管较高风险的事物,例如警察部队讲师Michael Veale博士说,使用面部识别技术-而不是创建一个更明确的部门框架来限制他们对高度隐私-敌对的AI技术的使用-可能会加剧本已令人困惑的涉及执法的立法状况

“在执法领域,尤其是在执法领域使用公私伙伴关系方面,情况极为不明。我要说的是,GDPR实际上禁止了在监视环境中私营公司的面部识别,而没有成员国利用其减损的权力主动将豁免权立法成法律。但是,面部识别公司存有疑虑的商人希望将大量不确定性纳入该法律领域,以使其业务合法化。”他告诉TechCrunch。

“因此,非常明确的做法将是非常受欢迎的,”Veale添加了。“然而,问题不仅仅限于面部识别:任何类型的生物识别监控,例如声音或步态识别,都应被禁止,因为实际上它们对个人具有相同的影响。”

为人工智能政策委员会提供咨询的咨询机构在去年的一份报告中提出了一些建议,包括建议禁止将人工智能用于公民的大规模监视和社会信用评分系统。

但是,隐私和权利专家批评其建议未能套现,原因是未能掌握更广泛的社会力量失衡和AI可能加剧的结构性不平等问题,包括对现有的侵犯权利的商业模式进行增压。

去年Veale将咨询机构的工作称为“错失的机会”,他写道,该小组“在很大程度上忽略了基础设施和权力,这应该是围绕法规和政府的核心关注点之一,即使不是最大的关注点之一。数据,优化和“人工智能”在欧洲取得的成就”。