欧盟限制AI应用草案 加强监管高风险AI、禁监视行为

人工智能(AI)应用越来越普及,不少国家都拟法例监管AI使用,而近日欧盟便提出新法案管制AI应用方法。欧盟日前公布限制AI应用的严格草案,其中包括加强监管高风险AI应用以及通过AI进行的监视行为,并期望为AI技术创建国际标准。

日前,欧盟公布限制AI应用的严格草案,其中指出应该根据风险高低分类,其中有关重大基础建设、大学入学筛选系统及银行贷款审查系统等高风险AI应用应加强监管,而在新草案下,企业将受到欧盟严格监管,如有违例者将面临最高全球年营收6%的罚款。

另外草案中也提到企业在球场或商店使用人脸识别系统侦测人群前,必须先向主管机关提出报告,详细描写人脸识别系统如何取得资料后才能使用,另外,警方在公共场所使用即时远程生物识别系统,或是能够读取潜意识的AI技术也被即时禁止,但在寻找人质、恐怖份子或案件嫌疑犯时则不受此限。

欧盟执委会执行副主席Margrethe Vestager表示,新草案主要针对为人类社会带来风险的特定AI应用,若然草案成功通过,将成为全球第一套管制AI的法规。

数据源:RFI