欧盟正式发布AI法案实施细则,为企业的AI系统开发和部署提供了更加具体的指导。
细则对高风险AI系统的评估标准、数据质量要求、透明度义务等进行了详细规定。企业需要对其AI系统进行全面的风险评估,并建立相应的合规体系。
业内专家建议,企业应尽早开始合规准备工作,以避免可能的法律风险和经济损失。
实施细则对高风险AI系统的要求包括:进行基本权利影响评估、确保训练数据的质量和代表性、建立技术文档和记录保存制度、实施人工监督机制、以及向用户提供清晰的信息披露。
在评估标准方面,细则规定了高风险AI系统必须满足的性能指标,包括准确性、鲁棒性、网络安全性和透明度。系统需要通过第三方合格评定机构的评估,才能在欧盟市场投放。
对于企业而言,合规工作涉及多个方面:需要建立内部的AI治理体系,指定合规负责人;需要对现有的AI系统进行风险评估和分类;需要为高风险系统建立技术文档和合规记录;需要对员工进行AI合规培训。
据估算,大型科技公司为满足AI法案及实施细则的要求,可能需要投入数百万至数千万欧元。对于中小企业而言,合规成本相对较低,但仍需要认真对待。业内专家建议,企业应尽早启动合规准备工作,建立跨部门的合规团队,并考虑聘请外部法律顾问提供专业指导。