AI政策
共 30 篇文章
OpenAI与太平洋西北国家实验室联手打造新基准,或用AI实现联邦审批流程15%效率提升
OpenAI与美国国家实验室合作开发DraftNEPABench基准测试平台,旨在利用AI编码代理加速联邦项目审批中的环境影响评估环节。该系统采用双代理架构,通过真实案例测试展示出在法规遵循性和报告起草效率上达到89%准确率,可节省约15%工作量。面对联邦工程审批周期过长导致的项目延误问题,DraftNEPABench为AI辅助决策提供了量化依据,在保持环境评估严谨性的同时提升效率,尤其适用于当前美国政府大规模基建投资需求。该项目不仅代表AI技术在法规审查中的新应用,更展示了科技与政府流程整合的潜在方向。
欧盟AI法案实施细则出台:企业如何合规?(深度分析)
欧盟发布AI法案实施细则,为企业的AI系统开发和部署提供具体指导。...
美国发布AI行政命令:平衡创新与安全(更新)
美国总统签署AI行政命令,旨在促进AI创新的同时确保安全和公平。...
AI标准体系建设加速:国际标准化组织发布多项AI标准
国际标准化组织加速AI标准体系建设,发布多项AI技术和服务标准。
AI标准体系建设加速:国际标准化组织发布多项AI标准(深度分析)
国际标准化组织加速AI标准体系建设,发布多项AI技术和服务标准。...
OpenAI揭秘本地化策略:如何调整AI以适应不同文化法规
OpenAI今日披露其模型本地化策略,采用'多语言知识蒸馏'技术:利用单语言高质量模型作为教师进行训练,提升AI在不同语言、法律体系和文化下的适应性。同时,该公司强调在本地化过程中保持安全性与合规性的平衡,并通过独特的'双轨制'架构——全球通用知识库与可更新本地化模块相结合,以降低计算成本并快速响应政策变化。这一方案借鉴最新学术成果,在OpenAI第三次调整模型本地化方法中首次实现高效多语言蒸馏,为中国本土大语言模型厂商提供了有价值的参考。然而,该技术仍面临信息偏差等挑战,未来随着更多企业披露经验,AI本地化能力有望进一步提升。
OpenAI 推出基于信任的网络安全框架,扩大前沿能力访问并强化保护措施
OpenAI 推出 'Trusted Access for Cyber' 网络安全框架,旨在为研究人员提供更广泛的先进网络能力访问权限的同时加强安全保障。该框架基于三个核心支柱:技术验证机制、伦理委员会审核以及为授权用户提供安全隔离环境。此举反映了 AI 技术快速发展与日益严格的网络安全监管之间的张力,也回应了行业对于更强大漏洞研究工具的需求。然而,该框架的透明度、防止恶意使用的有效性以及对全球网络安全监管模式的影响引发了讨论和担忧。OpenAI 希望通过这一框架,既能促进网络安全研究的发展,又能确保负责任地应用 AI 技术。
AI人才争夺战升级:各国推出优惠政策吸引AI人才(更新)
全球AI人才争夺战持续升级,各国纷纷推出签证、税收等优惠政策吸引顶尖AI人才。...
OpenAI发布欧盟经济蓝图2.0,新数据与合作加速人工智能在欧洲的采用
OpenAI与欧盟委员会联合启动并发布了《欧盟经济蓝图2.0》,这份由微软、亚马逊和谷歌的12位AI专家共同撰写的报告,旨在为欧盟在AI领域的领先地位提供战略指导。新版蓝图涵盖算法透明性、数据空间升级、人才加速培养等五大模块,提出设立50亿欧元人才培养基金,并建议欧盟发展量子计算能力。该报告被视为欧盟与科技巨头首次实质性对话的重要成果,将为即将二读的《人工智能法案》提供参考依据。
EMEA青年福祉基金开放申请:€500,000支持 NGOs 和研究人员在 AI 时代推进青年安全
EMEA青年福祉基金于2024年3月启动,总额50万欧元为期两年的资助计划,聚焦人工智能时代EMEA区域内青年的安全与福祉。该项目特别要求申请团队中至少有一名具备AI深度技术理解的研究人员,以确保评审的专业性。五家机构(三家NGO、两家教育合作组织)获批资助,金额各异且仅两家与科技巨头合作。此计划正值欧盟委员会下一代AI法案公开征求意见,被视为欧盟青年AI议题的影子行动,在全球AI治理激烈辩论中展开实践探索。