AI伦理问题日益受到重视。越来越多的科技公司开始成立专门的AI伦理委员会,负责监督AI技术的开发和应用。
这些委员会通常由技术专家、伦理学家、法律专家等组成,负责评估AI项目可能带来的伦理风险,并提出相应的改进建议。
这一趋势表明,科技行业正在逐步建立负责任的AI开发实践。
目前,Google、Microsoft、Meta、Anthropic等主要科技公司均已成立了AI伦理委员会或类似的治理机构。这些委员会的职责包括审查AI项目的伦理合规性、制定AI开发的伦理准则、处理AI应用引发的伦理争议等。
在运作模式上,不同公司的AI伦理委员会存在差异。有些委员会拥有实际的项目否决权,能够阻止不符合伦理标准的项目上线;有些则主要发挥咨询和建议作用。Anthropic的做法较为前沿,其伦理委员会深度参与模型训练过程,通过'宪法AI'方法将伦理原则嵌入模型本身。
然而,AI伦理委员会也面临一些批评。部分批评者指出,由公司自行设立的伦理委员会可能存在利益冲突,其独立性和权威性难以保证。
业内专家呼吁,AI伦理治理应建立更加透明和独立的机制,包括引入外部监督、公开伦理评估结果、建立行业统一的伦理标准等。