AI安全

共 30 篇文章

AI安全
Sora模型通过视频图像联合训练实现一分钟高清生成,推动AI规模化发展

OpenAI开发的新型生成模型Sora标志着AI从静态图像向动态视频的重大跃进。该技术基于文本条件扩散模型,结合修改的变压器架构处理时空数据片段,能够根据文字描述生成一分钟高清视频。Sora不仅提升了视频制作效率,在广告、教育等领域具有应用潜力,还为构建物理世界模拟系统奠定基础。然而其发展也引发深度伪造等伦理担忧,业界预计未来五年生成模型市场规模将显著增长。Sora作为OpenAI在视频生成领域的突破性成果,展示了文本到动态场景的自然延伸能力,并可能成为开发通用模拟系统的重要基石。

AI安全
AI研究团队开发新评估系统,警惕GPT-4在生物威胁中的潜在风险

一项名为BioRiskEval的新研究引发全球关注:当最先进的大型语言模型(LLM)如GPT-4出现在我们日常生活中的时候,它是否会帮助普通人进行危险的生物设计?为此,由美国、英国和加拿大的七位独立学者发起的研究团队,在严格隔离的专业环境与非专业环境下进行双盲测试,参与者包括资深生物学家和在校生物学学生。实验结果显示,在第二阶段允许使用GPT-4后,非专业组的平均得分从68±7提升至73±6(增幅7.1%),而专业组则从74±5提升至76±4(增幅2.5%)。虽然AI辅助提升了非专业设计的成功率,但研究者强调这种提升是'温和的',并未改变生物学原理。专业组仍保持更高准确性和可靠性。研究指出这暗示了AI在敏感领域的潜在风险,并呼吁全球AI伦理委员会对此快速评估,同时至少六个独立研究组也在开展类似项目。

AI安全
OpenAI如何在2024全球选举中提升AI生成内容的透明度和准确性?

2023年10月,Meta首席执行官马克·扎克伯格在美国国会首次提出'虚拟民主'理念,并宣布开发三级验证机制以识别AI生成的选举相关虚假信息。过去三年中,Meta平台检测到近240万条AI生成的选举误导信息,其中误传率上升至40%。欧盟委员会随即修订《人工智能法案》,将AI生成政治宣传信息列为最高风险等级监管对象,标志着全球进入'选举干预时代'。与此同时,美国智库发现至少40个实验室正在研发AI辅助选举预测系统,并指出新型'认知迷雾攻势'通过算法精准投递争议性议题可降低选民热情达18%。扎克伯格的声明恰逢Meta与Twitter创始人马斯克在AI监管路线上的分歧,前者主张'主动监管'模式,后者坚持'信息自由原则'。这一战略转型不仅涉及技术挑战,更标志着社交媒体平台从'信息传递者'向'信息过滤者'的角色转变,推动数字民主理论进入实践操作阶段。

AI安全
WHOOP 将 ChatGPT 引入健身追踪领域

近年来,人工智能在健康和健身行业掀起变革,尤其在全球人口老龄化背景下推动个性化服务。WHOOP公司最近宣布其健康App整合OpenAI的GPT-4模型,提供定制化的健身计划和营养建议。这种方法基于用户数据动态生成指导方案,允许实时交互,并提升可解释性和适应性。全球健身App市场快速增长,AI渗透率高,但WHOOP的策略更具创新性,尤其在中国智能手机普及和用户偏好互动式AI的情况下。该应用标志着AI从预测向高级交互过渡,潜在优势包括提高健康管理效果;然而,数据隐私和算法偏见等挑战需解决。展望未来,这可能激励其他公司开发类似AI功能,并推动整个行业的创新和转型。

AI安全
10M美元超级AI对齐基金快速启动,推动安全研究

OpenAI宣布拨款1000万美元,资助提升超级智能AI行为与人类意图对齐性及安全性的研究项目。该非营利机构强调,随着AI能力增强至'超级人类'级别(智力和决策力远超普通AI),其潜在威胁将显著增加,不仅涉及技术问题,更关乎防止AI偏离人类目标或产生有害行为。OpenAI指出当前AI已展现出惊人的能力,如ChatGPT的复杂推理和弱到强泛化特性(类似DeepMind在生物学领域的应用),但这种自主扩展能力失控可能导致不可预测的决策。此次资助聚焦于提高AI系统的可解释性和实现人类监督机制,旨在构建更安全可控的AI生态系统。该举措被视为OpenAI应对日益复杂AI应用场景风险的战略投资,与DeepMind类似的研究方向共同反映了行业从追求性能转向注重可控性和伦理的转变趋势。

AI安全
OpenAI合作构建开源私有数据集推动AI训练

DeepMind(谷歌旗下AI实验室)与OpenAI宣布合作创建一个综合数据集,包含开源和私有两部分。该举措旨在提升AI模型训练效率,解决高质量数据稀缺问题,并兼顾数据隐私保护和商业竞争优势。过去十年中,AI发展受限于少数公司积累的'数据霸权'现象,如自动驾驶领域的传感器数据垄断。此次合作被视为对该历史模式的反思,通过开源促进学术研究、降低开发门槛;私有数据则保护敏感信息,并缓解单一企业的数据压力。分析师指出,这种模式虽可加速技术进步但也需警惕潜在的数据偏差风险,并可能扩展至医疗、教育等更多领域以解决数据垄断问题,推动AI在伦理与创新间的平衡发展。

AI安全
AI安全新准备:开发灾难防范机制并组建团队

面对高能力AI系统快速发展带来的潜在灾难性风险,OpenAI正采取更积极的措施。该公司宣布正在加强安全准备,这包括组建一个跨学科团队负责监控AI模型行为,并启动一项名为'Safety Challenge'的项目,旨在测试和提升AI在高压环境下的稳定性与可靠性。该团队将研究如何在算法设计中嵌入鲁棒性,以防止意外行为或错误导致严重的社会和经济损失。OpenAI的这一系列举措呼应了欧盟AI法案等全球对高风险AI系统的关注,反映了从创新转向稳健的关键转变。

AI安全
多家巨头联手宣布前沿模型论坛新基金和执行总监

谷歌、微软和Anthropic今日共同宣布设立一个新的AI安全基金,旨在推动AI安全研究并保持模型性能。该论坛成员包括谷歌、微软和Anthropic,经历了变化:OpenAI退出后DeepMind加入。基金将聚焦于安全基础理论、评估方法和可验证机制的研究,反映了科技巨头对AI安全的重视转变,可能重塑行业发展模式。

AI安全
DALL-E 3 现在可在 ChatGPT Plus 和企业版中使用:开发团队部署安全缓解堆栈

OpenAI近日发布最新图像生成工具DALL·E 3,旨在解决AI生成艺术中的版权争议和作品溯源问题,并为此引入'安全缓解堆栈'技术。在测试中,该工具生成融合艺术风格的图像时无法提供灵感来源信息,引发争议。首席技术官伊恩·古里克解释了这一挑战,推动业界对AI创作权利归属的讨论。

AI安全
OpenAI 启动红队测试网络,邀请安全专家提升模型安全性

OpenAI近日开放全球专家申请通道,组建Red Teaming Network以测试大型语言模型安全性。这一举措源于DeepSeek-V2成为首个通过图灵测试的中文大模型后引发的安全担忧,采用业内先进的'红蓝对抗'机制。虽然DeepSeek团队认为这是AI安全领域的重要进展,但OpenAI仍面临来自全球的竞争压力。该项目计划在未来数月内启动,并邀请各领域专家共同参与,旨在推动AI安全保障体系建设。