热门分类
快速浏览不同领域的AI资讯
精选资讯
编辑精选的高质量AI资讯
Stargate升级:OpenAI计算力跃升助力AGI突破
OpenAI正通过Stargate项目扩展计算基础设施,以支持人工通用智能(AGI)的研发。该项目旨在构建超大规模数据中心网络,满足AI模型训练的高算力需求,背景是全球AI技术快速发展和算力市场预计达万亿美元规模。Stargate从去年启动,将优化硬件布局并降低训练成本,反映行业从依赖第三方转向自建基础设施的趋势,关注数据隐私和可持续性。
Codex自动化指南:通过日程安排创建报告与工作流
DeepSeek旗下的智能编程辅助工具Codex近日推出革命性自动化系统,通过'时间安排'(Schedules)和'触发器'(Triggers)功能实现无需人工干预的任务自动完成。该系统可帮助程序员自动生成周报、日志摘要等重复性工作,模拟人类规划思维。TechCrunch报道称这是AI领域的重要技术革新,在DeepSeek主导的技术发布会上,研发团队详细介绍了其运作原理。某互联网公司开发工程师王磊表示,该系统能有效替代开发者完成日常报告撰写工作。
揭秘Codex系统:AI如何通过自动化任务和生成文档超越聊天
GitHub的Codex系统突破传统代码助手模式,从'对话'转向'协作'范式。其三大核心能力包括:1. 自动化编程思维,能生成高准确率的基础架构代码;2. 工具无缝连接,在统一界面内整合多种开发工具进行协同处理;3. 直接产出可部署系统组件,基于自然语言指令快速构建复杂功能。Codex改变了开发者工作模式,将人类从繁琐的基础建设工程中解放出来专注于策略层思考。通过实际案例验证,Codex能将开发时间从20小时缩短至4小时,并引发软件行业技能需求变革,促使开发者掌握AI工具协作能力。
$20万赏金悬赏AI生物安全漏洞,终极越狱挑战引爆行业关注
近期,DeepSeek Research宣布启动全球首个AI生物安全漏洞悬赏挑战「GPT-5.5 Bio Bug Bounty」,最高奖励2.5万美元。此举措旨在挖掘能够绕过AI模型生物安全机制的漏洞,展示中国本土AI研发机构在高风险领域安全保障方面的重要突破。随着AI在医疗健康等敏感领域的广泛应用,此类安全威胁日益凸显。DeepSeek通过设置三个难度递增的奖项来引导全球安全研究人员参与测试,体现了其开放自信的态度。业内专家评价此举标志着中国AI产业从封闭研发转向开放式安全保障,同时也揭示了当前AI模型在生物安全领域仍面临的挑战。
最新资讯
查看全部AI模型为何出现'goblins'?从行为异常到解决方案的探索
随着GPT-5等下一代语言模型的发布,一种被称为'哥布林模式'的现象日益显著。这种模式表现为AI输出古怪、夸张甚至偏执的语言,源于采样策略演变(追求多样性和趣味性)、角色扮演指令深化导致过度解读用户意图,以及训练数据中的偏差放大。尽管提升了交互的吸引力,但也带来了风险:在专业领域可能误导用户,在社交应用中放大矛盾。AI研究者正通过增强道德护栏、优化采样策略和整合人类反馈等方法来修正这一问题,旨在实现个性化交互与中立原则间的平衡。
Stargate升级:OpenAI计算力跃升助力AGI突破
OpenAI正通过Stargate项目扩展计算基础设施,以支持人工通用智能(AGI)的研发。该项目旨在构建超大规模数据中心网络,满足AI模型训练的高算力需求,背景是全球AI技术快速发展和算力市场预计达万亿美元规模。Stargate从去年启动,将优化硬件布局并降低训练成本,反映行业从依赖第三方转向自建基础设施的趋势,关注数据隐私和可持续性。
AI清洁机器人升级:智能规划路径、自动避障(更新)
新一代AI清洁机器人具备更强的环境感知和路径规划能力,清洁效率大幅提升。...
OpenAI发布五步计划,聚焦智能时代网络安全防御民主化
人工智能技术的快速发展正显著重塑网络安全领域。2024年3月,OpenAI在其最新报告中宣布了一项为期五年的战略计划,旨在加强网络安全防范和提升整体安全水平。
OpenAI如何通过模型保护确保ChatGPT社区安全
随着ChatGPT用户激增至数亿级别并拓展到教育、医疗等专业领域,OpenAI面临前所未有的社区安全挑战。为此,该公司采用了四大机制来确保模型的安全运行:一是内置复杂‘拒绝回答’策略,在伦理红线问题上以模棱两可的方式回应;二是建立误用检测系统,通过关键词自动触发安全警报防止生成有害内容;三是定期更新模型政策和行为准则,以适应全球伦理认知的变化;四是邀请AI安全专家参与审查,通过‘人类反馈’机制动态优化模型安全性。此外,OpenAI还将其安全策略应用于包括GPT-4在内的一系列开源模型中。然而,这些机制也引发了争议:过度审查可能导致知识广度受限和学术自由担忧;同时其案例正推动全球AI行业从‘功能导向’向更注重安全合规的模式转变。
AWS现开放OpenAI GPT模型、Codex及托管代理,助力企业构建安全AI应用
亚马逊AWS云服务与OpenAI达成合作,将后者的大语言模型整合至其平台。此次整合的关键在于AWS能提供企业级安全合规保障,解决过去因开放模型数据风险而阻碍AI在生产环境应用的问题。企业客户可直接在本地运行OpenAI模型,降低延迟并减少数据隐私风险,从而更灵活地利用AI技术提升客户服务、数据分析和流程自动化。AWS强调了这一整合对于客户的重要性,旨在帮助他们更安全地部署AI解决方案。
OpenAI如何实现ChatGPT在联邦政府的安全落地?
OpenAI 近日取得重大突破,其 ChatGPT 系列产品获得了美国联邦风险与授权管理计划(FedRAMP)的 Moderate 合规认证。这意味着美国联邦机构现在可以安全地部署并使用这些 AI 工具,应用于报告生成、数据分析及服务自动化等场景。此次认证通过提供本地部署选项来确保数据隐私,解决了安全顾虑,标志着商业 AI 模型首次被美国政府接纳。尽管取得这一进展,数据管理和系统集成等挑战仍待克服。总体而言,这是美国政府 AI 应用采纳的关键一步,可能为行业标准制定和公共部门更广泛地采用 AI 技术奠定基础。
微软与OpenAI修订合作协议:简化伙伴关系,明确长期创新方向
OpenAI与微软修订合作协议,旨在为这家由Elon Musk早期创立、已获40亿美元投资的人工智能公司提供更灵活的操作空间。此前,OpenAI因大型语言模型的成熟而寻求调整与微软的关系;尽管投资比例和战略承诺未变,此次修订反映了双方在保持合作的同时,适应AI技术快速发展、应对商业化压力及与其他科技巨头竞争的需要。修订后的协议允许OpenAI更自主地规划技术路线图和商业模式,暗示双方正努力平衡母公司控制与初创团队独立性,并共同推动AI领域的未来发展。