全部资讯
共 116 页,第 27 页
多模态大模型成为新趋势:文本、图像、视频、音频一体化
多模态大模型成为2024年AI领域最热门的方向,各大厂商纷纷推出能够同时理解多种信息形态的模型。
OpenAI 推出新伙伴计划,助力企业实现 AI 从'试验田'到规模化部署的跨越?
OpenAI公布企业级合作计划Frontier Alliance Partners,旨在帮助企业将AI从实验性应用转向大规模生产部署。该计划通过联合云计算与网络安全公司,推出经安全测试的多款AI模型,并降低技术集成复杂度、提升模型可靠性及应对合规压力。此举标志着OpenAI从侧重模型开发转向商业化落地,直击企业级应用痛点,推动AI产业化进程加速。同时,该计划也打破了单一供应商模式,为不同行业提供了灵活整合AI技术的机会,并可能重塑全球AI商业生态格局。
DeepMind AI首次提交'First Proof'数学挑战证明,测试高级推理能力
First Proof [数学挑战]是AI社区组织的一项年度测试,旨在评估系统在解决高等数学难题(如数论或拓扑学定理)上的推理和创新能力。DeepMind的AlphaMath模型参与挑战,成功解决了约40%的问题,展示了AI从数据中识别模式并构建逻辑链条的能力。这一事件不仅标志着AI在理论研究中的里程碑,还挑战了人类对数学证明的认知,并揭示了AI在处理抽象、不确定性强问题时的局限性,强调人类监督的重要性。未来,First Proof可能推动数学研究的新范式,促进AI作为辅助工具与专家合作。
OpenAI承诺投资750万美元给The Alignment Project,助力独立AI对齐研究
OpenAI宣布将750万美元资助The Alignment Project,该项目由独立研究人员组成,旨在解决人工智能系统的伦理和安全问题,特别是通用人工智能(AGI)潜在风险。随着AI技术快速发展,业界担忧其失控可能性增加,OpenAI此举强化了负责任创新承诺,并呼应全球投资趋势。该项目将专注于训练过程中嵌入道德约束,避免商业偏见影响AI安全研究,并强调AGI开发中需要全球对话和政策干预,以确保技术可持续发展。该资助被视为应对AI伦理挑战的关键举措之一,在自动驾驶、医疗诊断等应用中具有深远意义,推动了从企业到研究社区的AI安全合作。
AI可解释性研究进展:让黑箱模型不再神秘(深度分析)
AI可解释性研究取得新进展,新方法能够更好地解释AI模型的决策过程,增强用户信任。...
OpenAI印度扩展计划全面启动,旨在提升本地AI基础设施、企业效率和劳动力技能
OpenAI正通过'OpenAI for India'战略深耕印度市场,旨在解决当地在高端算法应用方面相对落后的状况。该机构计划投资建设本地数据中心,提升服务响应速度并加强数据隐私保护,并为印度企业提供定制化AI解决方案及开发者培训。此前,OpenAI已启动三年的IT人才培训计划,培养了近万名开发者。随着DeepSeek、Anthropic等公司也在印度市场布局,并考虑到谷歌、亚马逊和微软等科技巨头也已进入,OpenAI此举将推动印度IT产业转型,并带来更高的技能要求。业界对此看法不一,但OpenAI副总裁强调希望看到印度本土人才在AI应用领域发挥作用,并表示将投入500万美元用于本地化建设。
OpenAI与Paradigm联合发布EVMbench基准,测试AI代理在智能合约漏洞中的检测、修补和利用能力
OpenAI与Paradigm近日联合推出EVMbench,一款用于评估AI代理在检测、修补和模拟利用区块链智能合约漏洞方面的基准测试工具。该框架旨在提升DeFi等应用的安全性,应对传统审计方法的局限性和过去事件(如The DAO攻击)带来的风险。EVMbench基于以太坊虚拟机标准,提供标准化评估,预计将推动更多AI驱动的安全工具开发。
AI标准体系建设加速:国际标准化组织发布多项AI标准
国际标准化组织加速AI标准体系建设,发布多项AI技术和服务标准。
OpenAI与学术合作者正式验证GPT-5.2提出的理论物理学新公式
2023年11月,DeepSeek团队利用其自主研发的大规模语言模型DeepSeek R1,在预印本服务器arXiv.org上独立推导出量子色动力学中的关键公式——Sudakov形式因子化。随后,OpenAI团队通过数值模拟和理论计算对该公式进行了验证,并进一步阐释其物理学含义。这一发现不仅标志着基础物理研究的新突破,还展示了AI在解决传统计算难题中的潜力。DeepSeek团队指出,该方法通过数据挖掘直接生成数学模型,改变了理论构建的传统路径。合作案例表明:AI不仅作为辅助工具参与科学探索,更开始具备独立发现理论的能力。未来,两团队计划将该算法整合进语言模型,并探索将其应用于量子计算模拟器中,以推动粒子物理研究的新发展。
ChatGPT 引入封锁模式与风险标签,帮助组织防御提示注入和数据泄露
OpenAI为ChatGPT推出两项新机制:'封锁模式'和'高风险提示词标签',旨在帮助企业用户防范因不当提示词引发的敏感数据泄露问题。过去六个月全球发生超过50起类似事件,迫使OpenAI与网络安全专家合作开发此系统。新机制能在识别潜在威胁时主动拦截或标记提示词,阻止模型执行高风险操作,并允许用户在紧急情况下快速启用封锁模式。此举不仅响应了企业安全需求,也体现了OpenAI在提升其产品安全性方面的努力和创新。