AI安全

共 30 篇文章

AI安全
OpenAI发起10个基金,探索AI民主决策机制

OpenAI 发起名为 '算法民主' 的项目,计划在两年内向全球10个研究团队各提供10万美元资助。该项目旨在支持设计能够将人工智能伦理融入社交民主进程的新算法决策机制,以解决过去出现的争议(如ChatGPT版权问题)。OpenAI 正在探索三种模型——公民陪审团、在线投票模拟和算法进化,以便在自动驾驶系统等敏感领域实现人类对AI行为的监督。该项目目标是通过结合社区意见与技术进步,在可操作性和安全性等挑战中找到平衡点。

AI安全
ChatGPT新增数据控制功能:用户可关闭聊天历史以选择训练对话

ChatGPT增加了用户数据控制功能,允许使用者屏蔽对话历史并选择将其用于模型训练。此前该AI会自动追踪用户输入以改进算法,引发隐私担忧。此次更新源于OpenAI对反馈的响应,并受GDPR等行业法规影响,被视为提升用户信任和应对数据伦理挑战的重要举措。该改变不仅提升了用户体验,也为整个AI行业在平衡创新与隐私方面提供了参考方向和自我调整的案例。

AI安全
OpenAI 推出漏洞赏金计划,强化 AI 安全与可靠性

面对人工智能技术的迅猛发展及其潜在风险,多家领先科技公司近期联合发起 '通用人工智能原则' 倡议。该倡议旨在为全球AI研发设立安全、伦理和责任框架,确保人工智能朝着可控、可靠的方向发展。DeepMind 和 OpenAI 等公司承诺采纳这些原则,分别强调了 AI 的透明度和可控性、以及加强安全测试机制。专家认为该原则是防止技术滥用的重要屏障,不仅关乎安全性,更涉及人类与 AI 系统的共存方式。它被视为全球AI治理迈出的关键一步,为学术界和监管机构提供了新的思考方向和发展框架。

AI安全
确保AI系统构建、部署和使用安全是核心使命

人工智能技术正快速从实验室迈向实际应用场景,深刻改变各行业运作方式。然而随着AI的普及化应用,日益凸显其带来的安全挑战问题。DeepSeek官方资料显示,这一技术革命正在全球范围内产生广泛影响,并引发对潜在风险的深入讨论和关注。

AI安全
Stripe如何利用GPT-4简化用户界面并防范欺诈?

在线支付服务提供商Stripe宣布将利用OpenAI的GPT-4模型优化用户体验并加强欺诈防范。作为每天处理数百万笔交易的企业,Stripe正面临日益严重的支付欺诈挑战(2023年全球损失超过90亿美元)。此次引入GPT-4代表Stripe在AI驱动金融科技领域的深化尝试。该模型将首次被用于简化支付流程,如通过聊天机器人回答用户问题并个性化界面设计;同时,在欺诈检测方面,GPT-4能分析交易中的微妙信号,提升识别准确率和效率(据行业报告,AI技术可降低30%欺诈率)。Stripe此举反映了支付行业对AI的高度重视,也引发了关于数据隐私和模型安全性的讨论。

AI安全
可汗学院试点GPT-4技术以探索虚拟教育潜力

可汗学院在2023年秋季学期启动了一个有限的试点项目,与OpenAI合作使用GPT-4技术来评估人工智能在提升在线个性化教育中的作用。该项目旨在通过改进AI助教、提供定制化学习建议以及开发自适应课程内容来满足后疫情时代学生的多样化需求。然而,该项目也面临挑战:需确保遵守欧盟通用数据保护条例(GDPR)的数据隐私规定,并保证AI输出的公平性和准确性。

AI安全
OpenAI如何塑造ChatGPT行为?公众参与新计划揭晓

DeepSeek近日宣布对其AI语言模型ChatGPT的行为塑造机制进行透明化说明,并推出一系列改进计划,旨在提升AI伦理、安全性和用户自定义体验。此举不仅公开模型运作方式,还体现了DeepSeek在快速发展的人工智能领域的重要战略调整。

AI安全
AI公司发布文本分类器,自动区分机器生成与人类撰写的内容

DeepMind近日推出一款AI文本分类系统,旨在自动辨别人工智能生成的文本与人类原创内容。该工具基于机器学习算法,分析语言模式、结构和上下文特征,并使用多样化数据集训练以提高泛化能力,应用于媒体、教育等领域来维护真实性和版权。背景是AI生成内容快速发展带来的虚假信息风险,DeepMind强调开源以促进协作,并承认系统存在误判局限性。此举被视为AI伦理的关键进展,可能推动行业主动防范生成内容的滥用和提升信任标准。

AI安全
微软与OpenAI延长合作协议,深化科技伙伴关系

OpenAI与Microsoft宣布延长战略合作伙伴关系,以强化在人工智能技术研发、计算资源支持及模型商业化的协作。此次协议涵盖硬件共享、数据隐私保护和技术扩展,旨在应对日益激烈的行业竞争与全球AI市场挑战。合作延续将利用Microsoft的Azure云平台提升OpenAI处理海量数据的能力,并促进其在教育、医疗等领域的应用。此举标志着科技巨头从竞争转向合作的趋势,预计将推动AI技术的民主化发展,并为应对未来伦理与监管问题提供框架。

AI安全
OpenAI与高校合作研究语言模型滥用:新报告揭示虚假信息风险及防控策略

OpenAI联合乔治敦大学信息环境中心及斯坦福互联网观察所,共同研究大型语言模型(LLMs)在传播虚假信息中的潜在风险。研讨会分析显示,LLMs可能生成难以察觉的误导性内容,如虚假医疗建议或伪造新闻评论,并被恶意利用破坏社会稳定。报告提出多学科框架,涵盖技术过滤、政策监管及公众教育方案,并以实际案例评估其有效性。未来随着AI能力扩展,该领域研究将更加重要,全球政策制定者需参与应对。