Twitter启用用户数据用于AI训练 : Twitter默默启用了一个默认设置,允许平台使用用户数据来训练其AI模型Grok。用户可以通过网页禁用此设置,但在移动应用中无法禁用。更多详情请见:https://help.x.com/en/using-x/about-grok。
Llama 3.1发布及研究论文 : 现代人工智能 (AI) 系统由基础模型提供支持。本文提出了一组新的基础模型,称为 Llama 3。它是一组原生支持多语言、编码、推理和工具使用的语言模型。我们最大的模型是一个密集的 Transformer,具有 405B 个参数和最多 128K 个令牌的上下文窗口。研究论文对 Llama 3 进行了广泛的实证评估,发现 Llama 3 在大量任务上的质量与 GPT-4 等领先语言模型相当。论文公开发布了 Llama 3,包括 405B 参数语言模型的预训练和后训练版本以及用于输入和输出安全的 Llama Guard 3 模型。论文还介绍了Meta通过组合方法将图像、视频和语音功能集成到 Llama 3 中的实验结果,还观察到这种方法在图像、视频和语音识别任务上的表现与最先进的方法具有竞争力。由此产生的模型尚未广泛发布,因为它们仍在开发中。更多信息请见:https://ai.meta.com/research/publications/the-llama-3-herd-of-models/
Google DeepMind在科学和数学领域的AI贡献 : Google DeepMind在之前工作的基础上,强化了在科学和数学领域的AI贡献,包括用于定理证明的Lean+LLM框架和基于AI的天气模型GraphCast。更多信息请见:https://arxiv.org/abs/2202.11214。
BPE分词器攻击方法 : Alisa Wuffles开发了一种攻击方法,利用BPE分词器揭示训练数据混合,特别针对商业LLM分词器如GPT-4。此方法使用有序合并列表暴露底层数据。更多详情请见:https://arxiv.org/abs/2407.16607。
多模态RAG:文本和图像搜索 : LlamaIndex引入了多模态检索增强生成(RAG)系统,使用CLIP模型创建统一的文本和图像向量空间,利用OpenAI嵌入和Qdrant作为多模态向量存储。更多详情请见:https://colab.research.google.com/drive/1YkT3EHXjZ5LSPwTiR2D2kroYqqQCl7AT。
模型崩溃在AI研究中的讨论 : 研究人员呼吁更仔细地审视COLM 2024论文,该论文认为模型崩溃通常以不反映实际应用的方式诱发。更多信息请见:https://arxiv.org/abs/2404.01413。
SearchGPT原型由OpenAI测试 : OpenAI正在测试SearchGPT,这是一种新的AI搜索功能原型,提供快速和及时的答案,并附有清晰和相关的来源。此原型目前正在小范围用户中测试,计划集成到ChatGPT中。更多信息请见:https://openai.com/index/searchgpt-prototype/。
AI训练在AI生成数据上的模型崩溃 : 一篇发表在《Nature》上的新论文发现,训练AI在AI生成的数据上会导致模型崩溃,产生无意义的内容。此发现突显了递归AI训练实践的局限性和潜在陷阱。更多信息请见此处。
AI存在风险概率估计 : AI Snake Oil的一篇新文章批评了AI存在风险预测的可靠性,认为这些预测往往是推测性的,缺乏可靠的方法。文章建议这些预测对于政策制定来说过于不可靠,可能具有误导性。更多信息请见:https://t.co/EFCNpN2e2y。
训练扩散模型与强化学习 : Masatoshi Uehara等人的新论文介绍了SEIKO,一种使用强化学习(RL)训练扩散模型的方法,以平衡奖励最大化、有效样本生成和高效探索。论文和更多资源请见:https://arxiv.org/abs/2402.16359。
大模型时代的代码执行沙箱:蚂蚁安全实验室针对 AI 应用的代码执行沙箱进行了深入研究,特别是在大模型如 ChatGPT 4 推出代码解释器功能后,对沙箱的安全性提出了更高的要求。研究发现,尽管 AI 应用的代码执行功能受到关注,但沙箱的安全防御措施往往不足。通过对 ChatGPT 4 等 AI 应用沙箱的测试,研究室揭示了沙箱的安全策略和选型的重要性。测试包括任意命令执行、特权用户执行、外网访问、东西向隔离、敏感信息泄露和文件上传等方面。研究室对比了不同 AI 应用的沙箱实现,如 Pyodide、Deno、Omegajail、Firecracker 和 gVisor,指出了各自的特点和适用场景。研究表明,进程级沙箱在 AI 领域的应用已逐渐被语言级和系统级沙箱所取代,尤其是 gVisor 和 Firecracker 等系统级沙箱因其强大的隔离性和业务兼容性受到青睐。然而,这些高级沙箱的接入成本较高,需要配备更精细的安全策略,包括最小化运行环境、限制用户权限、实施严格的安全策略和完善的日志审计。论文和更多资源请见:https://news.miracleplus.com/share_link/34640。
AI音乐大模型背后的技术突破、版权诉讼和资本蛋糕:AI 音乐大模型利用音频 token 化和压缩技术,通过 Transformer 架构生成音乐。首先,将音乐的各维度(如节奏、和声、旋律)转换为 token 序列,然后通过码本(codebook)进行信息压缩,大幅度减少数据量。其次,采用双层压缩技术,进一步减少 token 量,使得大语言模型能够处理长序列音乐数据。这些技术的进步使得 AI 音乐在作曲、作词和演唱上取得了显著的提升,能够生成悦耳的音乐作品。然而,这些技术的应用也引发了版权侵犯的争议,三大唱片公司对 Suno 和 Udio 提起了诉讼。尽管如此,AI 音乐技术的未来仍然广阔,预计会继续推动音乐产业的变革。论文和更多资源请见:https://news.miracleplus.com/share_link/34644
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...