点击上方蓝字关注我们
人
REN
工
GONG
智
ZHI
能
NENG
探索人工智能的无限可能——AI科技
应用、创新、挑战
人工智能(AI)近两年的发展具有“大”和“多”的鲜明特征,大模型的参数规模越来越大,文图视等方面的多模态能力也越来越强。2025年,它又将如何进化?
从全球业界发展趋势看,AI将具备更强的推理能力,各形态智能体会更加普及,同时也会有“规模定律”受考验等更多挑战浮现。
大模型应用更广,推理能力更强大
这些具备高级推理能力的模型在科学研究中潜力巨大。2024年诺贝尔物理学奖颁给机器学习先驱、化学奖颁给能预测蛋白质结构的AI开发者,凸显人工智能推动科研的巨大贡献。业界普遍认为,AI将在2025年加速科技突破,有望在可持续材料、药物发现和人类健康等方面展现出新的能力。
智能体将更普及,具身智能受期待
“规模定律”受考验,多重挑战需应对
大模型过去一段时间的快速发展符合“规模定律”,即大模型的性能随着模型参数、训练数据量和计算量的增加而线性提高。但近来不断有迹象显示,由于训练数据即将耗尽、更大规模训练的能耗和成本激增等因素,“规模定律”可能难以延续。
因此有研究者提出“密度定律”,指AI模型的能力密度随时间呈指数级增长。北京面壁智能科技有限责任公司联合创始人兼执行总裁李大海说,现在越来越多的企业更注重AI算法的调优,同样的模型能力可被放到一个更小的参数规模里,表明模型的能力密度不断增强。“炼大模型,不如炼优模型”。
微软开发的Phi模型等一系列小模型已显示,管理较小但高质量的数据集可以提高模型的性能和推理能力。中国深度求索公司2024年12月底发布混合专家模型DeepSeek-V3。测试结果显示,与某些性能相当的国际知名大模型相比,成本低了一个数量级。业内人士预测,小模型的吸引力可能在2025年大幅增高。
发展AI的能源挑战也备受关注。由于训练最新的大模型耗能巨大,微软、谷歌、亚马逊等科技巨头已将目光瞄向核能。
AI的快速发展还伴随着安全、治理、版权、伦理等方面的新风险。例如多模态功能的拓展,使虚假信息的内容形态更加多元,也更难被普通人所辨别;智能体自主性的提高,会带来其目标与人类意图不一致或产生意外行为的风险。
E N D
我们致力于保障客户的网络安全,监控事件并采取适当措施,设计和实施安全策略,维护设备和软件,进行漏洞扫描和安全审计,团队协调处理网络攻击、数据泄露等安全事故,并负责安全服务项目实施,包括风险评估、渗透测试、安全扫描、安全加固、应急响应、攻防演练、安全培训等服务,确保客户在网络空间中的安全。
专业的信息安全团队,给你最安全的保障。定期推送漏洞预警、技术分享文章和网络安全知识,让各位了解学习安全知识,普及安全知识、提高安全意识。
扫码获取更多精彩
往期推荐
分享
收藏
点赞
在看
推荐站内搜索:最好用的开发软件、免费开源系统、渗透测试工具云盘下载、最新渗透测试资料、最新黑客工具下载……
还没有评论,来说两句吧...