本文作者:戴望舒

实践研究(2024新澳管家婆免费)Meta 发布最强开源 AI 模型 Llama 3.1,参数规模达 4050 亿

实践研究(2024新澳管家婆免费)Meta 发布最强开源 AI 模型 Llama 3.1,参数规模达 4050 亿摘要: 实践研究(2024新澳管家婆免费)Meta 发布最强开源 AI 模型 Llama 3.1,参数规模达 4050 亿扎克伯格称其为“业内顶尖水准的”AI模型,并表示能够与OpenAI...

周二实践研究(2024新澳管家婆免费)Meta 发布最强开源 AI 模型 Llama 3.1,参数规模达 4050 亿,美国科技巨头 Meta 发布了其最强大的开源人工智能模型 Llama 3.1,共有三个版本。扎克伯格称其为“业界领先”的人工智能模型,并表示它可以与谷歌等竞争对手的同类产品相媲美。

Meta 的公告显示,Llama 3.1 在 Llama 3 基础上进行了大幅更新,Llama 3.1 主要用于驱动聊天机器人,可以用八种语言进行对话,编写更高质量的计算机代码,并能解决更复杂的数学问题。

Llama 3.1 405B 模型包含 4050 亿个参数,是近年来最大的模型之一。通常,参数大致对应着模型解决问题的能力,参数越多的模型通常表现更好。该模型使用 16,000 个 H100 GPU 进行训练,得益于新的训练和开发技术,Meta 声称 Llama 3.1 405B 可以在一定程度上与 GPT-4o 和 3.5 相媲美。

Meta 高管表示,该模型主要用于为 Meta 内部和外部的开发人员开发聊天机器人,具有多种新功能,包括改进的推理能力,可帮助解决复杂的数学问题或瞬间合成整本书的文本。它还具有生成 AI 功能,可以根据文本提示生成图像。一项名为“想象自己”的功能允许用户上传自己的面部图像,然后在不同的场景和情况下生成他们的描述。

与其他开源和闭源生成式 AI 模型一样,Llama 3.1 405B 可以执行多种任务,包括编程、回答基本数学问题以及用八种语言(英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语)总结文档。该模型目前仅支持文本操作,这意味着它无法回答有关图像的问题,但大多数基于文本的工作负载(例如分析 PDF 和电子表格)都在其能力范围内。

Meta 表示,该公司正在试验多模态模型。在周二发表的一篇论文中,公司研究人员表示,他们正在积极开发能够识别图像和视频并理解(和生成)语音的 Llama 模型。不过,这些模型尚未准备好公开发布。

与 Meta 之前的型号一样,Llama 3.1 405B 可以在 AWS、Azure 和 Cloud 等云平台上下载或使用。它还用于 Meta.ai,为美国用户提供聊天机器人体验。

此外,Llama 3.1 的上下文窗口()涵盖了标记,它比以前的 Llama 型号更大,大约相当于一本 50 页书的长度。

模型的上下文或上下文窗口是指模型在生成输出(例如文本)之前考虑的输入数据(例如文本)。具有较大上下文窗口的模型可以总结较长的文本片段和文档。此类模型在为聊天机器人提供支持时也不太可能忘记最近讨论的话题。

Meta 周二还推出了另外两款较小的新型号 Llama 3.1 8B 和 Llama 3.1 70B,它们是 Meta 4 月份发布的 Llama 3 8B 和 Llama 3 70B 型号的更新版本。它们的上下文窗口也为 128,000 个 token。相比之下,之前的型号上下文窗口最大为 8,000 个 token。

Meta 在论文中表示,Llama 3.1 405B 的性能与 GPT-4 相当,与 GPT-4o 和 3.5 的比较中取得了“好坏参半”的结果。虽然 Llama 3.1 405B 在执行代码和生成图形方面优于 GPT-4o,但其多语言能力总体较弱,在编程和通用推理方面也落后于 3.5。

Meta 首席执行官马克·扎克伯格在周二早上发布的一封公开信中概述了未来的愿景,即 AI 工具和模型将惠及全球更多的开发者,确保人们能够享受 AI 带来的“好处和机遇”。

扎克伯格为自己的开源策略和对人工智能的巨额投资进行了辩护。扎克伯格在接受媒体采访时表示:“我认为人工智能助手最重要的产品特性是它有多聪明。我们正在打造的Llama模型是世界上最先进的模型之一。”

扎克伯格补充说展望管家婆必出一肖一码,Meta 已经在开发 Llama 4。

扎克伯格还表示,Meta 的聊天机器人拥有“数亿”用户,预计到今年年底,它将成为全球使用最广泛的聊天机器人。他希望 Meta 以外的公司也能使用 Llama 来训练自己的 AI 模型。

Meta 在 AI 方面的投入巨大。扎克伯格表示,训练 Meta 的 Llama 3 模型需要“数亿美元”的计算资源,但他预计未来的模型将花费更多。“未来将需要数十亿美元甚至更多的计算资源,”他说。2023 年,Meta 试图削减一些未来技术和管理方面的支出,裁减数千个工作岗位,这是扎克伯格所说的“效率之年”的一部分。但扎克伯格仍然愿意在 AI 竞赛中投入资金。

“我认为现在很多公司都在过度建设,你可能会回头想‘哦,我们本可以再花数十亿美元’,”扎克伯格说。“另一方面,我实际上认为所有投资的公司都在做出理性的决定,因为如果你落后了,你将在未来 10 到 15 年内在最重要的技术领域处于劣势。”

“如果人工智能在未来会变得和移动平台一样重要,那么我不想通过竞争对手来获得人工智能,”扎克伯格表示,他长期以来一直对 Meta 依赖苹果手机和操作系统来分发其社交媒体应用感到不满。“我们是一家科技公司,我们需要构建的东西不只是应用层面,而是整个技术层面。为此进行巨额投资是值得的。”

此外,Meta 和 AI 芯片领导者 周二宣布, AI 将为全球企业定制 Llama 3.1 生成式 AI 模型,将其数据与 Llama 3.1 405B 和 模型相结合,打造“超级模型”。

今年 4 月,Meta 告诉投资者,该公司计划今年的支出将比最初预期多出数十亿美元,而投资人工智能是一个主要原因。该公司表示,到今年年底,预计将拥有约 35 万块 H100 GPU。

他还阐述了 Meta 开源政策的竞争力,该政策让公众可以免费使用 Llama 背后的技术,并将有助于使 Meta 的工作成为其他成功初创企业和产品的基础,使 Meta 在行业发展中拥有更大的影响力。

英特尔表示:“恭喜!我们很高兴通过Llama 3.1的发布优化我们的AI产品组合。”

多数网友对Meta表示祝贺,认为Llama 3.1是一个伟大的杰作,是开源社区的胜利。

也有网友质疑,如此大型的车型运行时到底要耗费多少电量,对环境会造成多大影响。

每日经济新闻综合公开资讯

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

评论列表 (暂无评论,37人围观)参与讨论

还没有评论,来说两句吧...