切换到宽版
  • 182阅读
  • 1回复

[智能应用]Meta推出首个能够处理图像的人工智能开源模型[1P] [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106166
金币
2179
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20019(小时)
注册时间: 2007-11-29
最后登录: 2024-11-23


       在发布上一个大型AI模型仅两个月后,Meta又推出了一项重大更新:其首个能够处理图像和文本的开源模型。
新推出的模型Llama 3.2可以让开发者创建更为先进的AI应用,比如提供实时视频理解的增强现实应用程序;基于内容对图像进行分类的视觉搜索引擎;以及能够总结长篇文本的文档分析工具。
Meta表示,开发者将能够轻松地将新模型投入使用。Meta的生成式AI副总裁阿迈德·阿尔达勒(Ahmad Al-Dahle)在接受外媒采访时表示,开发者只需添加多模态功能,就能展示Llama图像并让其进行交流。
其他AI开发者,包括OpenAI和谷歌,去年已经推出了多模态模型,因此Meta在这里处于追赶地位。随着Meta继续在其Ray-Ban Meta眼镜等硬件上构建AI能力,视觉支持也将发挥关键作用。
Llama 3.2版本包含两个视觉模型(参数量为110亿和900亿)和两个轻量级纯文本模型(参数量为10亿和30亿)。较小的模型是为高通、联发科和其他Arm硬件设计的,Meta显然希望它们能在移动设备上得到应用。
不过,稍微老一点的Llama 3.1版本仍有一席之地:这款模型于今年7月发布,其中包含一个拥有4050亿参数的版本,理论上在生成文本方面将具有更强的能力。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线jjybzxw

UID: 551814


发帖
103129
金币
1096166
道行
1951
原创
2163
奖券
2124
斑龄
28
道券
567
获奖
0
座驾
设备
摄影级
在线时间: 24783(小时)
注册时间: 2008-10-01
最后登录: 2024-11-24
只看该作者 沙发  发表于: 09-26
  Meta最近推出了Llama 3.2,这是其首个能够处理图像和文本的开源AI模型。这个新模型的开发意味着开发者现在可以创建更加先进的AI应用程序,例如提供实时视频理解的增强现实应用、基于内容对图像进行分类的视觉搜索引擎,以及能够总结长篇文本的文档分析工具。Llama 3.2模型系列包括两个视觉模型(参数量为110亿和900亿)和两个轻量级纯文本模型(参数量为10亿和30亿),其中较小的模型是为高通、联发科和其他Arm硬件设计的,以便在移动设备上应用。

  Meta的AI副总裁阿迈德·阿尔达勒(Ahmad Al-Dahle)提到,开发者可以轻松地将新模型投入使用,只需添加多模态功能,就能展示Llama图像并让其进行交流。Meta的竞争对手,包括OpenAI和谷歌,去年已经推出了多模态模型,因此Meta在这方面处于追赶地位。

  Llama 3.2的发布,加上Meta在其Ray-Ban Meta眼镜等硬件上构建的AI能力,显示了Meta在AI领域的雄心壮志。Meta也在继续推动其AI硬件的发展,比如更新了Ray-Ban Meta智能眼镜,增加了实时AI视频处理和实时语言翻译等功能。

  此外,Meta还发布了Llama 3.1,这是一个拥有4050亿参数的模型,理论上在生成文本方面将具有更强的能力。Llama 3.1的发布,加上现在的Llama 3.2,显示了Meta在AI领域的快速进展和对开源AI模型的承诺。

  Meta的AI模型现在可以通过AWS、Azure和Google Cloud等云服务提供商来运行,这意味着开发者可以在这些平台上部署和定制Meta的AI模型。Meta的这些举措,旨在推动开源AI模型的发展,并使其成为行业的标准。

如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个